Mit den Fortschritten der AIGC wird es zunehmend schwieriger, die Authentizität eines Medienwerkes zu bestimmen. Fotos und Videos, die Ereignisse oder Personen in der realen Welt zu zeigen scheinen, könnten in der Tat ein KI-synthetisiertes Deepfake sein.
Deepfakes gelten häufig als eines der besorgniserregendsten KI-Werke der letzten Jahre. Sie beziehen sich auf gefälschte Videos oder Fotos, die mit Computertechniken anstelle traditioneller fotografischer Methoden synthetisiert werden und extrem schwer von echten Videos zu unterscheiden sind, laut der Definition des Philosophen Luciano Floridi. Der Begriff „Deepfake“ wurde nach dem Namen eines Reddit-Nutzers geprägt, der im Dezember 2017 begann, Pornovideos mit den Gesichtern weiblicher Prominenter zu retuschieren und zu veröffentlichen.
Unterstützt durch die GenAI Technologien, die heutigen Deepfakes werden qualitativ deutlich verbessert und für Leute ohne technische Kenntnisse auch zugänglich. Für die Erstellung einer Stimmsynthese reicht es, eine mindestens 30-sekündige klare Sprachaufnahme der Zielperson in das KI-Tool hochzuladen, wobei für eine höhere Genauigkeit 3 bis 5 Minuten Material empfohlen werden. Ebenfalls funktioniert die Erstellung eines Face-Swap-Videos: Es wird lediglich das Zielvideo sowie 10 bis 50 Bilder oder 1 bis 2 Minuten Videomaterial als Quelle benötigt, um die Gesichtszüge auf das Zielvideo zu übertragen.
Anwendungen von Deepfakes in Sozialmedien-basierter Unternehmenskommunikation
Beim Thema Deepfake fällt vielen Menschen als Erstes der Gesichtstausch ein. Eine 2019 erschienene chinesische App Zao bietet die Funktion, die Gesichter von Charakteren in Film-Ausschnitten mit Fotos anderer Personen zu ersetzen. Ein paar aktuellere Tools sind DeepSwap, Vidnoz und FaceSwapper. Diese Technologie birgt ein großes Potenzial im Marketingbereich durch ihre Fähigkeit, virtuelle Abbildung der einzelnen Nutzer zu erstellen. Ein Anwendungsfall ist ein Face-Filter, der Nutzern virtuelle Interaktionen mit Produkten ermöglicht, z. B. indem sie verschiedene Brillen anprobieren.
Mit Deepfakes lassen sich Produkte in unwahrscheinlichen Formen und Szenarien darstellen, die in der Realität nicht möglich sind. Einige Marken haben diese Idee in ihren Marketingkampagnen mit computer-generierten Videos umgesetzt, wo ihre Produkte in riesigen Größen erscheinen und mit Sehenswürdigkeiten auf der ganzen Welt interagieren. Ein paar interessante Beispiele wären Big Ben in einer riesigen North Face Jacke [1], ein Chelsea FC T-Shirt, das auf der Londoner Tower Bridge zum Trocknen hängt [2], und sogar eine riesige Barbie-Puppe, die aus der Box heraus auf die Straßen von Dubai tritt [3]. Der Erfolg der Anwendungsfälle beweist das Potenzial der Deepfakes, die Aufmerksamkeit der Kunden effektiver zu erregen.
Sorgen
Im Allgemeinen werden Deepfakes in den Medien eher negativ dargestellt [4]. Mithilfe der GenAI kann jeder mit Computer und Internetverbindung realistisch aussehende Fotos und Videos von Menschen erstellen, die Dinge sagen und tun, die sie tatsächlich nicht gesagt oder getan haben. In diesem Kontext wurde die Sorge geäußert, dass AIGC missbraucht werden, indem sie Personen und Ereignisse falsch darstellen und Expertenmeinungen verzerren. Z.B. Deepfakes über einen Unternehmensleiter können dem Ruf und dem Image der Marke schaden.
Die groß angelegten Manipulationen von Bildern und Videos können das Problem der Verbreitung von Desinformationen auf Social-Media-Plattformen verschärfen. Produktabbildungen lassen sich einfach und natürlich verschönern, z.B. indem das Material besser aussieht oder die Wirkung des Produkts übertrieben dargestellt wird. Die Fälschung betrifft aber auch die ehrlichen Marken, die es tatsächlich nicht vornehmen, da die größte Bedrohung durch Deepfakes nicht im gefälschten Inhalt selbst liegt, sondern in der Möglichkeit ihrer Existenz [5], was das Vertrauen in authentische Medien untergrabt. Dies kann zur Folge haben, dass es für die Marketingexperten immer schwieriger wird, die Nutzer durch Werbeinhalte zu überzeugen.
Kennzeichnung der Deepfakes
Obwohl es immer weniger technische Einschränkungen bei der Produktion realistischer gefälschter Videos gibt, ist es dennoch möglich, normative Einschränkungen durchzusetzen. Z.B. wurden Gesetze vorgeschlagen, die die Erstellung und Verbreitung von Deepfakes einschränken. Der DEEPFAKES Accountability Act in den USA verlangt eine „klare Kennzeichnung aller Deepfakes“. Die Kennzeichnung von AIGC könnte eine gewisse Rückverfolgbarkeit darüber gewährleisten, wer am Generierungsprozess beteiligt ist und welche Quellen zur Generierung des Outputs verwendet wurden. Die Kennzeichnung der AIGC als fiktive Inhalte behebt diesen Schaden jedoch nicht, da die Identität der Betroffenen weiterhin missbraucht werden kann [6].
KI als Gegenmaßnahme für Deepfakes
Anderseits werden KI-Systeme auch zunehmend eingesetzt, um gefälschte Inhalte zu analysieren und zu identifizieren. Einige Startups bieten KI-Tools zum Schutz vor Deepfakes, die auf denselben Technologien basieren, welche die Erstellung von Deepfakes unterstützen. Beispiele dafür sind Truepic und Deeptrace. Mit diesen Tools können sich Marken gegen Desinformationen über sich selbst wehren, um die negativen Auswirkungen zu senken.
Amazon, Microsoft, Facebook und die gemeinnützige Koalition Partnership on AI haben sich zusammengeschlossen und die „Deepfake detection challenge“ ins Leben gerufen. Diese forderte die Menschen dazu auf, „innovative neue Technologien zu entwickeln, die helfen können, Deepfakes und manipulierte Medien zu erkennen“. Es könnte für Unternehmen auch lohnend sein, sich an solchen Challenges zu beteiligen.
Bild: pexels / Markus Winkler



