Blog über das Internet of Things | Softeq

Was ist die Deepfake-Technologie? Potenzielle Einsatzbereiche für Unternehmen

Geschrieben von Anna Hofer | 27.05.2021 09:00:44

Deepfakes haben die Macht, die Welt zu verändern –  zum Guten wie zum Schlechten. Sie können den Ruf von jemandem ruinieren oder internationale politische Debatten zum Wohle des Planeten anstoßen. Es kommt darauf an, wie sie genutzt werden. Hier erfahren Sie, was Deepfake-Technologie ist und wie Unternehmen und die Gesellschaft von ihr profitieren können.

Wie funktionieren Deepfakes?

Ein Deepfake ist eine Video-, Foto- oder Audioaufnahme, die echt wirkt, aber mithilfe künstlicher Intelligenz manipuliert wurde. Die Technologie kann Gesichter ersetzen, Mimik manipulieren und Sprache synthetisieren. 

Unabhängig vom jeweiligen Medientyp durchläuft jeder Deepfake drei Phasen, die für alle KI-basierten Produkte typisch sind. Diese drei Phasen sind: Datenextraktion und -verarbeitung, ML-Modelltraining und Konvertierung. Das klingt alles ziemlich technisch. Anschaulicher wird es durch folgendes Beispiel:

Karl und Klara sind Geschwister. Sie arbeiten in zwei Agenturen für digitale Transformation, die miteinander im Wettbewerb stehen. Die beiden nehmen an einer virtuellen Messe für digitale Transformation teil. Jeder der beiden hat das  Ziel, möglichst viele nützliche Geschäftskontakte zu knüpfen. Klara glaubt, dass ihr Bruder im Vorteil ist, weil er ein Mann ist. Karl wiederum denkt, dass seine Schwester bessere Chancen hat, weil sie eine Frau ist. Da die Messe online stattfindet, beschließen sie, ihre Gesichter und Stimmen virtuell zu tauschen und verwenden dazu die Deepfake-Technologie. Sehen wir uns an diesem Beispiel an, wie ein Video-Deepfake erstellt wird.

Schritt 1: Extrahieren

Der erste Schritt besteht darin, Bilder aus den Videos von Karl und Klara zu extrahieren, die Gesichter zu identifizieren und sie aneinander anzupassen. 

Die Ausrichtung ist entscheidend. Damit das neuronale Netzwerk den Tausch der Gesichter vornehmen kann, müssen alle Gesichter die gleiche Größe haben und alle Details aufeinander ausgerichtet sein. Es ist auch wichtig, qualitativ hochwertige Bilder zu verwenden, denn davon hängt die Qualität des neuen Bildes ab.

Schritt 2: Trainieren

In der Trainingsphase lernt das neuronale Netzwerk, das Gesicht von Karl in das von Klara und andersherum zu konvertieren. Für diesen Schritt ist üblicherweise eine spezielle Deep Network-Architektur zuständig, bekannt als Autoencoder. Dieser besteht aus drei Teilen:

  1. Der Encoder erkennt alle Gesichtsmerkmale auf dem eingegebenen Bild.
  2. Im latenten Raum werden die Eingabedaten komprimiert.
  3. Der Decoder rekonstruiert das Originalgesicht mit allen Details.

Die Autoencodierung muss für jedes Gesicht wiederholt werden. Das bedeutet, dass wir zwei Autoencoder-Netzwerke benötigen – eines für Karl und eines für Klara. Zunächst lernen die Netzwerke, Gesichtsmerkmale zu erkennen, dann lernen sie, eine komprimierte Repräsentation des Gesichts zu erstellen und schließlich, das Gesicht wieder zu rekonstruieren.

Dann werden die Netzwerke auf der Basis von Hunderten oder sogar Tausenden von Gesichtsausdrücken von jedem der Geschwister trainiert. In der Regel dauert der Trainingsprozess Stunden. Am Anfang sind die Ergebnisse noch unterdurchschnittlich und die generierten Gesichter sind kaum zu erkennen. Aber durch ständiges Ausprobieren lernt das Netzwerk, ein Gesicht immer realistischer nachzubilden. 

Wenn die Netzwerke ausreichend trainiert sind, werden die Decoder ausgetauscht. Karls Gesichtsausdrücke werden dann mit Klaras Decoder anstelle seines eigenen generiert. Dabei wird seine Mimik beibehalten, aber mit Klaras Gesicht rekonstruiert, und umgekehrt. 

Auf diese Weise kann Karls Netzwerk leicht Karls Gesichtsausdrücke erkennen und sie mit Klaras charmantem Lächeln rekonstruieren. Genauso wird Klaras Netzwerk sie in einen selbstbewussten Mann verwandeln.

Schritt 3: Konvertieren

Nachdem das Training beendet ist, steht noch ein letzter Schritt an: Klaras konvertiertes Gesicht muss in das Originalbild von Karl integriert werden (und genauso muss Karls konvertiertes Gesicht in Klaras Bild eingebunden werden). Dabei können die Bilder verändert werden: Zum Beispiel kann die Farbe des ausgegebenen Bildes verändert werden, das überlagerte Bild kann neu skaliert werden usw. Dann werden alle konvertierten Bilder zu einem Video zusammengefügt.

Am Ende profitierten Karl und Klara gleichermaßen von ihrer Idee. Sie erreichten ihre Ziele, indem sie die Vorteile des jeweils anderen Geschlechts ausnutzten. Karl kam als angenehme und charismatische junge Frau rüber. Klara vermittelte den Eindruck eines aktiven, vertrauenswürdigen Mannes. Karl und Klara stellten fest, dass es keinen Vorteil bringt, stereotyp männlich oder weiblich zu erscheinen, aber das Experiment machte sie selbstbewusster!

Wie können Unternehmen von Deepfakes profitieren?

Die Deepfake-Technologie birgt viel Potenzial. Unternehmen können davon profitieren, wenn sie unter Beachtung ethischer Grundsätze eingesetzt wird. Hier sind einige Beispiele aus der Praxis.

Gesundheitswesen

Das kanadische KI-Start-up Lyrebird entwickelt kundenspezifische Produkte auf der Basis von Deepfake Voice-Technologie. Das Unternehmen arbeitet für das "Project Revoice" mit der ALS Association zusammen, um Menschen mit ALS (Lou-Gehrig-Syndrom) zu helfen. Die Initiative ermöglicht ALS-Patienten, die die Fähigkeit zu sprechen verloren haben, weiterhin mit ihrer eigenen authentischen Stimme zu sprechen.

Marketing

Zalando, ein börsennotierter Online-Versandhändler mit Sitz in Berlin, machte sich die Deepfake-Technologie bereits zu Nutze. Für eine Werbekampagne mit dem Model Cara Delevingne wurden mithilfe der Deepfake-Technologie 290.000 lokalisierte Anzeigen realisiert, um eine Reihe von alternativen Aufnahmen und Stimmen zu erzeugen. Im Video erwähnt Delevingne jeweils die Stadt, in der das Video gezeigt wird. Auf diese Weise sprach Zalando Millionen Käufer höchst persönlich an.

Newsletter
 

Ausstellungen

Das Dalí-Museum in St. Petersburg, Florida, nutzte die Deepfake-Technologie als Teil seiner Ausstellung. Ein lebensgroßer Deepfake des surrealistischen Künstlers (1904-1989) erschien vor den Besuchern, als diese die Türklingel am Kiosk drückten, und erzählte ihnen dann Geschichten über sein Leben. Der Deepfake wurde auf der Basis von Archivmaterial aus Interviews mit 6.000 Bildern erstellt. Es dauerte 1.000 Stunden, den KI-Algorithmus auf Dalís Gesicht zu trainieren.

E-Commerce

Die FIA, Superpersonal und HANGER nutzten die Deepfake-Technologie, um Kunden direkt in Markenvideos und Kampagnen einzubinden. Mittels AR-Techniken auf dem Smartphone kann man beispielsweise Schuhe anprobieren. Mit Deepfakes geht das noch einen Schritt weiter: User können ganze Outfits an verschiedenen Models ansehen, mit verschiedenen Hautfarben, Kleidergrößen und Aussehen, oder sie können die Outfits an sich selbst ausprobieren.

Filmproduktion

Deepfakes können auch in der Filmproduktion eingesetzt werden. Die Technologie kann die Gesichter von Schauspielern nachbilden, die verstorben sind, sodass ihr Charakter nicht mit ihnen sterben muss. Ein gutes Beispiel hierfür ist die Nachbildung des 1994 verstorbenen Peter Cushing in Star Wars: Rogue One (2017). Mit Deepfakes ist es auch möglich, Schauspieler jung erscheinen zu lassen, so geschehen bei Will Smith in Gemini Man.

 

Deepfakes: Mögliche Fallstricke

Die Deepfake-Technologie ist einer der besorgniserregendsten Erfolge des rasanten Fortschritts der künstlichen Intelligenz. Wenn sie missbraucht wird, bietet sie vielfältige Möglichkeiten, Unternehmen zu schaden. Zum Beispiel können Konkurrenten verfälschtes Video- und Audiomaterial verwenden, um den Ruf von Unternehmen und ihren Führungskräften zu ruinieren. Auch Prominente wie Gal Gadot, Hilary Duff, Emma Watson und Jennifer Lawrence wurden bereits Opfer der Deepfake-Technologie und mussten sich damit auseinandersetzen, dass ihre Abbilder in explizite Szenen eingefügt wurden.

Es gibt auch eine andere Möglichkeit, Deepfakes zu missbrauchen. Der Geschäftsführer eines Energieunternehmens in Großbritannien glaubte, mit seinem Chef zu telefonieren. Dieser bat ihn, sofort 220.000 € auf das Bankkonto eines ungarischen Lieferanten zu überweisen. Das überwiesene Geld wurde dann nach Mexiko und an andere Orte im Ausland transferiert. Das Unternehmen erhielt dieses Geld nie zurück.

Unterm Strich

Noch hat die heutige Deepfake-Technologie nicht das Niveau von authentischem Material erreicht. In der Regel ist es immer noch möglich, einen Deepfake bei genauem Hinsehen vom Original zu unterscheiden. Auch wenn die Technologie allmählich besser wird, ist die Erstellung eines qualitativ hochwertigen Deepfakes, insbesondere in Echtzeit, immer noch nicht ganz trivial. Unserer Erfahrung nach erfordern Deepfake-basierte Produkte technisches Know-How und leistungsstarke Geräte. Richtig ist aber auch: Deepfake-Produkte können die Welt zum Besseren verändern und haben riesiges Geschäftspotenzial.