Mit Machine-Learning-Tool von Google : Menschen machen mit Hilfe von Künstlicher Intelligenz „Fake Pornos“

Gal Gadots Gesicht auf dem Körper eines Pornostars.

Gal Gadots Gesicht auf dem Körper eines Pornostars.

Google machte 2015 ein mächtiges KI-Tool öffentlich. Doch „TensorFlow“ wird missbraucht – mit noch ungeahnten Folgen.

23-58216591_23-113189310_1568641353.JPG von
08. Februar 2018, 12:23 Uhr

2015 gab Google bekannt, dass es seine internen Tools zur Entwicklung von KI-Algorithmen veröffentlicht: „TensorFlow“. Dabei handelt es sich um plattformunabhängige Open-Source-Programmbibliothek für Künstliche Intelligenz bzw. maschinelles Lernen im Umfeld von Sprache und Bildverarbeitungsaufgaben. Google nutzt sie für die eigenen Produkte: Spracherkennung, Mail-Programm, Fotos, Suche oder Maps. Eine kostenlose Technologie mit großer Macht, die sich seit zwei Jahren jeder kostenlos zunutze machen kann – ohne eine Kontrolle durch Google. Und hier ist der Haken. 

Ein anonymer Reddit-Nutzer mit Namen „deepfakes“ begann damit, die Technologie für eine Software zu nutzen, die es ermöglicht, jedes Foto eines Gesichts fast nahtlos in ein Video einzufügen. So landeten beispielsweise Köpfe von bekannten Frauen oder Facebook-Freunden auf den Körpern von Pornosternchen. Was dort entsteht, sind KI-generierte „Fake Pornos“.

Schon im Dezember landete so das Gesicht von „Wonder Woman“-Star Gal Gadot in einem Pornovideo, wie das Magazin für Wissenschaft und Technik, „Motherboard“, berichtet. Und auch Daisy Ridley (Rey aus Star Wars), Maisie Williams (Game of Thrones), Scarlett Johansson (u.a. Matchpoint), Emma Watson (Harry Potter) oder Sängerin Taylor Swift wurden bereits Opfer der Software und sind in Hardcore-Pornos zu sehen, die sie nie gedreht haben. Hier hat kein Filmstudio mit Special-Effects gewirkt, sondern ein Reddit-Nutzer mit einem handelsüblichen Laptop.

Das folgende Video zeigt, wie Schauspielerin Daisy Ridley für ein „Fake Video“ missbraucht wurde. (Es sind keine pornografischen Inhalte zu sehen):

Auf nackte Körper montierte Köpfe von Stars sind ein Jahrzehnte altes Phänomen, die Videos eine neue Dimension. Nutzer „deepfakes“ benötigt für seine Videos nach einem Bericht von „Motherboard“ lediglich die Google-Suche, Stock-Fotos und Youtube-Videos, um seine Videos zusammenzustellen. Face-Swap nennt sich dieser Austausch von Gesichtern, den der Algorithmus durch „deepfakes“ gelernt hat.

Jessica Albas Kopf auf dem Körper der Pornodarstellerin Melanie Rios.
Screenshot/Reddit
Jessica Albas Kopf auf dem Körper der Pornodarstellerin Melanie Rios.

Durch die „Fake Videos“ wird deutlich, wie mächtig das Tool ist, das Google auf die Menschheit losgelassen hat. Es ist jedem möglich, glaubhafte Videos zu produzieren, in denen Menschen zu sehen sind, die Dinge tun, die sie nie getan haben. Die Folgen sind nicht abzusehen. Nur eine Zahl: 24 Milliarden Selfies wurden zwischen 2015 und 2016 bei Google Photos hochgeladen. Zu befürchten ist jedoch weitaus Schlimmeres, als einen gehassten Nachbarn mit einem Fake-Video zu diffamieren. KI-Algorithmen könnten künftig auch für politische Propaganda-Zwecke missbraucht werden – oder werden es schon. Ein Nutzer namens „Z3ROCOOL22“ kombinierte Originalmaterial von Adolf Hitler mit Argentinens Präsident Mauricio Macri:

Noch sind die Videos nicht perfekt, denn wer genau hinsieht, der erkennt die kleinen und großen Fehler bei dem Face-Swapping. Allerdings ist es sicher nur eine Frage der Zeit, bis die KI so gut gelernt hat, dass die „Fake Videos“ immer besser werden.

Für die Videos gibt es kein Einverständnis der Opfer und die ethischen Auswirkungen sind gewaltig. Nutzer „deepfakes“ sagt dazu: „Jede Technologie kann mit bösen Absichten genutzt werden und es ist unmöglich das aufzuhalten“. Eine von ihm erstellte Reddit-Gruppe ist mittlerweile gelöscht – doch die Videos dürften an anderer Stelle wieder auftauchen. Der sogenannte Subreddit hatte zuletzt über 90.000 Follower.

Der Subreddit von „deepfakes“ ist mittlerweile gesperrt.
Screenshot/reddit
Der Subreddit von „deepfakes“ ist mittlerweile gesperrt.
 

Nur etwas über einen Monat später ist die Zahl KI-generierter „Fake-Pornos“ im Netz explodiert. Immer mehr Menschen produzieren mit Hilfe des maschinellen Lernens solche Videos. Ein Reddit-Nutzer (deepfakeapp) entwickelte sogar eine App, mit der Fake-Videos produziert werden können. Was als nächstes kommt, ist ungewiss.

zur Startseite

Diskutieren Sie mit.

Leserkommentare anzeigen