
Forscher des Samsung-Konzerns haben eine Technologie entwickelt, die es künftig noch leichter machen wird, sogenannte Deepfake-Pornos herzustellen. Das Unternehmen sieht die Gefahren, verweist aber auf die Unaufhaltsamkeit des technischen Fortschritts, frei nach dem Motto: Wenn wir es nicht machen, tut’s halt ein anderer.
Das zum Imperium des südkoreanischen Samsung-Konzerns gehörende Forschungslabor Arvix hat einen Algorithmus entwickelt, der Gesichter anhand eines einzelnen Fotos zu realistisch anmutenden Bewegungen animieren kann. Die so entwickelten Videos wirken zwar umso echter, je mehr Fotos zur Verfügung stehen, praktisch aber reicht in Zukunft ein einziges Foto – beispielsweise ein Profilbild aus Facebook oder von der Intranet-Seite eines Unternehmens – um Deepfake-Pornos einer Person herzustellen.
Deepfake-Pornos sind Videos, in denen das Bild einer Person in eine existierende Pornoszene implementiert wird, sodass der Eindruck entsteht, dass das die Person tatsächlich in dem Film mitgewirkt hat. Bis vor kurzem benötigte man dazu mindestens eine zweistellige Zahl an unterschiedlichen Fotos einer Person, um eine realistisch wirkende Szene von wenigen Sekunden generieren zu können. Daher waren bisher vor allem Prominente, von denen es naturgemäß sehr viel Bild- und Filmmaterial gibt, das ihr Gesicht in Bewegung zeigt, von Fakepornos betroffen. Doch schon damals wurde die Gefahr angesprochen, dass auch Privatpersonen und insbesondere Opfer von rachsüchtigen Expartnern durch Deepfake-Pornos in schwierige Situationen geraten könnten.
Das führte dazu, dass mehrere Streaminganbieter Deepfake-Pornos aus ihren Angeboten verbannten, sodass die Szene auf kleinere Seiten und Reddit-ähnliche Portale ausweichen musste.
Nun also reicht offenbar ein einziges Bild, um das Gesicht filmisch zu beleben. Als Beispiel veröffentlichte Arvix ein animiertes Bild der Mona Lisa.
In Verbindung mit der Präsentation veröffentlichten die Forscher ein Statement, das erahnen lässt, dass man sich bei Samsung durchaus um die Gefahren bewusst ist, die die Vereinfachung der Technologie in Nutzerhänden bedeuten kann: »Uns ist bewusst, dass unsere Technologie negativ verwendet werden kann, so zum Beispiel in sogenannten ‚Deepfake‘-Videos. Dabei ist aber zu bedenken, dass Hollywood seit einem Jahrhundert Fake-Videos (auch Special Effects genannt) verwendet, und Software mit ähnlichen Fähigkeiten ist bereits seit Jahren verfügbar. Unsere Arbeit (und auch die anderer gleichzeitig arbeitender Forscher) wird zu einer Demokratisierung der Special Effect Technologie führen.«
Neben der Gefahr, dass Menschen ungewollt Pornostars werden, dürfte die Technologie auch im Bereich politischer Propaganda problematische Konsequenzen haben. Fake News, Verschwörungsseiten und gezielte Wählermanipulation beschäftigen westliche Demokratien nicht erst seit der Wahl Donald J. Trumps, bei der Russland offenbar massiv nachgeholfen hat. Nun dürfte es noch leichter werden, Videos von missliebigen Politikern zu erstellen und diese kurz vor den Wahlen durch die sozialen Medien zu jagen.
Erst kürzlich hat Trump ein Video seiner demokratischen Gegenspielerin Nancy Pelosi veröffentlicht, das so manipuliert wurde, dass der Eindruck entstand, die Politikerin wäre betrunken. Schnell wurde klar, dass das Video eine Manipulation war. Mit immer cleveren Algorithmen, die obendrein immer perfekter funktionieren und schwerer zu enttarnen sind, könnten Fake News sich noch stärker und vehementer verbreiten, als das bisher der Fall ist.
Hier die Präsentation der Entwickler: