Berlin
Skandal

Wer steckt hinter dem "Deepfake-Klitschko"? Antwort aus Russland - Giffey äußert sich

Ein angeblicher "Deepfake" soll die regierende Berliner Bürgermeisterin Franziska Giffey (SPD) und andere Politiker in Europa getäuscht haben. Ein falscher Vitali Klitschko soll mit der Politikerin gesprochen haben. Nach etwa einer halben Stunde kamen erste Zweifel an der Echtheit auf.
Fake-Telefonat mit Bürgermeisterin Giffey
Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD). Giffey hatte bei einer Videoschalte am Freitag Zweifel bekommen, ob sie tatsächlich wie geplant mit Kiews Bürgermeister verbunden war. Das Gespräch endete dann vorzeitig. Die Senatskanzlei geht von einer digitalen Manipulation aus. Foto: - (Senatskanzlei Berlin)

Die regierende Berliner Bürgermeisterin Franziska Giffey (SPD) hat laut eigenen Angaben vergangenen Freitag, 24. Juni 2022, mit einem falschen Vitali Klitschko telefoniert. Auch die Bürgermeister aus Madrid und Wien sollen von dem falschen Klitschko kontaktiert worden sein. Die Senatskanzlei Berlin erklärte dazu, dass es so aussehe, als handele es sich um einen sogenannten Deepfake.

"Deepfakes" können entweder Audio- oder Videoerzeugnisse sein, die den Anschein erwecken, als seien sie tatsächliche Bild- oder Tonerzeugnisse, die mit einer Kamera oder einem Mikrofon angefertigt wurden. Bei einem Video-Deepfake werden etwa Bildinformationen aus bereits veröffentlichten Videos genommen und einem Algorithmus zur Analyse gegeben. Video-Deepfakes benötigen in der Regel zwingend eine sehr große Menge an Bild- und Videodaten. Nun gibt es auch Hinweise, wer für den Deepfake verantwortlich war. Außerdem äußerte sich auch Berlins Bürgermeisterin Franziska Giffey nochmals zu dem Vorfall.

Update vom 29.06.2022, 15 Uhr: Russische Komiker verantwortlich?

Berlins Regierende Bürgermeisterin Franziska Giffey geht davon aus, dass die Verantwortlichen für die manipulierten Videotelefonate mit dem falschen Vitali Klitschko politische Ziele verfolgen. "Ungeachtet dessen, wer sich zur Manipulation bekennt, wie diese genau durchgeführt wurde und welche Motivation dahintersteht: Es bleibt ein Identitätsdiebstahl. Diese Aktionen decken sich mit den Narrativen und den Zielen des Kremls", twitterte die SPD-Politikerin am Mittwoch.

"Sie wollen die Partnerinnen und Partner der Ukraine vorführen und das Vertrauen in die Ukraine und auch in uns schwächen. Das werden sie nicht schaffen", erklärte Giffey. "Ich verurteile diese Tat. Berlin steht an der Seite der Ukraine."

Nach einem Bericht des ARD-Magazins "Kontraste" behauptet nun ein russisches Komiker-Duo, hinter den Fake-Videotelefonaten zu stecken. "Ich will nicht verraten, wie wir es angestellt haben, aber es war leicht", sagte Alexej Stoljarow vom Comedy-Duo "Vovan und Lexus" nach ARD-Angaben in einem Telefonat mit der "Kontraste"-Redaktion. Die Behauptung des Künstlers lässt sich nicht unabhängig überprüfen.

Hintergrund: Deepfakes brauchen sehr viele Daten, um funktionieren zu können

Nur mit ausreichend Daten können die Computeralgorithmen ein überzeugendes Video errechnen. Beim Erstellen eines Deepfakes werden Blickwinkel, Augenposition, Mimik und Gestik des Ausgangsvideos in einem Maße repliziert, in dem die vorliegenden Video- und Bilddaten analysiert wurden.

Da auch die Stimme entsprechend manipuliert werden kann, ist es theoretisch möglich, eine überzeugende Videobotschaft digital zu erstellen, um eine eigene Agenda zu verfolgen. In letzter Konsequenz sieht es dann so aus, als würde eine reale Person auf Video eine Erklärung abgeben.

Die ursprüngliche Verwendung von Deepfakes fand im Porno-Bereich statt. Hier wurden die Gesichter prominenter Schauspielerinnen mit denen von Pornodarstellerinnen ausgetauscht. Damit entstand ein Video, in dem es so aussah, als hätte die jeweilige Schauspielerin mitgewirkt. Nach dieser initialen Verwendung erweiterte sich das Anwendungsgebiet von Deepfakes auf mehrere Bereiche. Heute sollen etwa Bühnenauftritte mit den Gesichtern und Stimmen von Musik-Stars wie Elvis Presley oder Court Cobain möglich sein. Für überzeugende Deepfakes ist jedoch ein enormer Rechen- und Zeitaufwand notwendig.

Deepfakes sind bereits heute möglich und können sehr überzeugend sein

Deepfakes können bereits heute überaus überzeugend wirken, sollten sie von ungeschulten Augen begutachtet werden. Weniger überzeugende Deepfakes haben einen Unschärfe-Verlauf, um den Übergang zwischen Haaransatz und errechnetem Gesicht zu kaschieren. Besonders geeignet sind diese Art der Fakes für Videoübertragungen, bei denen ohnehin Übertragungsartefakte und Verpixelungen entstehen.

Auch Audio-Deepfakes, bei denen gesprochene Laute in Daten aufgeteilt, repliziert und zu neuen Sätzen zusammengestellt werden, werden vorwiegend für Telefonate verwendet, da die schlechte Qualität so nicht weiter auffällt. So konnten Betrüger bereits 220.000 Euro ergaunern, weil sie die Stimme eines Bankchefs mit künstlicher Intelligenz imitierten.

Fakt ist jedoch auch, dass Deepfakes derzeit noch als relativ unflexibel gelten. Um einen überzeugenden Deepfake zu errechnen, braucht es mehrere Hundert Stunden bei moderater Rechenpower.

Falscher Klitschko ein Deepfake? Indizien deuten auf anderes Szenario hin

Ob im Falle des falschen Klitschko tatsächlich ein Deepfake stattgefunden hat, ist nicht geklärt. Hierbei handelt es sich um die Vermutung der Berliner Senatskanzlei. Hinweise gibt es dafür bislang jedoch keine. Laut Investigativjournalist Daniel Laufer sprechen die bisher bekannten Indizien eher für einen „Cheap“-Fake. Das bedeutet: Das Videomaterial eines älteren Interviews wurde entsprechend neu geschnitten und aufbereitet, um mit neuem Ton eine andere Botschaft vermitteln zu können. Schnitte könnten dabei mit Rucklern, die bei Videotelefonaten vorkommen, kaschiert werden.

Laufer zeigt anhand mehrerer Screenshots, dass seiner Meinung nach ein Deepfake unwahrscheinlich sei. Angefangen bei dem unruhigen Hintergrund, mit dem künstliche Intelligenzen erfahrungsgemäß Probleme haben, bis hin zu identischen Bildern zwischen dem Interview mit Giffey und einem bereits veröffentlichten Interview von Dmytro Gordon mit Vitali Klitschko. Zudem fand er mehrere identische Bilder zwischen dem bekannten Interview und dem „Gespräch“ mit Giffey.

Da bei einem Video der Ton separat hätte angepasst werden müssen, sollen die Betrüger im Gespräch mit Giffey auf einen weiteren Trick zurückgegriffen haben. Eine unbekannte Person soll laut Senatskanzlei die Sätze von Klitschko von Russisch auf Deutsch übersetzt haben. Jedoch immer erst, nachdem er gesprochen hat, nicht währenddessen.

Bereits in der Vergangenheit haben sich vermeintliche Deepfakes als deutlich simplere Manipulationen herausgestellt. Anfang 2021 glaubten einige europäische Politikerinnen und Politiker mit Leonid Volkov, Stabschef des im Gefängnis sitzenden Putin-Kritikers Alexei Navalny, gesprochen zu haben. Jedoch sprachen sie lediglich mit einem Doppelgänger, der mit Schminke und gut gesetztem Licht eine überzeugende Darstellung abgab.