Zum Inhalt springen

Deepfakes – die perfekte Täuschung


Dank neuster Technologie wie der Künstliche Intelligenz ist es auch möglich, Videos zu faken. Dies kann sehr gefährlich werden. Hier zeigen wir dir, wie das funktioniert und wie du solche Videos erkennen kannst.

 


aha-Jugendreporter Severin

 

 

Deepfake ist eine Technologie, mit der es möglich ist, Videos zu faken. Danke immer besserer Methoden aus dem Bereich der Künstlichen Intelligenz (KI) ist dies heute deutlich einfacher als früher. Fälschungen können mit vergleichsweise wenig Aufwand  in einer hohen Qualität erstellt werden. Beispielsweise wird das Gesicht der Personvon der KI analysiert, welches schlussendlich deine Worte sprechen sollte. Du kannst dann irgendeinen Text sprechen und das Gesicht des anderen Menschen (den du darstellen möchtest) bewegt sich so, dass es aussieht, als würde sie diese Sachen sagen. Dann brauchst du nur noch ein Programm, das dir hilft, Originalstimmen zu imitieren und fertig ist das perfekte Deepfake Video. Aufgrund der Nutzung von tiefen neuronalen Netzen (englisch: deep neural networks), werden solche Verfahren umgangssprachlich als „Deepfakes“ bezeichnet.

Definition: Deep Fake

(engl. Koffer- oder Portemanteau-Wort zusammengesetzt aus den Begriffen „Deep Learning“ und „Fake“) beschreiben realistisch wirkende Medieninhalte (Foto, Audio und Video), welche durch Techniken der künstlichen Intelligenz abgeändert und verfälscht worden sind. Obwohl Medienmanipulation kein neues Phänomen darstellt, nutzen Deepfakes Methoden des maschinellen Lernens, genauer künstliche neuronale Netzwerke, um Fälschungen weitgehend autonom zu erzeugen.

Quelle: Wikipedia

Lustig oder gefährlich?

Was erst lustig klingt, kann beim genaueren Betrachten aber richtig gefährlich werde. Denn das Potenzial zum Missbrauch ist riesig. Deepfakes werden immer besser und realer, sodass wir sie nicht mehr von „echten“ Videos unterscheiden können. Stell dir doch einmal vor, ein Trump-Gegner macht ein gefaktes Video, in welchem er beispielsweise sagt, es würde ihn nicht kümmern, ob die Leute Jobs haben oder nicht. So ein Video würde sehr schnell verbreitet werden und viele Leute würden nicht merken, dass es ein Fake ist. Denn diese Aussage würde sehr viele Emotionen mit sich tragen und das kann zu einer schnellen Reaktion der Empörung führen. So könnte dies zu einem Wahlnachteil für Trump werden. Im Moment ist es kaum möglich, richtig gut erstellte Deepfakes von realen Videos zu unterscheiden. Nicht einmal Computerprogramme können diesen Unterschied zuverlässig erkennen (jetziger Stand). Es sind zwar schon einige Tools vorgestellt worden, jedoch wurde noch keines veröffentlicht.

Methoden zur Manipulation

Methoden zur Manipulation medialer Identitäten können im Wesentlichen in drei Medienformen eingeteilt werden:

  • Video/ Bild,
  • Audio und
  • Text

Techniken zur Manipulation

  • Beim Face-Swapping wird das Gesicht einer Zielperson in das des/der „Angreifer:in“ eingefügt, wobei der Gesichtsausdruck des/der „Angreifer:in“beibehalten werden soll. Diese Funktion kennt man auch aus versch. Social Media Apps.
  • Beim Face Reenactment werden die Kopfbewegung, Mimik oder Lippenbewegung einer Person manipuliert. Dies ermöglicht es, visuell täuschend echte Videos zu erstellen, bei denen eine Person etwas sagt, dass sie nie gesagt hat.
  • Bei der Synthetisierung von Gesichtsbildern können neue Personen erzeugt werden, die in der Realität nicht existieren.
  • Beim Text-to-Speech-Verfahren wird zu einem vorgegebenen Text ein Audio-Signal erzeugt, welches sich sowohl für den Menschen als auch für eine automatische Sprechererkennung wie eine Zielperson anhört.
  • Bei einem Voice Conversion Verfahren wird hingegen ein Audiosignal zu einer Zielstimme konvertiert.
  • Verfahren zur Generierung von Texten, welche auf tiefen neuronalen Netzen basieren, schaffen es durch neue KI-Modelle, grosse Textdatenbanken und eine hohe Rechenleistung, lange und zusammenhängende Texte zu schreiben.

Quelle: https://www.bsi.bund.de/DE/Themen/Unternehmen-und-Organisationen/Informationen-und-Empfehlungen/Kuenstliche-Intelligenz/Deepfakes/deepfakes_node.html#doc1009562bodyText5

Wahrheit oder Lüge?

Wir durchleben momentan eine Zeit, in welcher wir uns kaum mehr von Fake-News, Fake-Bildern oder Verschwörungstheoretiker schützen können. Allen voran die Sozialen Medien. Mit reisserischen Überschriften werden wir verleitet auf Inhalte, Bilder und Videos zu klicken. Oft lösen diese Empörung, Wut oder Aggression in uns aus. Solche Inhalte werden in Windeseile  geteilt. Sei dies nun über WhatsApp-Gruppen oder Facebook und Instagram Profile.

Aber schlussendlich stellen wir uns doch alle dieselbe Frage: Was stimmt denn nun wirklich? 

Gefahren für die Gesellschaft

Abgesehen von den individuellen Schäden, könnten auch gravierende gesellschaftliche Veränderungen rascher auftreten. Es wird immer schwieriger zwischen Wahrheit und Falschaussage zu unterscheiden. Auch Videos helfen da nicht mehr viel. Politiker könnten in Situationen gebracht werden, in denen sie niemals waren. Momentan steht im Word Wide Web ausreichend Bildmaterialien von Personen des öffentlichen Interesses verfügbar. Doch auch Privatpersonen, wie du und ich, stellen immer mehr und immer öfter Bilder und Videos von sich und ihren Liebsten ins Netz. Dass sie aber das Risiko massiv erhöhen und Gefahr laufen, selbst Opfer von Deepfakes zu werden, ist den meisten gar nicht bewusst.

Rufschädigung

Doch Deepfakes kommen nicht nur in normalen Videos vor. Ein niederländisches Unternehmen untersuchte rund 15‘000 Deepfakes. 96 Prozent waren Pornografie – in den meisten Fällen wurden Hollywoodschauspielerinnen oder berühmte Popsängerinnen in Sexfilme montiert. Das kann den Ruf einer prominenten Person komplett ruinieren, wenn das Video nicht als Fake enttarnt wird. Auch Privatpersonen wurden schon Opfer von Deepfake-Pornos. Stell dir vor, ein solches Video von dir würde an deiner Schule kursieren, der Schaden für dich wäre enorm. Solche Aktionen können aus Rachegelüsten, Hass oder Neid entstehen und werden oft in diesem Kontext missbraucht.

Fake-Obama

Es existiert ein Deepfake von Barak Obama, in welchem er kein gutes Wort über seinen Nachfolger verliert. Doch hier waren Menschen am Werk und das Video war gewollt. Im Zuge einer Zusammenarbeit zwischen dem Obama-Imitator Jordan Peele und dem Medienportal Buzzfeed, entstand dieses Deepfake Video. Mittels Video-Experten, genügend freiem Bildmaterial von Barack Obama und einer kostenlosen App gelang es ihnen, dass Obama etwas sagte, obwohl er dies in Wahrheit niemals tat.

Das Ziel bei diesem Projekt war, dass die User aufmerksam werden und nicht alles glauben, was sie online sehen und hören.

realistisch manipuliert

Wie fliessend ein Deepfake Video sein kann, ist in einem älteren Interview zwischen Late-Night-Talker David Letterman und Schauspieler Bill Hader zu sehen. Im Interview wird über den Film „Tropic Thunder“ gesprochen, in welchem auch Tom Cruise mitspielte. Während des Videos wechselt das Gesicht von Hader immer wieder zu den Zügen von Tom Cruise. Ein weiterer Beweiss, dass das Erkennen von Deepfake Videos praktisch ein Ding der Unmöglichkeit ist. Lassen die Aufnahmen an Qualität zu wünschen übrig, können solche Bilder schnell als wahr eingestuft.

Ein Deepfake Selbstversuch

Versuche Deepfakes ausfindig zu machen

Mit diesem Guide kannst du selber ausprobieren, ob du die gezeigten Deepfakes erkennst und ausfindig machen kannst. Hättest du sie entlarvt?

 

 Quellen:




Zuletzt aktualisiert: 04/2024
Cookie Consent mit Real Cookie Banner