+49 99 21 / 88 22 9000 info@datenbeschuetzerin.de

Jeder Tag bringt uns neue Fake-Videos. Während manche rein unterhaltenden Charakter haben, stellen andere eine Gefahr für Politik und Gesellschaft dar. Aber nicht nur Fake-Videos stammen aus dem World Wide Web. Der Trend geht zum Identitätsbetrug 2.0. Da reicht es schon, die Stimme zu fälschen.

Im Juni telefonierte die Berliner Bürgermeisterin Giffey eine halbe Stunde mit dem vermeintlichen Kiewer Bürgermeister Klitschko. Und im März kursierte ein Deepfake-Video des ukrainischen Präsidenten Selenskyi, der angeblich zur Kapitulation aufruft.

Bekannte Beispiele. Egal, ob man diese Videos und Videoanrufe im Nachhinein als Shallowfakes, Deepfakes oder andere Arten von Fakes bezeichnet: Sie zeigen uns, dass Fälschungen von bewegten Bildern und damit auch das Thema Deepfakes immer mehr Raum einnehmen. Es soll gezielt manipuliert und desinformiert werden, meistens über die sozialen Medien.

Deepfakes können sowohl Unternehmen als auch Privatpersonen betreffen. Ziel dieses Artikels: Deepfake einfach erklärt. Wir wollen darüber berichten, zu welchen Zwecken Deepfakes eingesetzt werden und woran man sie erkennen kann.

Auf den Punkt gebracht: Deepfake einfach erklärt

Auf den Punkt gebracht: Datenübermittlung in Drittländer
  • Deepfakes können von Kriminellen oder ausländischen Geheimdiensten für verschiedene Zwecke eingesetzt werden
  • Es gibt verschiedene Arten von Deepfakes unter anderem zum Identitätsbetrug: Gesichtsmanipulation, Stimm-Manipulation und Textfälschungen
  • Durch Aufklärung und Stärkung der Medien- und Digitalkompetenz kann die Resilienz in der Gesellschaft gestärkt werden
  • Wir raten: Sensibilisieren Sie Ihre Mitarbeiter

Was sind Deepfakes?

Der Begriff Deep Fakes oder Deepfakes ist eine Wort-Neuschöpfung aus Deep Learning (eine Methode des maschinellen Lernens) und Fake. Er bezeichnet Videos oder Audioaufnahmen, die mit Unterstützung von Künstlicher Intelligenz (mit der Nutzung von tiefen neuronalen Netzen) verändert wurden. So können täuschend echt Personen nachgeahmt werden. Und dem Identitätsbetrug werden Tür und Tor geöffnet. Das besondere ist, dass bei den Methoden des maschinellen Lernens und künstlichen neuronalen Netzen Fälschungen weitgehend autonom erzeugt werden. Diese können dann beispielsweise auch auf „Live-Ebene“ während eines Videoanrufs eingesetzt werden.

Deepfakes finden in den Bereichen Video/Bild, Audio und Text Anwendung. Es werden Szenen nachgeahmt, die einer Originalszene so ähnlich wie möglich sind. Dazu wird so viel Videomaterial wie möglich von der Person benötigt, die nachgeahmt werden soll – was heute dank Social Media auch bei Privatpersonen meist kein Problem mehr ist (schon ein bis zwei Minuten genügen). Software und Tutorials gibt es teilweise kostenlos im Internet. Die Einstiegshürden sind also gering.

Seit wann gibt es Deepfakes?

Der Begriff kam erstmals im Jahr 2017 auf. Ein User des Internetforums Reddit setzte die Gesichter bekannter Schauspielerinnen in Pornovideos ein und teilte sie unter dem Benutzernamen „Deepfake“ mit der Community. Der erste bekannt gewordene Identitätsbetrug im Rahmen eines Deepfake-Angriffs passierte im Jahr 2019. Der angebliche Vorstandsvorsitzende forderte den Geschäftsführer eines britischen Energieunternehmens per Telefon auf, 220 000 Euro auf ein ungarisches Konto zu überweisen. Wie sich später herausstellte, handelte es sich bei dem Anruf lediglich um die Nachahmung der Stimme durch Kriminelle.

Welche Arten von Deepfakes gibt es?

Gesichtsmanipulation

  • Face Swapping: Hier wird das Gesicht einer Person durch ein anderes Gesicht ersetzt. Erzeugt wird ein Gesichtsbild mit derselben Mimik, Gesichtsbeleuchtung und Blickrichtung. Dafür benötigt man nur wenige Minuten Videoaufnahmen der Zielperson. Jedoch müssen diese eine hohe Qualität und möglichst viele verschiedene Mimiken und Perspektiven aufweisen.
  • Face Reenactment: Bei dieser Methode wird ein bereits bestehendes Video verändert. Es werden Mimik, Kopf- und Lippenbewegungen manipuliert. Damit wird möglich gemacht, dass Personen Aussagen treffen, die sie in Wirklichkeit nie getroffen haben.
  • Face Synthesis: Hier werden Personen erzeugt, die in der Realität gar nicht existieren. Bisher geschieht dies in Form von einzelnen Bildern, aber bereits in hoher Bildauflösung.

Stimm-Manipulation

  • Voice Conversion (VC): Ein Audioton wird so transformiert, dass dieser die Stimme der Zielperson annimmt.
  • Text to Speech (TTS): Die Stimme der Zielperson wird aus einem Text erzeugt. Der Anwender gibt einen Text vor, der in ein Audio-Signal umgewandelt wird. Auf diese Weise können Menschen und automatisierten Sprecherkennungsverfahren getäuscht werden.

Die Voraussetzung für beide Manipulationsarten ist, dass möglichst viele Trainingsdaten in hoher Qualität vorliegen.

Textfälschungen

KI macht es auch möglich, Texte zu generieren. Auf den ersten Blick ist nicht mehr zu erkennen, ob der Text von einem Menschen oder einer Maschine stammt. Auf der Basis von wenigen einleitenden Wörtern kann ein Text einfach fortgesetzt werden. Angewendet wird dieses Verfahren bereits für Nachrichten, Blog-Einträge oder auch bei Chat-Antworten.

Wozu werden Deepfakes eingesetzt?

Deepfakes könnten zukünftig vermehrt zu Angriffswaffen für Kriminelle oder ausländische Geheimdienste werden. Denn aufgrund der fortschreitenden Technik wird es immer einfacher, Personen in Ton- und Videoaufnahmen nachzuahmen. Wer hier mehr in die Tiefe gehen möchte, dem sei die Lektüre des ausführlichen BSI-Beitrags empfohlen.

Deepfakes können unter anderem für die folgende Zwecke verwendet werden:

  • Identitätsbetrug
    • Überwindung von biometrischen Systemen (zum Beispiel bei Fernauthentifizierung)
    • Social Engineering (gezielte Phishing-Angriffe -> „Spear Phishing“, um an Informationen oder Daten zu gelangen. Ein Beispiel dafür ist der oben beschriebene „CEO-Fraud“ oder auch der „Enkeltrick“)
  • Desinformationskampagnen
  • Propaganda
  • Verleumdung und Diskreditierung
  • Wirtschaftsspionage
  • nicht einvernehmliche Pornographie

Deepfake einfach erklärt: Wie kann man sich schützen?

„Das Heimtückische an Deepfakes ist, dass Angreifer nicht erst Vertrauen aufbauen müssen.“

SPOC – Single Point of Contact N° 1 | 2021/2022 (verfassungsschutz.de)

Dieses Zitat bringt die Problematik auf den Punkt. Im Vergleich zum herkömmlichen Social Engineering ist das Vertrauen zu der Person, die man sieht oder hört, bereits da. Wir verlassen uns auf die Glaubwürdigkeit von bewegten Bildern. Genau das wird bei Deepfakes ausgenutzt.

Bedeutet dies, dass man Deepfakes schutzlos ausgeliefert ist? Oder gibt es Möglichkeiten, sich davor zu schützen? Das BSI empfiehlt hier sowohl Prävention als auch Detektion.

Prävention und Detektion

Je höher die Medien- und Digitalkompetenz in der Gesellschaft, desto stärker auch die Resilienz. Als Nutzer sollte man öffentlich sparsam mit seinen Daten umgehen und mit gesundem Menschenverstand handeln. Jedes Hochladen eines Videos im Netz sollte bewusst geschehen.

Bisher fehlt das Bewusstsein in der Gesellschaft, dass auch bewegte Bilder manipulierbar sind. Hier muss eine gezielte Aufklärung stattfinden.

Ist es darüber hinaus möglich, als „Laie“ Deepfakes zu erkennen? Wer die Artefakte kennt, ist im Vorteil. Wir raten zu einem kritischen und wachsamen Blick.

Pin it!
Pin it!

Erkennung von Artefakten

Typische Merkmale bei Gesichtsmanipulation

Beim Face-Swapping-Verfahren kann es sichtbare Übergänge geben, vor allem an der Naht um das Gesicht. Die Hautfarbe könnte verändert sein, und manchmal sind doppelte Augenbrauen sichtbar. Scharfe Konturen sind verwaschen, beispielsweise bei Zähnen und Augen. Die Mimik ist begrenzt und die Beleuchtung oder die Umgebung kann unstimmig sein. Daher sollte man immer die Farbeinstellungen beachten. Auffälligkeiten können besonders beim Gesicht im Profil oder bei der Verdeckung vom Gesicht erkannt werden.

Videoanrufe sollen bevorzugt auf einem großen Bildschirm statt über das Mobiltelefon geführt werden. Hier kann man besser auf Kleinigkeiten achten wie Blinzeln, Stirnrunzeln oder die „Zornesader“. Natürliche Reaktionen zu imitieren ist für KI schwieriger. Verzerrungen kann man auch erkennen, wenn man das Bild verlangsamt betrachtet.

Bisher ist es lediglich möglich, visuelle Daten zu manipulieren, aber nicht das Verhalten. Fälschungen können daher von Menschen, die die Personen gut kennen, ziemlich wahrscheinlich erkannt werden.

Wenn man vermutet, dass es sich um einen Identitätsbetrug handeln könnte, kann man die Kontaktperson auffordern, eine bestimmte Geste auszuführen (z.B. sich auf die Nase tippen).

Typische Merkmale bei synthetischen Stimmen

Durch manche Verfahren wird ein „metallischer Sound“ erzeugt. Englische Wörter können falsch ausgesprochen werden, zum Beispiel wenn ein Verfahren auf die deutsche Sprache trainiert wurde. Besonderheiten eines Sprechers (z.B. Akzente oder Betonungen) können im Gegensatz zur Klangfarbe nicht so gut nachgeahmt werden. Auch können zeitliche Verzögerungen wahrgenommen werden.

Quelle prüfen

Hier sollte man stets die Authentizität hinterfragen. Wie erfolgte die Kontaktaufnahme? Wie kam ein Videogespräch zustande? Man kann auch um Rückruf bitten, um den Videoanruf oder das Video zu verifizieren. Am besten sollten Links zu Videokonferenzen nur von vertrauenswürdigen E-Mail-Adressen angenommen werden und die Identität des Videokanals geprüft werden.

Bei Anrufen, deren Thema eine ungewöhnlichen Bitte an das Unternehmen ist, sollte man ebenso die Möglichkeit des Rückrufs und das 4-Augen-Prinzip nutzen. Bei Fernidentifikation ist es anzuraten, von der Mehrfaktorauthentifizierung Gebrauch zu machen.

Ausblick

Wir hoffen, mit dieser Zusammenfassung den Begriff Deepfake einfach erklärt zu haben. Bisher sind Angriffe mit dieser Technik eher selten. Das kann sich aber ändern. Politik und Wirtschaft sind aus diesem Grund bestrebt, Deepfakes leichter zu identifizieren bzw. identifizierbar zu machen. Es soll gesetzlich gefordert werden, dass alle mit Deepfake-Technologie erstellten Materialien auch als solche gekennzeichnet werden müssen. Dabei könnten mit Hilfe der Blockchaintechnologie digitale Signaturen als Zeichen dafür eingesetzt werden, dass Medien nicht nachträglich bearbeitet wurden. Erkennungssoftware und KI-basierte Programme können Videos und Streams auf bestimmte Auffälligkeiten prüfen.

Auf der anderen Seite wird es immer schwieriger, Fälschungen manuell zu erkennen. Aufgrund der ständigen Weiterentwicklung von KI wird der Aufwand für Deepfakes immer geringer und es werden weniger Daten von angegriffenen Personen notwendig, um einen erfolgreichen Identitätsbetrug durchzuführen.

Was können Sie als Unternehmen tun?

Überlegen Sie, in welchen Situationen Sie oder Ihre Mitarbeiter mit Deepfakes konfrontiert werden könnten. Sensibilisieren Sie Ihre Mitarbeiter. Nehmen Sie das Thema in Ihre nächste Awareness-Schulung mit auf.

Benötigen Sie damit Unterstützung? Kontaktieren Sie uns gerne. Wir haben umfangreiche Trainings- und Awarenessmethoden zur Hand, mit denen wir Sie und Ihr Team gerne begleiten.

Haben Sie vielleicht sogar schon Bekanntschaft mit Deepfakes gemacht? Dann berichten Sie uns davon in einem Kommentar.

Quellen

Diesen Beitrag teilen