Cyberkriminelle könnten Künstliche Intelligenz (KI) nutzen, um in Online-Konferenzen das Aussehen und die Stimme scheinbar vertrauter Personen vorzutäuschen. Die Fälschun-gen sind bereits extrem gut und nur schwer zu erkennen.

Den Wolf im Schafspelz gibt es nicht nur im Märchen

Wenn vertrauliche Gespräche im Internet belauscht wurden, muss kein klassischer Hackerangriff oder eine fehlende Verschlüsselung dahinter stecken. Es kann auch sein, dass der Spion unerkannt an dem Gespräch teilgenommen hat. Doch wie kann das sein, wenn doch nur vertraute Gesichter zu sehen und bekannte Stimmen zu hören waren?

Möglich macht dies KI (Künstliche Intelligenz) in Händen von Internetkriminellen. Dank KI ist es inzwischen möglich, nicht nur einzelne Bilder zu fälschen, sondern sogar Videos und Tonaufnahmen. Dies können auch Live-Videos und Live-Gespräche sein, denn die kriminell genutzte KI verwandelt das Videobild und den Ton des Spions in Aussehen und Stimme einer anderen Person, die an dem vertraulichen Online-Meeting hätte teilnehmen dürfen.

Nicht nur eine E-Mail kann im falschen Namen verschickt werden, auch Telefonate und Online-Meetings können mit gefälschter Identität geführt werden. Online-Betrug bekommt so ein ganz neues Gesicht.

Identitätsdiebstahl live und in Farbe

Der neuartige Diebstahl einer Identität wird Deepfake genannt, täuschend echt wirkende, manipulierte Bild-, Audio- oder auch Videoaufnahmen, mit Hilfe von Künstlicher Intelligenz erzeugt.

Lange Zeit war es sehr aufwändig, dynamische Medien, wie Videos oder Audiomitschnitte qualitativ hochwertig zu manipulieren, wie das Bundesamt für Sicherheit in der Informationstechnik (BSI) erklärt. Durch Methoden aus dem Bereich der Künstlichen Intelligenz (KI), durch Nutzung von tiefen neuronalen Netzen (englisch: deep neural networks) ist dies heute jedoch deutlich einfacher. Der Aufwand für Deepfakes ist für die Kriminellen entsprechend gering.

Die zunehmende Echtzeitfähigkeit der Deepfakes bewirkt, dass man in Online-Meetings womöglich nicht mehr sicher sein kann, ob man mit der realen Person, einem Angreifer oder sogar einem Avatar, also einer künstlichen Person, spricht.

So lassen sich Deepfakes am besten erkennen

Auch wenn KI-Verfahren die gefälschten Videos und Stimmen inzwischen in sehr hoher Qualität erzeugen können, gibt es gewisse Schwächen in den Deepfakes, die sich nutzen lassen, um Hinweise auf mögliche Fälschungen zu finden. Das Bundesamt für Verfassungsschutz (BfV) empfiehlt:

  • Sorgen Sie für gute (Bild-)Qualität: Je höher die Auflösung beziehungsweise die Bildgröße, desto leichter lassen sich Ungereimtheiten im Bild erkennen. Videos sollten daher nicht auf dem Handy, sondern auf einem größeren Monitor geschaut werden. Gute Farbeinstellungen zeigen ebenfalls Unstimmigkeiten, zum Beispiel im Hautbild.
  • Achten Sie auf die Mimik der Person: Natürliche Reaktionen, wie Blinzeln, Stirnrunzeln oder die berühmte „Zornesader“ können von einer KI ebenfalls noch nicht gut dargestellt werden. Ein genauer Blick auf die Augen und Stirn kann eine Fälschung enttarnen. Schauen Sie dafür das Bild verlangsamt, um eventuelle Verzerrungen zu erkennen.
  • Prüfen Sie die Quelle: Letztlich hilft natürlich auch immer eine Quellenprüfung oder bei Unsicherheit in Video-schalten die Bitte um Rückruf, um zumindest die Gelegenheit zu bekommen, den Videoanruf oder das Video zu verifizieren.

Das Bundesamt für Sicherheit in der Informationstechnik (BSI) weist ebenfalls auf Anzeichen für eine Gesichtsmanipulation hin und nennt sichtbare Artefakte an der Naht rund um das Gesicht im Videobild, verwaschene Konturen bei Zähnen und Augen, eine begrenzte Mimik und eine unstimmige Beleuchtung als Warnzeichen.

Leider lernen kriminelle KI-Verfahren und die Cyberkriminellen schnell, Deepfakes werden also immer besser. Umso wichtiger ist es, vorsichtig zu sein und nicht allem einfach Glauben zu schenken, was man scheinbar sieht. Deshalb „Augen auf“ bei der nächsten Online-Konferenz!