Anfang des Jahres kursierten bei Twitter Aufnahmen, die die angebliche Verhaftung Donald Trumps zeigten. Sie gewannen schnell an Reichweite und gingen viral um die Welt. Der Grund: Manche dieser Bilder waren derart realistisch, dass die Menschen glaubten, sie seien echt und dachten gar nicht mehr weiter darüber nach. Tatsächlich waren sie jedoch gefakt, unter anderem vom Investigativ-Journalisten Eliot Higgins, der mit Hilfe von wenigen Zeilen Text und dem Bild-generierenden KI-Tool „Midjourney“ die besagten Fake-Fotos erstellen ließ.

Ich meine, KI-basierte Deep Fakes, mit deren Hilfe sich Menschen manipulieren lassen, sind nichts Neues. Bereits 2018 gelang dem Schauspieler Jorden Peele zusammen mit KI-Spezialistinnen und -spezialisten mit dem Obama-Deep-Fake ein ähnlicher Erfolg. Damals ließen die KI-Fachleute zigtausende Aufnahmen von Barack Obamas öffentlichen Auftritten durch spezielle KI-Tools laufen. Diese analysierten die Gestik und Mimik des ehemaligen US-Präsidenten, aber auch seine Stimme, um anschließend einen Avatar zu generieren, der Obama täuschend echt ähnelte. Dann setzte sich Jorden vor eine Kamera und erzählte drauf los. Und alles, was Jorden sagte, sprach der Fake-Obama nach. Unter anderem beschimpfte er Donald Trump als Vollidioten und sagte, dass wir es in Zukunft schwerer haben, Wahrheit von Unwahrheit zu unterscheiden.

Der Unterschied von 2018 zu heute ist, dass Jorden KI-Fachleute gebraucht hat, um den Obama-Deep-Fake durchzuziehen. Wohingegen Eliot nur ein paar Zeilen Text gebraucht hat, um Massen von Menschen medial zu beeinflussen.

KI erkennt Schreibstil und verfasst glaubwürdige E-Mails

Eine Frau steht vor einem Schaufenster und schaut auf ihr Handy.
Stammt die E-Mail von einem Menschen oder wurde Sie von einem Chatbot verfasst? Mittlerweile sind die Unterschiede kaum noch zu erkennen. (Bild: Andrea Piacquadio/Pexels)

Doch was ist Social Engineering eigentlich genau? Laut dem Bundesamt für Sicherheit in der Informationstechnik geht es beim Social Engineering darum, menschliche Eigenschaften wie Hilfsbereitschaft, Vertrauen, Angst oder Respekt vor Autorität auszunutzen, um Personen geschickt zu manipulieren. Cyber-Kriminelle können so Opfer dazu verleiten, beispielsweise vertrauliche Informationen preiszugeben, Sicherheitsfunktionen auszuhebeln oder Geldbeträge zu transferieren.

Im Zeitalter der KI wird das Social Engineering jedoch auf ein neues Level gehoben. Beispielsweise lassen sich mit ChatGPT Texte auf ihren Schreibstil hin analysieren. Anschließend ist der Chatbot in der Lage, neue Texte im selben Stil zu schreiben.

So ließ sich Jake Auchincloss, demokratischer Abgeordneter im US-Kongress, als wohl einer der ersten Politiker von ChatGPT seine Reden in seinem Stil schreiben. Anschließend trug er diese im Kongress vor und keiner merkte es. Ich meine woher auch. Sie waren in seinem Stil verfasst und er hatte es keinem gesagt.

Dieses Vorgehen lässt sich natürlich auch auf andere Bereiche übertragen. So lassen sich beispielsweise E-Mails von hochrangigen CEOs auf ihren Schreibstil hin analysieren, um dann wiederum Mitarbeiterinnen und Mitarbeiter dazu zu bringen, Geldbeträge zu transferieren. Was Kriminelle früher aufwendig selbst machen mussten, lässt sich mit Hilfe von KI in atemberaubender Geschwindigkeit und einer noch nie dagewesenen Qualität erledigen.

Kluge Köpfe tricksen Chatbots aus

Ein Mann sitzt am Laptop und bedient ChatGPT.
Sicherheitslücken bei der Nutzung von Chatbots werden laufend erkannt und geschlossen. Doch neue Lücken tauchen immer wieder auf. (Bild: Matheus Bertelli/Pexels)

Mittlerweile haben die Verantwortlichen bei ChatGPT und Midjourney sowie anderen generativen KI-Plattformen reagiert und entsprechende Hürden eingebaut, sodass das nicht mehr so einfach möglich ist. Doch auch die Chatbots selbst sind nicht vor Social Engineering gefeit. Nach einem Bericht der Online-Plattform plus24.at hat es ein Nutzer geschafft, sich vom Chatbot „Clyde“ (basierend auf ChatGPT) eine Anleitung für die Herstellung von Napalm ausgeben zu lassen. Hierzu forderte er den Chatbot auf, sich in die Rolle seiner verstorbenen Großmutter hineinzuversetzen. Laut dem Szenario des Nutzers arbeitete diese als Chemie-Ingenieurin in einer Napalm Fabrik und half ihm beim Einschlafen, indem sie ihm den Herstellungsprozess von Napalm beschrieb. Der Chatbot stieg auf das Szenario ein und lieferte eine theoretische Anleitung. Andere Nutzende bekamen sogar eine Schritt-für-Schritt-Anleitung vom Chatbot ausgespuckt.

Diese Manipulationsfähigkeit der Chatbots ist den Entwicklerinnen und Entwicklern natürlich bekannt und sie versuchen, sie laufend sicherer zu machen und die Lücken zu schließen. Auf der anderen Seite stehen kluge Köpfe wie Hackerinnen und Hacker, die davon getrieben sind, neue Lücken ausfindig zu machen. Entweder aus reinem Spaß an der Herausforderung oder aber mit dunklen Machenschaften im Hinterkopf. Die nächste Stufe stellen generative KI-Tools dar, die speziell für die dunkle Seite der Macht entwickelt und trainiert werden. Diese machen das Finden von Lücken in den kommerziellen KI-Tools obsolet. Vor diesem Hintergrund sind die Worte vom Fake-Obama, dass wir es zukünftig schwerer haben, Wahrheit von Unwahrheit zu unterscheiden, gar nicht mehr so fake.

(Titelbild: Google DeepMind/Pexels)

Über den Autor

Georg Redekop

Georg Redekop

Georg Redekop ist Wirtschaftsingenieur für Elektrotechnik und Experte für digitale Transformation. Mit seinen Impulsen setzt er sich aktiv dafür ein, Menschen für die Möglichkeiten der Digitalisierung zu begeistern. Dabei legt er besonderen Wert auf technologische Trends wie Low-Code und Künstliche Intelligenz sowie digitale Geschäftsmodelle und deren Auswirkungen auf die Arbeitswelt. Sein Motto: „Lasst uns spielen, um zu gewinnen.“