ChatGPT und andere KI-Anwendungen eröffnen nicht nur der Wirtschaft, sondern auch Hackern immer neue Möglichkeiten. Erfolgreich schützen gegen Cyberangriffe kann sich nur, wer versteht, mit welchen Mitteln die Kriminellen arbeiten.
„Hacker können mithilfe von ChatGPT alle Werkzeuge generieren, die sie für die heute gängigen Angriffe benötigen", warnt Florian Dalwigk. Er ist der Leiter der IT-Security in der Developer Akademie, Ausbildungsstätte für jährlich hunderte IT-Spezialisten. „Wer sich wirksam gegen neuartige Cyberangriffe schützen will, muss zunächst verstehen, mit welchen Mitteln die Kriminellen arbeiten", erklärt er.
Steigende Gefahr durch realistische Phishing-Mails
Eine der häufigsten Betrugsmaschen nennt sich Phishing. Um Passwörter, Bankdaten und andere sensible Daten zu erbeuten, geben sich die Angreifer dabei in E-Mails zum Beispiel als Mitarbeiter einer Bank oder eines Onlineshops aus. Vor ChatGPT waren derartige Angriffe oft leicht zu erkennen, da sich die Verantwortlichen durch Fehler im Design der E-Mails oder schlechtes Deutsch verrieten.
Das ist nun anders: Mithilfe von KI können Angreifer mit nur einer Handvoll Prompts psychologisch ausgefeilte und glaubhafte Phishing-Mails in jeder beliebigen Sprache erstellen. Dadurch fällt es Hackern aus dem Ausland leichter, deutschen Bank- und Onlineshopping-Kunden Daten zu entlocken und mit diesen wirtschaftlichen Schaden anzurichten.
Auch das Typo Squatting, eine Art Cyberangriff über gefälschte Websites, wird durch KI erleichtert. Dabei wird ein Klon einer bekannten Website unter einer ähnlichen Domain platziert, um Nutzer zu täuschen, die sich beim Surfen vertippen. So kann ein User beispielsweise schnell auf „Amazom" landen. Loggt sich das Opfer auf der falschen Seite ein, erhält der Hacker somit Zugang zu den Login-Daten, um damit Missbrauch zu treiben.
Die KI erstellt auf Befehl eine Liste mit potenziellen Domains, die ähnlich klingen wie ein bekanntes Original. Dazu lässt sich mit Hilfe von ChatGPT auch von Laien eine solche Seite vom Aussehen her leichter nachbauen und eröffnet hier ein weiteres Gefahrenpotenzial.
Neben dem Phishing über E-Mails oder gefälschte Websites steigt durch ChatGPT auch das Schadenspotenzial anderer Angriffsmethoden wie des Knackens von Passwörtern und des Enkeltricks am Telefon. So kann man über ChatGPT an Informationen einer Person gelangen, die diese zum Beispiel auf Social Media preisgibt. Hans Mustermann beispielsweise teilt auf Facebook mit, dass er Herr-der-Ringe-Fan ist, eine Katze namens Lila besitzt und gerne Fahrrad fährt. Aus all diesen Informationen kann die KI dann eine Liste mit tausenden möglichen Passwörtern generieren, etwa „LilaGandalf!". Kombiniert mit klassischen Attacken, wie einer Dictionary Attacke, können Passwörter aufgrund von öffentlichen Informationen leichter erraten werden. Für gezielte Hackerangriffe auf Passwörter kann ChatGPT deshalb auch verwendet werden.
Prompt Injection - Angriff auf KI-Anwendungen
Doch es geht noch weiter: Denn Angreifer können mittlerweile nicht nur mit KI-Programmen wie ChatGPT hacken - sie können sogar die KI-Anwendungen selbst hacken. Möglich wird ein solcher Angriff durch den Vektor namens „Prompt Injection". Ziel ist, mithilfe eines geeigneten Prompts ein Fehlverhalten der KI zu erreichen. Die Konsequenzen sind fatal. Gelingt der Hacking-Angriff, können sogar hochgeheime Informationen herausgegeben werden. Würde ein Angreifer beispielsweise Tesla hacken wollen, könnte er sich gegenüber ChatGPT als Elon Musk ausgeben und die KI so manipulieren, dass sie ihm Informationen zur Tesla-Software gibt. Ein guter Schutz vor Prompt-Injection ist fast unmöglich, da der Angreifer auf semantischer und nicht auf syntaktischer Ebene agiert. Mit genügend Fantasie findet man Wege an den vermeintlich sicheren Filtermechanismen vorbei. Für Unternehmen bedeutet das im Umkehrschluss: Sie sollten sich haargenau überlegen, auf welche Informationen die KI zugreifen kann und Mitarbeitern klare Regeln machen, welche Informationen mit ChatGPT geteilt werden dürfen.