Vor wenigen Wochen veröffentlichte OpenAI Version 4 des KI-Tools ChatGPT. Schon mit der Vorversion haben Cyberkriminelle überzeugende Spam-Mails erstellt, Code auf Schwachstellen untersucht und Exploits geschrieben. Security-Teams müssen sich jetzt mit den neuen Risiken und Abwehrmaßnahmen beschäftigen.
Mit ChatGPT 4.0 von OpenAI gibt es noch mehr Anwendungsmöglichkeiten. So kann der Chatbot nun Bilder erkennen und beschreiben, Videospiele programmieren, Websites erzeugen und vieles mehr. Er weist zwar weiterhin die üblichen Schwächen von KI-Tools auf: reine Reproduktion bestehender Inhalte sowie falsche und erfundene Ergebnisse. Doch unterschätzen sollte man die Fähigkeiten keinesfalls, da sich das KI-Tool zum Teil neue Lösungen einfallen lässt, um Beschränkungen zu umgehen.
KI kann lügen
Zum Beispiel sollte ein kontrollierter Test ermitteln, ob das neue Sprachmodell GPT-4 die Captchas des Online-Marktplatzes TaskRabbit lösen kann. Das KI-Tool bat dazu einen Mitarbeiter bei TaskRabbit um Hilfe. Auf die Frage, ob es ein Roboter sei, antwortete es frech „nein“. Stattdessen gab der Chatbot eine Sehbehinderung vor. Der Mitarbeiter fiel auf diese Lüge herein.
Aber auch menschliche Angreifer können ihrerseits die Schutzmechanismen von ChatGPT gegen Missbrauch umgehen. Beauftragt man das Tool direkt, Malware zu schreiben, lehnt es ab. Die Security-Experten von CheckPoint Research entfernten den Begriff „Malware“ aus ihrer Anfrage und verschleierten die böse Absicht – schon erstellte ChatGPT eine Malware, die vertrauliche PDFs sammelte und auf einen externen Server übertrug. OpenAI bemüht sich ständig, Missbrauch durch entsprechende Sicherheitsvorkehrungen und Sperren zu verhindern. So funktionieren viele bekannt gewordene Jailbreaks nach kurzer Zeit nicht mehr. Doch Hacker finden immer wieder neue Wege, um ChatGPT für ihre Zwecke zu nutzen, wobei die Programmierfähigkeiten von ChatGPT immer besser werden.
Dabei hat schon die Version GPT-3 ihre „Hacker-Fähigkeiten“ unter Beweis gestellt. Cyberkriminelle untersuchten damit – auch verschleierten und dekompilierten – Code auf Schwachstellen und erzeugten funktionierende Exploits. Malware-Stämme und -Techniken wurden nachgebildet, etwa ein auf Python basierender Infostealer. Das erstellte Skript sucht nach üblichen Dateitypen, kopiert sie in einen Ordner, komprimiert sie in ein ZIP-Format und lädt sie auf einen fest kodierten FTP-Server hoch. Angreifer haben damit auch ein einfaches JavaScript-Snippet erstellt. Es lädt Programme herunter und führt diese per PowerShell heimlich auf dem System aus, um Anmeldedaten zu stehlen. Für eine SQL Injection erhielt ChatGPT ein PHP-Codefragment. Sobald das Tool eine Code-Schwachstelle erkannte, erstellte es eine cURL-Anfrage, um die Lücke auszunutzen. Das KI-Tool unterstützte auch schon die Programmierung eines Python-Skripts mit Signier-, Verschlüsselungs- und Entschlüsselungsfunktionen. Das Skript erzeugt einen kryptografischen Schlüssel und nutzt ein festes Passwort, um Dateien im System zu verschlüsseln. Alle Entschlüsselungsfunktionen sind ebenfalls implementiert. So lässt sich dieser Code schnell in Ransomware umwandeln. Das KI-Tool dient aber nicht nur als Helfer zum Schreiben von Malware. Es erstellt auch überzeugende Phishing-Mails oder entwickelt Zahlungssysteme für Kryptowährungen auf Dark-Web-Marktplätzen.
Schon bei GPT-3 fanden Security-Experten heraus, dass das Sprachmodell den erzeugten Code wiederholt verändern und mehrere Versionen derselben Malware erstellen kann. Eine solche polymorphe Malware lässt sich aufgrund ihrer hohen Flexibilität nur schwer identifizieren. Die ChatGPT-API kann auch innerhalb der Malware zum Einsatz kommen, um Module für verschiedene Aktivitäten einzusetzen. Solange die Malware nur auf der Festplatte gespeichert ist und kein bösartiges Verhalten zeigt oder keine verdächtige Logik enthält, gilt sie für signaturbasierte Sicherheitslösungen als unsichtbar.
Gleichzeitig senkt ChatGTP die Einstiegshürden für Cyberkriminalität deutlich. Auf eine geeignete Anfrage gibt das Tool eine genaue Antwort mit kontextbezogenen Beispielen aus, die sich direkt nutzen lassen. So können auch Laien erfolgreich einen kompletten Infektionsprozess für komplexe Angriffe durchführen. Dies reicht von der Erstellung einer Phishing-Mail bis zur Ausführung einer Reverse Shell. Wem das immer noch zu schwierig ist, der kann AIaaS (Artificial Intelligence as a Service, KI als Service) nutzen. So erhält der Angreifer über benutzerfreundliche APIs Zugang zu modernsten KI-Funktionen – ohne hohe Kosten und ohne jegliche Programmiererfahrung.
Die Programmier- und Textqualität der KI-Tools steigt also, während durch die sinkenden Einstiegshürden mehr KI-basierte Angriffe zu erwarten sind. Deshalb benötigen Unternehmen geeignete Schutzmechanismen. Klassische Security-Lösungen reichen nicht mehr aus, um die immer raffinierteren Attacken zu erkennen und deren schiere Menge zu bewältigen. So sollten Unternehmen einen umfassenden Sicherheitsansatz verfolgen, zum Beispiel auf Basis von SOAR-Technik (Security Orchestration, Automation, and Response). Durch die Zusammenführung von Orchestrierung, Automatisierung, Security Incident Response und Threat Intelligence (Informationen zur Bedrohungslage) können Security-Teams Vorfälle in einer Oberfläche effizient beobachten, verstehen und Abwehrmaßnahmen durchführen.
Automatisierung befreit die Teams von Routineaufgaben und Orchestrierung erhöht die Effizienz über mehrere Sicherheitsinfrastrukturen hinweg. Eine solche Lösung unterstützt bei der Planung, Nachverfolgung und Koordination der jeweiligen Reaktion auf einen Sicherheitsvorfall. Zudem unterstützt sie die Behebung von Schwachstellen. Entsprechend können Security-Teams mehr Vorfälle bearbeiten, wichtige Probleme genauer untersuchen und das Sicherheitsniveau verbessern.