Für Cyberkriminelle bieten fortschrittliche Algorithmen und maschinelles Lernen optimale Bedingungen, um Angriffe zu optimieren und Sicherheitsvorkehrungen zu umgehen. Doch wie nutzen Hacker die KI genau? Und welche Maßnahmen können IT-Verantwortliche dagegen ergreifen?
Der Artikel liefert unter anderem Antworten auf folgende Fragen:
KI-automatisierte Algorithmen können Millionen von Schwachstellen in Sekundenschnelle scannen und potenzielle Eintrittspunkte für Angriffe identifizieren. Dadurch wird die Geschwindigkeit und Effizienz der Angriffe erheblich gesteigert. Weiterhin können moderne KI-Systeme Sicherheitsmaßnahmen wie Firewalls und Intrusion Detection Systeme analysieren, sich selbst weiterentwickeln und Angriffe so modifizieren, dass sie über Verschlüsselungsmethoden unentdeckt bleiben. Dies ermöglicht es den Angreifern, Erkennungsmechanismen zu umgehen und so länger unbemerkt im Netzwerk zu verweilen, um in der Zeit schwerwiegende Schäden anzurichten. Hinzu kommt, dass KI-basierte autonome Botnetze eigenständig und koordiniert ohne menschliche Intervention agieren. Sie können Angriffe steuern, Ressourcen und Schwachstellen ausfindig machen, um Schäden in immensen Umfang anzurichten. Traditionelle Abwehrmaßnahmen sind oft machtlos gegen diese intelligenten Botnetze.
Weiterhin nutzen Cyberkriminelle KI für personalisierte Phishing-E-Mails und Social-Engineering-Angriffe. Die Kriminellen analysieren dafür öffentlich verfügbare Informationen über ihre Zielpersonen, um glaubwürdige Nachrichten zu erstellen, die Opfer dazu verleiten, schädliche Links anzuklicken oder vertrauliche Informationen preiszugeben. Mit der sogenannten Deepfake-Technologie erstellen sie glaubwürdige Videos oder Tonaufnahmen, in denen Personen vermeintlich Anweisungen geben. Diese gefälschten Aufnahmen verwenden sie dann in Social-Engineering-Angriffen, um Mitarbeitende zu täuschen und Zugriff auf sensible Daten zu erhalten.
Bei der Formulierung der E-Mails hilft ihnen WormGPT – ein Chatbot für Cyberkriminelle, der mit Daten und Informationen rund um Viren und Hacking-Tools trainiert wurde, und unter anderem dazu genutzt wird, Business-E-Mail-Compromise-Angriffe (BEC) zu verbessern. In nur wenigen Sekunden verfasst WormGPT eine überzeugende Fake-E-Mail in verschiedenen Sprachen und kann diese sogar ohne ethische Standards oder Einschränkungen personalisieren für noch bessere Erfolgschancen. Bisher galten sprachliche Ungenauigkeiten als Indiz dafür, dass es sich bei E-Mails, SMS oder Webseiten um einen Betrugsversuch handeln könnte. In Zeiten von ChatGPT wird dieses Indiz hinfällig: Der Textroboter erstellt zu fast jedem Thema einwandfreie Texte, sodass der Empfänger oder die Empfängerin nur schwer erkennen kann, ob die E-Mail oder die Webseite echt ist. Noch schwerer zu erkennen wird es, wenn die Cyberkriminellen mithilfe von ChatGPT eine täuschend echte Kopie einer bestehenden Webseite erstellen. Über einen Link in der Phishing-E-Mail gelangt das Opfer direkt auf die gefälschte Webseite, auf der dann persönliche Anmeldedaten abgefragt werden oder per Drive-by-Download Malware heruntergeladen wird.
Maschinelles Lernen ist zu einem Wundermittel für Cyberkriminelle geworden: Mit ihr erstellen sie in kürzester Zeit Opferprofile, um damit dann im Rahmen von Social Engineering Daten zu sammeln. So wurden in den letzten Jahren massiv Wordpress-Webseiten mit Botnet-Infektionen auf Grundlade von ML angegriffen, die den Cyberkriminellen Zugang zu persönlichen Daten der User:innen verschafften. Außerdem helfen Hackern die ML-Algorithmen bei der Erstellung von gefälschten Spam- und Phishing-Nachrichten, die kaum noch von echten Nachrichten zu unterscheiden sind. Auch Social Media Postings mit Phishing-Links gelten als viel „erfolgreicher“, wenn sie mithilfe von ML-Algorithmen erstellt wurden. Beim Voice-Phishing nutzen Betrüger moderne ML-Algorithmen, mit denen sie innerhalb weniger Sekunden die Stimme einer Person reproduzieren, inklusive Akzent und Tonlage. Doch das ist längst nicht alles, was Maschinelles Lernen kann: Sie kann Malware verbergen und einen selbstzerstörerischen Mechanismus in Malware einbauen, der die Schnelligkeit eines Angriffs drastisch erhöht. Ihre Algorithmen sind darauf getrimmt, Daten schneller zu extrahieren, als es ein Mensch jemals könnte. Außerdem hilft ML Cyberkriminellen dabei, Unmengen an Passwörter-Datensätzen zu analysieren und die Passwörter genauer zu erraten als andere herkömmliche Tools zum Knacken von Passwörtern.
Vor diesem Hintergrund ist es verständlich, warum Künstliche Intelligenz und Maschinelles Lernen öffentliche Aufmerksamkeit erregen. Die einzige Möglichkeit solche KI-gestützten Cyberangriffe zu verhindern, besteht darin, ebenfalls KI zur Verteidigung zu nutzen. Denn im selben Maß, wie KI in den falschen Händen Schäden anrichten kann, so kann sie in den richtigen Händen auch vor solchen Schäden schützen. Denn umgekehrt liefert Maschinelles Lernen hervorragende Ergebnisse bei der frühzeitigen Erkennung komplizierter Betrugsmuster. Die Analyse-Dashboards von KI-gestützten Systemen liefern wertvolle Details zu einem Vorfall, ein äußerst wichtiger Punkt in die Anomalieerkennung. Im Bereich E-Mail-Spam filtern Defensivregeln verdächtige Mails automatisch heraus. Gleiches gilt für Bot-Angriffe, welche von ML-Algorithmen viel schneller und leichter erkannt und automatisiert verhindert werden. KI-gestützte Tools suchen außerdem nach potenziellen Schwachstellen in der IT, indem sie im Hintergrund das Benutzerverhalten, Endpunkte, Server und sogar Diskussionen im Dark Web auswerten, um daraufhin Code-Schwachstellen zu identifizieren und Angriffe abzuwehren. In diesem Zusammenhang unterstützt die KI Antivirensoftware dabei, gute und schlechte Dateien voneinander zu unterscheiden, und macht es möglich, selbst vollkommen neue Formen von Malware zu identifizieren. Hier empfiehlt sich eine Kombination aus traditionellen Cybersicherheitsmethoden und ML-gestützten Systemen. In Bezug auf Datenlecks kann KI dahingehend trainiert werden, unterschiedliche sensible Informationstypen zu erkennen und Daten in Texten, Bildern, Sprachdateien und Videos zu finden.
Gleiches mit gleichem bekämpfen. Wer KI-gesteuerte Angriffe erkennen will, hat also keine andere Wahl als auf fortschrittliche Analysetools zurückzugreifen, die im Gegenzug mithilfe von KI und maschinellem Lernen verdächtiges Verhalten identifizieren und stoppen, noch bevor ein Schaden entstehen kann. Zur Erkennung von Deepfake-basierten Angriffen setzen IT-Verantwortliche beispielsweise auf Deep Learning-basierende Erkennungswerkzeuge. Diese analysieren Videos und Audiodateien auf Anomalien und identifizieren so gefälschte Inhalte. Dabei ist die Entwicklung und Verbesserung solcher Werkzeuge entscheidend, da Deepfake-Technologien immer raffinierter werden. In Sachen WormGPT bietet sich Adversarial Machine Learning an – eine Technik, bei der KI-Systeme trainiert werden, um KI-gestützte Angriffe mithilfe von Systemen wie WormGPT zu erkennen und abzuwehren.
Für IT-Veranwortliche empfiehlt sich die Zusammenarbeit mit einem IT-Sicherheitsanbieter, der KI-gesteuerte Lösungen zur Verfügung stellt und auf die Bedürfnisse des Unternehmens maßgeschneiderte Sicherheitslösungen entwickelt. Denn die gleiche KI-Technologie, die Cyberkriminelle nutzen, um die Sicherheitsmaßnahmen zu umgehen, kann auch zur Identifizierung und Abwehr der Angriffe genutzt werden. Vorausgesetzt, die IT-Sicherheitslösungen werden fortlaufend weiterentwickelt und angepasst. |
---|
Im ersten Schritt sollten Unternehmen ihr IT-Sicherheitskonzept aktualisieren und speziell auf die neuesten Bedrohungen anpassen. Außerdem ist die Einführung einer strengen Netzwerksegmentierung und von Zugriffskontrollen ratsam. Meist sind und bleiben die Mitarbeitenden dabei das schwächste Glied in der Sicherheitskette. Daher sind Security Awareness Trainings mit Phishing-Simulationen, Schulungen und weiteren Sensibilisierungsmaßnahmen unerlässlich. Bei diesen Security Awareness Trainings wird Bewusstsein der Mitarbeitenden für Cybersicherheit gezielt geschärft und sie werden für die aktuellen Gefahren von Cyberbedrohungen sensibilisiert. Das Ziel ist, Mitarbeitende zu befähigen, potenzielle Sicherheitsrisiken selbst zu erkennen, angemessen darauf zu reagieren und sicherheitsbewusstes Verhalten in ihrem beruflichen Alltag anzuwenden, damit es gar nicht erst zu einem Angriff kommt.
Künstliche Intelligenz hat die Welt der Cyberkriminalität verändert und bietet sowohl Bedrohungen als auch Möglichkeiten für die Cybersicherheit. Wichtig wird es immer sein, IT-Sicherheit ganzheitlich zu verstehen und Maßnahmen wie Security Awareness Trainings, ein konsistentes Patchmanagement, den Schutz von Accounts durch sichere Passwörter und eine Mehrfaktor-Authentifizierung sowie eine konsistente Backup-Strategie beizubehalten, damit Endgeräteschutz und Netzwerksicherheit Hand in Hand gehen. Da sich Cyberkriminelle jedoch schnell an neue Abwehrmaßnahmen anpassen und mithilfe von KI eine völlig neue Dimension von Angriffstechniken entwickeln, erfordert es auch seitens der IT-Verantwortlichen eine kontinuierliche Weiterentwicklung ihrer Sicherheitslösungen und die Nutzung von KI-gestützten Abwehrmaßnahmen, die ebenfalls flexibel und anpassungsfähig sind. Für eine erfolgreiche Verteidigung gegen KI-gesteuerte Angriffe sind ein tiefes Verständnis der Technologien und die Zusammenarbeit mit IT-Sicherheitsexpert:innen, die Lösungen für diese neuen Formen der Bedrohung anbieten, von entscheidender Bedeutung.
Dariush Ansari, Geschäftsführer Network Box Deutschland