Chancen und Risiken von KI

Zweischneidiges Schwert

6. Juli 2021, 7:00 Uhr | Martin Klapdor/wg

Fortsetzung des Artikels von Teil 1

Die dunkle Seite von KI

KI-Techniken wie Natural Language Processing (NLP) dienen anschließend dazu, Phishing-E-Mails zu erstellen. Diese lassen sich kaum von „echten“ Nachrichten eines Freundes oder Vorgesetzten unterscheiden. Das ist vor allem dann der Fall, wenn sie mit Kontext angereichert sind, beispielsweise Informationen über Themen, die für die Adressaten nachweislich von Interesse sind. Wer schöpft schon Verdacht, wenn er von einem Freund eine E-Mail mit einem Link zu einer Web-Seite mit entsprechenden Angaben erhält, die aber in Wirklichkeit Malware verteilt? Oder wenn eine vermeintliche Nachricht der Geschäftsführung die Einladung zu einem Online-Meeting enthält? Laut dem Cybersecurity Interdisciplinary Systems Laboratory des MIT (Massachusetts Institute of Technology) erreichen KI-basierten Phishing-Mails eine Öffnungsquote von bis zu 60 Prozent. Dies ist ein höherer Wert als bei manuellen Spear-Phishing-Aktionen. KI- und ML-Technologien helfen Angreifern also dabei, solche Attacken einfacher und effizienter durchzuführen.

Doch auch „klassische“ Angriffe auf IT-Systeme profitieren von künstlicher Intelligenz. Ein Beispiel ist das „Environmental Keying“. Dieser Ansatz schützt Schadsoftware davor, von IT-Sicherheitslösungen entdeckt zu werden. Der Hintergrund: Malware gelangt meist in verschlüsselter Form auf Zielsysteme. Dies erschwert es Security-Lösungen, den wahren Charakter der Nutzlast (Payload) zu erkennen. Das Problem liegt jedoch darin, dass auch der Schlüssel mitzuübertragen ist, der zur Entschlüsselung nötig ist – und IT-Sicherheitslösungen erkennen solche Keys.

Um den Entschlüsselungsalgorithmus zu tarnen, verwendet Environmental Keying daher KI-Funktionen. Diese passen den Schlüssel automatisch an Elemente in der Zielumgebung der Malware an. Solche Elemente sind beispielsweise Netzwerk-Shares, physische Systeme, Softwareversionen, IP-Adressen und Active-Directory-Domänen. Dadurch dauert es länger, bis Antivirensoftware und Sandboxing die Malware als solche identifizieren. Derartige Attacken profitieren somit davon, dass sich eine KI-gestützte Schadsoftware an Umgebungsbedingungen anpassen und eine individuelle Vorgehensweise entwickeln kann. In dieser hohen Autonomie und Anpassungsfähigkeit sieht die IT-Sicherheitsforschung eine der größten Gefahren KI-basierter Angriffe.

Besonders perfide ist die Gefahr durch manipulierte Daten und Modelle, mit denen man KI- und ML-Systeme trainiert. Forschende amerikanischer Universitäten und des Automobilzulieferers Harman haben aufgezeigt, wie sich Bilderkennungssysteme autonomer Fahrzeuge beeinträchtigen lassen: Sie manipulierten die Datenklassifikatoren von Fotos mit Verkehrszeichen; die Software des Fahrzeuges interpretierte daraufhin beispielsweise eine Geschwindigkeitsbegrenzung von 30 km/h auf einem Schild als zulässige Höchstgeschwindigkeit von 80 km/h. In der Praxis allerdings würde ein solcher Angriff der Person am Steuer wohl schnell auffallen. Speziell auf den Bereich Industrie 4.0 zielen AML-Angriffe (Adversarial Machine Learning, feindliches maschinelles Lernen) ab. AML manipuliert die Datenmodelle der Sicherheitssoftware von Steuerungssystemen (Industrial Control Systems, ICS) in Fertigungsumgebungen und Kraftwerken. Solche Softwarelösungen nutzen KI und ML, um Indikatoren von Angriffen zu identifizieren und – mitunter automatisch – Gegenmaßnahmen zu ergreifen.

Der Flugzeughersteller Airbus hat zusammen mit Forschenden der Universität Cardiff Lernmodelle KI-basierter IDS-Software (Intrusion Detection System) so umgebaut, dass diese bestimmte Angriffsvektoren nicht mehr erkannten. Das würde Cyberkriminellen und „Staatshackern“ die Möglichkeit geben, Industriesteuerungen gezielt anzugreifen und auf diese Weise schlimmstenfalls Fertigungsanlagen und Versorgungseinrichtungen lahmzulegen.

Auf ähnliche Weise lässt sich die Gesichtserkennungssoftware von Smartphones und Zugangskontrollsystemen austricksen. Unternehmen und Forschungseinrichtungen benötigen daher Lösungen, mit denen sie Qualität der Daten prüfen und sicherstellen können, die sie für das Training von KI- und ML-Modelle verwenden. Dies ist vor allem deshalb wichtig, weil Unternehmen und Forschungseinrichtungen solche Modelle untereinander austauschen, um Zeit und Kosten zu sparen. Das steigert das Risiko, dass sich manipulierte Lerndaten und -modelle verbreiten.

Künstliche Intelligenz und maschinelles Lernen haben an der grundlegenden Ausgangslage wenig geändert: am Wettlauf zwischen Hackern und IT-Security-Teams. Angreifer setzen Schadsoftware ein, die nach wie vor dazu dient, lohnende Ziele zu finden und möglichst lange unentdeckt zu agieren. Nur kommen dabei nun verstärkt KI und ML ins Spiel. Die gute Nachricht ist jedoch, dass sich auch die Abwehrmaßnahmen gegen solche Angriffe weiterentwickelt haben und dies weiterhin tun werden – auch deshalb, weil sie in zunehmendem Maß auf KI und ML setzen.

Martin Klapdor ist Senior Solutions Architect bei Netscout.

Anbieter zum Thema

zu Matchmaker+

  1. Zweischneidiges Schwert
  2. Die dunkle Seite von KI

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Netscout

Weitere Artikel zu System-Management

Weitere Artikel zu Bedrohungsabwehr

Weitere Artikel zu X-FAB Semiconductor Foundries AG

Weitere Artikel zu Swissphone Telecommunications

Weitere Artikel zu media concept ORCON GmbH

Weitere Artikel zu InFocus GmbH

Matchmaker+