KI erscheint vielen als digitale Wunderwaffe. Gleichzeitig warnen Kritiker vor Hackerangriffen, maschineller Manipulation und einer allmächtigen Super-Intelligenz, die künftig die Herrschaft übernehmen könnte. Was wir aus den neugewonnenen Möglichkeiten machen, liegt allerdings vor allem an uns.
Künstliche Intelligenz gehört zu unserem Alltag: Wir sprechen mit dem Smartphone und Chatbots beantworten unsere Anfragen an Servicehotlines. Ob wir für ein Jobinterview eingeladen werden, welchen Kredit wir erhalten oder welcher Partner uns auf Dating-Plattformen vorgeschlagen wird, liegt zunehmend in der Hand intelligenter Algorithmen. Auch Industrie und Wissenschaft setzen auf die Technologie – beim autonomen Fahren, bei der Automatisierung in Fabriken oder der Tumorerkennung in der medizinischen Diagnostik. KI-Systeme sind in der Lage, massive Datenmengen in kürzester Zeit zu analysieren, mit unterschiedlichsten Referenzpunkten zu korrelieren und damit bessere Entscheidungsgrundlagen als der Mensch zu schaffen. KI beeinflusst unser Leben, unsere Gesellschaft und auch unsere Wahrnehmung – denn spätestens seit dem Cambridge-Analytica-Skandal bei den US-Präsidentschaftswahlen fühlen sich viele Menschen angesichts der manipulativen Macht ausgeklügelter Algorithmen unwohl.
Neben allen Vorteilen ist die KI-Nutzung immer mit Gefahren verbunden. Es besteht das Risiko, schnell in Abhängigkeit zu geraten, da die Entscheidungen der KI aufgrund der Komplexität und des analysierten Datenvolumens nicht mehr nachvollziehbar sind. Schlechte oder manipulierte Daten führen zwangsläufig zu merkwürdigen, unrealistischen oder sogar gefährlichen Ergebnissen. Die Beeinflussung kann dabei drei Bereiche betreffen: den Input der Daten in ein KI-System, die Programmierung der dazugehörigen Algorithmen und den Output, den ein KI-System liefert – inklusive seiner Interpretation. Der Grad der Manipulation kann von eher unabsichtlicher Verzerrung bis zu aktiver Manipulation reichen, oft beeinflussen sich Mensch und KI gegenseitig. Fake-Videos von Prominenten, die heute schnell und einfach mit Hilfe von Gratis-Apps produziert werden, sind eine aktive Manipulation. KI-Systeme, die nach kurzem Text-Input sehr überzeugend Artikel – allerdings auch solche ohne Wahrheitsgehalt – erstellen, können die Verbreitung von Fake News beschleunigen. Durch den Einsatz von Chatbots oder künstlichen Profilen wiederum lassen sich die Diskussionen in sozialen Netzwerken verfälschen. Und Suchmaschinen, die dem Benutzer nur Informationen anzeigen, die mit seinem bisherigen Online-Verhalten übereinstimmen, führen zu einer sogenannten Informationsblase. Eine mehr oder weniger unbewusste Manipulation liegt dagegen vor, wenn durch eine unreflektierte Nutzung verzerrter Daten oder eine Programmierung, die nur Korrelationen, nicht aber die Kausalitäten hinter den Daten berücksichtigt, vorherrschende Diskriminierungen abgebildet und gesellschaftliche Benachteiligungen verstärkt werden. Solche KI-Bias aufgrund verzerrter Trainingsdaten führen dazu, dass Menschen etwa aufgrund von Geschlecht, Alter oder Herkunft bei Bewerbungsgesprächen, der Beförderung oder der Kreditvergabe übergangen werden.
Grundsätzlich gilt: Durch die Kompromittierung von KI-Trainingsdaten kann das System unerwünschte und damit gefährliche Fähigkeiten erlernen. Bei Bilderkennungssystemen reicht es beispielsweise aus, weniger als ein Prozent der Eingabepixel zu verändern, um eine falsche Entscheidung der KI zu verursachen. Wird eine Bild- oder Videodatei manipuliert, lässt sich so die Gesichtserkennung oder ein KI-basiertes Überwachungssystem auf Flughäfen und Bahnhöfen austricksen. Bereits 2017 ist es Forschern der University of Michigan gelungen, Bilderkennungsalgorithmen, wie sie autonome Fahrzeuge nutzen, optisch zu täuschen. Bei diesen „Adversarial Attacks“ trainierten sie die KI-Systeme gezielt um. In der Folge erkannte die KI statt einem Stoppschild ein Verkehrszeichen zur Geschwindigkeitsregelung. Gefährlich wird es auch, wenn Kriminelle eine Backdoor in die KI einbauen. Dabei manipulieren sie die Auswertung der Algorithmen so, dass bestimmte Angriffsmuster nicht mehr als Angriff erkannt werden und die Unternehmen sich fälschlicherweise in Sicherheit wiegen. Aber auch Roboterarme in Industrieunternehmen, die den Menschen eigentlich bei anstrengenden, monotonen oder gefährlichen Tätigkeiten unterstützen sollen, lassen sich über gängige Schwachstellen leicht hacken und gefährden damit die Gesundheit von Menschen und die Produktqualität.
Die Rolle eines SOC in der Cyberabwehr |
---|
Speziell trainierte KI ist die Basis für Echtzeit-Überwachungs- und detailgenaue Analyseverfahren, um Anomalien im Datenstrom zu erkennen und Unternehmen schnell auf Sicherheits- und Prozessintegritätsprobleme hinzuweisen. Security Operations Center (SOC) nutzen Bedrohungsdaten aus den unterschiedlichsten Quellen und ermöglichen daher tiefgehende Einblicke, die kein Unternehmen mit vertretbarem Aufwand zusammenstellen oder auswerten könnte. Neben der permanenten Analyse des Datenverkehrs und der Korrelation der zur Verfügung stehenden Informationen können SOC-Experten dem Algorithmus beim sogenannten Supervised Learning beibringen, welche Schlussfolgerungen er ziehen soll. So weiß das KI-System zum Beispiel, welche Programme ein Schadcode öffnet, welche Dateien er beschreibt oder löscht, welche Daten er hoch- oder runterlädt. Nach diesen Mustern kann der trainierte Algorithmus dann auf den Rechnern der Nutzer Ausschau halten. |
Um sich gegen Manipulationen abzusichern, müssen Firmen die Datenquellen für die eigenen KI-Systeme überprüfen. Sinnvoll ist eine validierte Lieferkette für KI-Trainingsdaten. Um die Resilienz der Algorithmen zu steigern, können zudem potenzielle Angriffe in den eigenen Datensatz integriert und mittrainiert werden. So ist es möglich, einen Algorithmus mit bekannten gegnerischen Beispielen, sogenannten „Adversarial Examples“, zu füttern und damit zu schützen. Zur Absicherung des Informationsaustausches können Daten darüber hinaus mit Hilfe mathematischer Verfahren gezielt verrauscht werden, ohne dass sie ihre statistische Aussagekraft verlieren. Grundsätzlich müssen KI-Systeme systematisch auf Verzerrungen getestet werden und die Trainingsdaten durch mehrere Validierungsphasen laufen. Ansonsten gelten die gleichen IT-Security-Maßnahmen wie für andere kritische Systeme: Das reicht von dedizierten Zugriffsrechten mit MFA bis zu Threat Intelligence, um Schwachstellen und Angriffspunkte zu analysieren und entsprechend Abwehrmechanismen darauf auszurichten.
Um einer passiv manipulativen KI entgegenzusteuern, muss der Fokus auf den Daten und Programmen liegen, auf deren Grundlage die KI agiert. Das bedeutet vor allem Transparenz – das Ergebnis, die technischen Prozesse, die für das Zustandekommen von Entscheidungen verantwortlich sind, wie auch die involvierte Logik müssen nachvollziehbar sein. Praktisch keines der am Markt verfügbaren KI-Systeme erfüllt diese Anforderungen, denn weder sind die Trainingsdaten noch die Entscheidungsalgorithmen einsehbar. Eine solche KI funktioniert wie eine kaum nachvollziehbare „Black Box“, weshalb die Etablierung einer Strategie und eines Verhaltenskodex anhand ethischer Prinzipien unabdingbar ist. Staatliche Kontrolle ist gesellschaftlich gewünscht, eine Selbstverpflichtung der Industrie oder eine Art hippokratischer Eid für Entwickler reichen aus Sicht von Kritikern nicht aus. Erst im April hat die Europäische Kommission Regelungsvorschläge veröffentlicht – offen ist derzeit, ob dieses Werk die gleiche Durchschlagskraft haben wird wie die DSGVO. Die EU-Regeln würden sich auf die riskantesten Anwendungsgebiete konzentrieren, Systeme, die „unterschwellige Methoden“ zur Manipulation von Menschen nutzen, sollen komplett verboten werden.