Auf der anderen Seite ist KI längst ein besserer Hacker als der Mensch: Sie erkennt Schwachstellen schneller und genauer. Angreifer entwerfen beispielsweise intelligente Malware-Programme, die aus vereitelten Attacken lernen. Daneben verwenden sie Künstliche Intelligenz, um Intrusion Detection (IDS), Data Leakage Prevention (DLP) und Cloud Access Security Broker (CASB) zu unterwandern, typischen Netzwerkverkehr oder das Verhalten eines authentifizierten Nutzers oder seines Endgerätes zu simulieren und eigene Aktivitäten wie beispielsweise Adversarial Attacks zu verschleiern, bei denen ein manipuliertes Eingangssignal verwendet wird, um die Arbeitsergebnisse der KI zu beeinflussen. Eine andere Strategie ist das Umgehen sogenannter Captcha-Systeme. Normalerweise fungieren die Bildermosaike beim Registrieren für Newsletter oder Bestellformularen im Internet als Spamschutz. Mit Hilfe optischer Zeichenerkennung durch Maschinelles Lernen identifiziert die Hacker-Software jedoch Millionen verschiedener Bilder, bis sie diese automatisch erkennen und das Captcha lösen kann. Für Unternehmen gilt deshalb, sie brauchen bei der Cyberabwehr einen ganzheitlichen Security-Ansatz, der heute selbstverständlich KI-basierte Lösungen einschließt, um die berühmte Nadel im Heuhaufen zu finden. Ein solches System analysiert in kurzer Zeit große Datenmengen, gleicht unbekannte Dateien mit Threat-Intelligence-Plattformen ab und entdeckt so Malware und andere Eindringlinge. Das passiert völlig automatisiert, verkürzt in der Folge die Response-Zeit und minimiert mögliche Schäden. Es ist das alte Katz-und Maus-Spiel, denn der technische Fortschritt bleibt auch der Gegenseite nicht verwehrt. Wie das Rennen allerdings bei einer Super-KI ausgehen würde, ist eine ganz andere Frage. Derzeit werden drei Arten von Künstlicher Intelligenz unterschieden:
Eine schwache KI – derzeitiger Stand der Technik – ist ausschließlich fähig, konkrete Aufgaben zu erledigen, deren Lösung sie zuvor gelernt hat. Dies bezieht sich zum Beispiel auf die Analyse von Dokumenten, Autofahren oder Gesichts-/Spracherkennung. Eine starke KI hat per Definition die gleichen intellektuellen Fertigkeiten wie der Mensch und ist nach wie vor Zukunftsmusik. Die Künstliche Super-intelligenz schließlich würde den Menschen in allen Bereichen übertrumpfen: in Mathematik, Wissenschaft, Medizin, aber auch in puncto emotionale Beziehungen. Im „Journal of Artificial Intelligence Research“ haben Forscher die Folgen einer solchen Super-KI analysiert. Das Szenario muss dabei keineswegs eine Dystopie sein – schließlich könnte ein Supergehirn die Klimakatastrophe abwenden oder Krebs heilen. Das Problem ist nur, dass der Mensch diese Superintelligenz kaum kontrollieren könnte, sind sich die Wissenschaftler sicher.
Fakt ist, das allmächtige Potenzial von KI kann zu einer ernst zu nehmenden Gefahr werden. Eine unreflektierte Panik ist allerdings fehl am Platz, denn KI entscheidet immer auf Basis von Daten. Es liegt in unserer Verantwortung, dass diese Daten wertfrei sind und Entscheidungen gemäß gesellschaftlich verankerter Werte getroffen werden.
Kai Grunwitz, Geschäftsführer NTT in Deutschland
Fraunhofer-Studie: KI-Managementsysteme fördern vertrauenswürdige KI |
---|
Besonders leistungsstarke KI-Systeme, die künftig auch wichtige Aufgaben zum Beispiel beim autonomen Fahren übernehmen sollen, basieren auf der Verarbeitung großer Datenmengen. Um die damit verbundenen Risiken zu handhaben, eine sichere Nutzung zu gewährleisten und die internationale Kompatibilität zu ermöglichen, sind behördliche Richtlinien und internationale Standards notwendig, an denen sich Unternehmen und andere Organisationen bei der Nutzung und Entwicklung neuer KI-Technologien orientieren können. Ein bisher in anderen Unternehmensbereichen geläufiges Werkzeug, um mit sensiblen Aspekten wie zum Beispiel Informationssicherheit erfolgreich umzugehen, sind normierte Managementsysteme, die sich im Kontext von KI-Technologien allerdings noch in der Entwicklung befinden. Ein internationaler Standard für KI-Managementsysteme (englisch AI Management Systems, kurz AIMS) wird aktuell von der gemeinsamen Arbeitsgruppe der Normungsorganisationen ISO und IEC erarbeitet. Derzeit besteht er als Arbeitsentwurf. In der jüngst veröffentlichten Studie „Management System Support for Trustworthy Artificial Intelligence“ hat das Fraunhofer IAIS den Arbeitsentwurf des AIMS-Standards dahingehend untersucht, inwieweit er Unternehmen und andere Organisationen dabei unterstützen kann, KI-Technologien auf vertrauenswürdige Weise zu nutzen und zu entwickeln. Zu diesem Zweck haben die KI-WissenschaftlerInnen den Entwurf mit den aktuellen Anforderungen und Empfehlungen für vertrauenswürdige KI verglichen, die bisher von der Europäischen Kommission, der von ihr beauftragten Expertengruppe High-Level-Expert Group on AI (HLEG) sowie dem BSI formuliert wurden. Die von Microsoft beauftragte Studie zeigt, dass die Einführung eines KI-Managementsystems für Unternehmen künftig ein wichtiger und angemessener Schritt sein kann, um geeignete Strategien und Prozesse für die vertrauenswürdige Entwicklung und Nutzung von KI-Technologien zu definieren. Dabei können diese Systeme auch langfristig die Einhaltung von aktuellen und kommenden Richtlinien und Gesetzen unterstützen. Selbst bei Vorhandensein mehrerer Interessensgruppen und komplexer Lieferketten erleichtere der Einsatz die Einhaltung von Vorschriften über den gesamten Lebenszyklus von KI-Systemen hinweg. Die WissenschaftlerInnen des Fraunhofer IAIS heben in ihrer Studie hervor, dass die Implementierung von KI-Managementsystemen in Unternehmen auch einen positiven Einfluss auf die Akzeptanz und das Vertrauen von KI-Technologien in der Gesellschaft haben kann. Darüber hinaus geben sie in ihrer Studie konkrete Handlungsempfehlungen, inwiefern sich der Norm-Entwurf noch verbessern lässt. (DK) |