Künstliche Intelligenz sorgt für Aufsehen. Ihre Entwicklung verläuft so rasant, dass der Höhepunkt der „überzogenen Erwartungen“ an generative KI bereits überschritten ist. Zeit für Security-Verantwortliche, sich auf die realistischen Anwendungsfälle von KI zu konzentrieren.
Der Artikel beantwortet unter anderem folgende Fragen:
Viele Sicherheitsanbieter integrieren bereits seit Jahren Künstliche Intelligenz (KI), insbesondere maschinelles Lernen (ML), in ihre Lösungen, um deren Effizienz zu verbessern und ihre Fähigkeiten zu erweitern. KI birgt ein enormes Potenzial, um die Sicherheit von Unternehmen zu verbessern und es den Verteidigern zu ermöglichen, Bedrohungen einen Schritt voraus zu sein. Allerdings sind KI/ML-basierte Funktionen nur so gut wie die Daten und Prozesse, mit denen die Modelle trainiert werden. Dies schließt auch die Größe und Qualität der Datensätze, die Überwachung von Änderungen in der Datenverteilung und vieles mehr ein. Die Komplexität der Technologie sorgt für zusätzliche Hürden und Einschränkungen. Obwohl KI also in der Lage ist, den Menschen bei einigen komplexen Aufgaben zu übertreffen, ist sie nicht immer der effizienteste Ansatz.
Generell lässt sich feststellen, dass KI keine Patentlösung für jedes Sicherheitsproblem ist. Wer die eigene Cyberabwehr verbessern möchte, sollte die Bandbreite der KI-Anwendungsfälle1 berücksichtigen und Sicherheitsanbietern detaillierte Fragen stellen, um zu verstehen, welche Anwendungsfälle und Lösungen für das eigene Unternehmen am besten geeignet sind.
KI-Systeme sind besonders gut darin, Muster in riesigen Datenmengen zu erkennen und auf Grundlage dieser Daten Vorhersagen zu treffen. Ein Beispiel für die Vorteile von KI ist der sogenannte Payroll Diversion Scam. Diese Art von BEC-Angriffen (Business Email Compromise) wird unter Cyberkriminellen immer beliebter und entzieht sich systematisch der Erkennung durch E-Mail-Security-Systeme. So hat sich im vergangenen Oktober beispielsweise gezeigt, dass mehr als 400 Bedrohungen, die den Payroll-Diversion-Betrug einsetzten, zwölf E-Mail-Sicherheitstools entgangen sind2.
Derlei Angriffe sind schwer zu erkennen, weil sie in der Regel keine Payloads wie Links oder Anhänge enthalten. Darüber hinaus scannen herkömmliche API-basierte E-Mail-Sicherheitslösungen die Bedrohungen im Anschluss an die Zustellung, sodass IT- oder Sicherheitsteams viel Zeit aufwenden müssen, um das Tool mit Daten zu füttern. Weil sich dieser Ansatz nicht gut skalieren lässt, entscheiden sich viele Teams stattdessen dafür, diese Kontrollen nur für eine ausgewählte Mitarbeitergruppe – zum Beispiel Führungskräfte – zu implementieren. Die Cyberkriminellen haben es jedoch auf viel mehr potenzielle Opfer innerhalb des Unternehmens abgesehen.
KI- beziehungsweise ML-basierte Tools, einschließlich generativer KI (GenAI), bieten hier einen enormen Vorteil. KI/ML-basierte Bedrohungserkennung kann zusammen mit LLM-basierter Erkennung vor der Zustellung angewendet werden, um den kontextuellen Ton und die Absicht einer E-Mail zu interpretieren. Dieser Ansatz schützt Unternehmen, indem er betrügerische und bösartige E-Mails blockiert, bevor sie die Postfächer der Mitarbeiter erreichen. Dies minimiert deren Gefährdung durch Bedrohungen wie BEC erheblich.
Um gut zu funktionieren, benötigen KI- und ML-Lösungen große Mengen qualitativ hochwertiger Daten, weil die Modelle aus Mustern und Beispielen und nicht aus Regeln lernen. Proofpoint zum Beispiel trainiert seine Modelle tagtäglich mit Millionen von E-Mails aus einem globalen Threat Intelligence Ecosystem.
Bevor sich Security-Verantwortliche also für neue KI- und ML-Lösungen entscheiden, sollten sie den Anbietern Fragen wie diese stellen:
Bevor sich Interessierte in diese Details vertiefen, sollten sie prüfen, ob KI für die eigenen, spezifischen Herausforderungen die optimale Lösung ist. KI-Modelle sind komplex sowie rechenintensiv und benötigen unter Umständen mehr Zeit für die Ausführung als weniger komplexe Systeme. Manchmal sind regelbasierte Techniken effektiver, insbesondere wenn eine schnelle Reaktion entscheidend ist. Die Verantwortlichen in den Unternehmen müssen sich im Klaren darüber sein, welches Security-Ziel sie erreichen wollen und welche Methode am besten geeignet ist, um das Problem anzugehen.
Viele Sicherheitsanbieter haben KI bereits seit Jahren still und heimlich in ihre Pakete integriert, aber es ist zu erwarten, dass die Aktivitäten rund um GenAI mit der Zeit sichtbarer werden, schon weil GenAI den Hype Cycle viel schneller durchläuft4 als jede andere Technologie zuvor. Sogar staatliche Stellen, die für gewöhnlich langsam sind, haben bereits reagiert. Ein Beispiel dafür ist eine Executive Order des US-Präsidenten5, die sich mit den Risiken dieser schnell wachsenden Technologie befasst.
Während weltweit Security-Verantwortliche versuchen, die Auswirkungen von KI zu erfassen, darf eines nicht vergessen werden: Auch böswillige Akteure können sie zu ihrem Vorteil nutzen. Diese Technologie ist somit ein zweischneidiges Schwert.
Insbesondere GenAI hat sich zur am schnellsten wachsenden Herausforderung für Unternehmen entwickelt. Daten zeigen, dass IT- und Sicherheitsteams diese Bedrohung ernst nehmen. Und die Unternehmensführungen sehen das genauso. In einer weltweiten Umfrage6, die Proofpoint letztes Jahr unter mehr als 600 Vorstandsmitgliedern durchführte, waren 59 Prozent der Meinung, dass aufkommende Technologien wie GenAI ein Sicherheitsrisiko für ihr Unternehmen darstellen. Cyberkriminelle missbrauchen diese Technologie bereits und verwenden Open-Source-Sprachmodelle, um bösartige Tools wie WormGPT, FraudGPT und DarkBERT7 zu entwickeln. Diese Tools ermöglichen es den Angreifern, viel bessere Phishing-E-Mails zu erstellen und sie in viel mehr Sprachen zu übersetzen.
Es besteht kein Zweifel daran, dass die generative KI den Hintermännern von Cyberattacken neue Möglichkeiten eröffnet. Viele Befürchtungen sind jedoch übertrieben, zumindest zum jetzigen Zeitpunkt. Die Angreifer werden ihre bestehenden Taktiken nicht aufgeben oder das Rad neu erfinden, solange ihre derzeitigen Modelle lukrativ bleiben. Die Verteidiger müssen sich daher auf die unmittelbaren Bedrohungen konzentrieren und sicherstellen, dass sie über grundlegende Schutzmaßnahmen verfügen.
1 https://www.proofpoint.com/au/blog/ciso-perspectives/proofpoints-2024-predictions-brace-impact
2 https://www.proofpoint.com/us/blog/email-and-cloud-threats/using-behavioral-ai-to-quash-payroll-diversion
3 https://en.wikipedia.org/wiki/Human-in-the-loop
4 https://www.gartner.de/de/artikel/neues-aus-dem-gartner-hype-cycle-2023-zum-thema-ki
5 https://www.forbes.com/sites/roberthart/2023/10/30/white-house-unveils-sweeping-ai-strategy-as-biden-pushes-for-transparency-and-safety/?sh=7341c1135df0
6 https://www.proofpoint.com/us/newsroom/press-releases/proofpoints-second-annual-board-perspective-report-reveals-nearly-three-five
7 https://securityboulevard.com/2023/08/after-wormgpt-and-fraudgpt-darkbert-and-darkbart-are-on-the-horizon/