Künstliche Intelligenz

Zweischneidiges Schwert der Cybersicherheit

10. Mai 2024, 13:00 Uhr | Autor: Daniel Rapp / Redaktion: Diana Künstler
Künstliche Intelligenz ist vielen insbesondere in Form von Large Language Models (LLMs) und Systemen wie ChatGPT ein Begriff. Sowohl für Cyberkriminelle als auch in der Cyberabwehr ist KI ein gängiges Tool.
© Bo Dean – stock.adobe.com

Künstliche Intelligenz sorgt für Aufsehen. Ihre Entwicklung verläuft so rasant, dass der Höhepunkt der „überzogenen Erwartungen“ an generative KI bereits überschritten ist. Zeit für Security-Verantwortliche, sich auf die realistischen Anwendungsfälle von KI zu konzentrieren.

Der Artikel beantwortet unter anderem folgende Fragen:

  • Was ist der Einsatz von Künstlicher Intelligenz (KI) in der Cybersicherheit?
  • Welche Vorteile bietet KI-basierte Cyberverteidigung?
  • Woher stammen die Trainingsdaten für KI-Algorithmen in der Cybersicherheit?
  • Wie können Sicherheitsverantwortliche die Qualität von KI-basierten Lösungen beurteilen?
  • Welche Herausforderungen stellt Generative KI (GenAI) dar?
  • Was sind Beispiele für von Cyberkriminellen genutzte KI-basierte Tools?
  • Was können Unternehmen tun, um sich gegen die Bedrohung durch KI-gestützte Cyberangriffe zu verteidigen?

Viele Sicherheitsanbieter integrieren bereits seit Jahren Künstliche Intelligenz (KI), insbesondere maschinelles Lernen (ML), in ihre Lösungen, um deren Effizienz zu verbessern und ihre Fähigkeiten zu erweitern. KI birgt ein enormes Potenzial, um die Sicherheit von Unternehmen zu verbessern und es den Verteidigern zu ermöglichen, Bedrohungen einen Schritt voraus zu sein. Allerdings sind KI/ML-basierte Funktionen nur so gut wie die Daten und Prozesse, mit denen die Modelle trainiert werden. Dies schließt auch die Größe und Qualität der Datensätze, die Überwachung von Änderungen in der Datenverteilung und vieles mehr ein. Die Komplexität der Technologie sorgt für zusätzliche Hürden und Einschränkungen. Obwohl KI also in der Lage ist, den Menschen bei einigen komplexen Aufgaben zu übertreffen, ist sie nicht immer der effizienteste Ansatz.

Generell lässt sich feststellen, dass KI keine Patentlösung für jedes Sicherheitsproblem ist. Wer die eigene Cyberabwehr verbessern möchte, sollte die Bandbreite der KI-Anwendungsfälle1 berücksichtigen und Sicherheitsanbietern detaillierte Fragen stellen, um zu verstehen, welche Anwendungsfälle und Lösungen für das eigene Unternehmen am besten geeignet sind.

Anbieter zum Thema

zu Matchmaker+

Versprechen und Möglichkeiten KI-basierter Cyberverteidigung

KI-Systeme sind besonders gut darin, Muster in riesigen Datenmengen zu erkennen und auf Grundlage dieser Daten Vorhersagen zu treffen. Ein Beispiel für die Vorteile von KI ist der sogenannte Payroll Diversion Scam. Diese Art von BEC-Angriffen (Business Email Compromise) wird unter Cyberkriminellen immer beliebter und entzieht sich systematisch der Erkennung durch E-Mail-Security-Systeme. So hat sich im vergangenen Oktober beispielsweise gezeigt, dass mehr als 400 Bedrohungen, die den Payroll-Diversion-Betrug einsetzten, zwölf E-Mail-Sicherheitstools entgangen sind2.

Derlei Angriffe sind schwer zu erkennen, weil sie in der Regel keine Payloads wie Links oder Anhänge enthalten. Darüber hinaus scannen herkömmliche API-basierte E-Mail-Sicherheitslösungen die Bedrohungen im Anschluss an die Zustellung, sodass IT- oder Sicherheitsteams viel Zeit aufwenden müssen, um das Tool mit Daten zu füttern. Weil sich dieser Ansatz nicht gut skalieren lässt, entscheiden sich viele Teams stattdessen dafür, diese Kontrollen nur für eine ausgewählte Mitarbeitergruppe – zum Beispiel Führungskräfte – zu implementieren. Die Cyberkriminellen haben es jedoch auf viel mehr potenzielle Opfer innerhalb des Unternehmens abgesehen.

KI- beziehungsweise ML-basierte Tools, einschließlich generativer KI (GenAI), bieten hier einen enormen Vorteil. KI/ML-basierte Bedrohungserkennung kann zusammen mit LLM-basierter Erkennung vor der Zustellung angewendet werden, um den kontextuellen Ton und die Absicht einer E-Mail zu interpretieren. Dieser Ansatz schützt Unternehmen, indem er betrügerische und bösartige E-Mails blockiert, bevor sie die Postfächer der Mitarbeiter erreichen. Dies minimiert deren Gefährdung durch Bedrohungen wie BEC erheblich.

Nicht alle KI-basierten Tools sind gleich

Um gut zu funktionieren, benötigen KI- und ML-Lösungen große Mengen qualitativ hochwertiger Daten, weil die Modelle aus Mustern und Beispielen und nicht aus Regeln lernen. Proofpoint zum Beispiel trainiert seine Modelle tagtäglich mit Millionen von E-Mails aus einem globalen Threat Intelligence Ecosystem.

Bevor sich Security-Verantwortliche also für neue KI- und ML-Lösungen entscheiden, sollten sie den Anbietern Fragen wie diese stellen:

  • Woher kommen die Daten für das Training der Algorithmen? Während Daten für allgemeine KI-Anwendungen leicht zu beschaffen sind, sind Daten für die Bedrohungsanalyse nicht so einfach zu finden. Die vom Anbieter verwendeten Trainingsdaten sollten nicht nur reale Szenarien widerspiegeln, sondern auch Bedrohungen, die für ein Unternehmen und dessen Mitarbeiter spezifisch sind.
  • Was wird im Erkennungs-Stack eingesetzt, um KI/ML zu ergänzen? Intelligente Technologien sind bei bestimmten Arten von Bedrohungen nicht so effizient, effektiv oder zuverlässig. Es ist wichtig, dass eine Sicherheitslösung andere Techniken wie Regeln und Signaturen oder „Human-in-the-Loop“-Prozesse3 integriert.

Bevor sich Interessierte in diese Details vertiefen, sollten sie prüfen, ob KI für die eigenen, spezifischen Herausforderungen die optimale Lösung ist. KI-Modelle sind komplex sowie rechenintensiv und benötigen unter Umständen mehr Zeit für die Ausführung als weniger komplexe Systeme. Manchmal sind regelbasierte Techniken effektiver, insbesondere wenn eine schnelle Reaktion entscheidend ist. Die Verantwortlichen in den Unternehmen müssen sich im Klaren darüber sein, welches Security-Ziel sie erreichen wollen und welche Methode am besten geeignet ist, um das Problem anzugehen.

Die Entscheidung über GenAI ist noch nicht gefallen

Daniel Rapp, Proofpoint
Daniel Rapp, Group Vice President, AI/ML bei Proofpoint
© Proofpoint

Viele Sicherheitsanbieter haben KI bereits seit Jahren still und heimlich in ihre Pakete integriert, aber es ist zu erwarten, dass die Aktivitäten rund um GenAI mit der Zeit sichtbarer werden, schon weil GenAI den Hype Cycle viel schneller durchläuft4 als jede andere Technologie zuvor. Sogar staatliche Stellen, die für gewöhnlich langsam sind, haben bereits reagiert. Ein Beispiel dafür ist eine Executive Order des US-Präsidenten5, die sich mit den Risiken dieser schnell wachsenden Technologie befasst.

Während weltweit Security-Verantwortliche versuchen, die Auswirkungen von KI zu erfassen, darf eines nicht vergessen werden: Auch böswillige Akteure können sie zu ihrem Vorteil nutzen. Diese Technologie ist somit ein zweischneidiges Schwert.

Insbesondere GenAI hat sich zur am schnellsten wachsenden Herausforderung für Unternehmen entwickelt. Daten zeigen, dass IT- und Sicherheitsteams diese Bedrohung ernst nehmen. Und die Unternehmensführungen sehen das genauso. In einer weltweiten Umfrage6, die Proofpoint letztes Jahr unter mehr als 600 Vorstandsmitgliedern durchführte, waren 59 Prozent der Meinung, dass aufkommende Technologien wie GenAI ein Sicherheitsrisiko für ihr Unternehmen darstellen. Cyberkriminelle missbrauchen diese Technologie bereits und verwenden Open-Source-Sprachmodelle, um bösartige Tools wie WormGPT, FraudGPT und DarkBERT7 zu entwickeln. Diese Tools ermöglichen es den Angreifern, viel bessere Phishing-E-Mails zu erstellen und sie in viel mehr Sprachen zu übersetzen.

Es besteht kein Zweifel daran, dass die generative KI den Hintermännern von Cyberattacken neue Möglichkeiten eröffnet. Viele Befürchtungen sind jedoch übertrieben, zumindest zum jetzigen Zeitpunkt. Die Angreifer werden ihre bestehenden Taktiken nicht aufgeben oder das Rad neu erfinden, solange ihre derzeitigen Modelle lukrativ bleiben. Die Verteidiger müssen sich daher auf die unmittelbaren Bedrohungen konzentrieren und sicherstellen, dass sie über grundlegende Schutzmaßnahmen verfügen.

1 https://www.proofpoint.com/au/blog/ciso-perspectives/proofpoints-2024-predictions-brace-impact
2 https://www.proofpoint.com/us/blog/email-and-cloud-threats/using-behavioral-ai-to-quash-payroll-diversion
3 https://en.wikipedia.org/wiki/Human-in-the-loop
4 https://www.gartner.de/de/artikel/neues-aus-dem-gartner-hype-cycle-2023-zum-thema-ki
5 https://www.forbes.com/sites/roberthart/2023/10/30/white-house-unveils-sweeping-ai-strategy-as-biden-pushes-for-transparency-and-safety/?sh=7341c1135df0
6 https://www.proofpoint.com/us/newsroom/press-releases/proofpoints-second-annual-board-perspective-report-reveals-nearly-three-five
7 https://securityboulevard.com/2023/08/after-wormgpt-and-fraudgpt-darkbert-and-darkbart-are-on-the-horizon/


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Proofpoint

Weitere Artikel zu Proofpoint

Weitere Artikel zu Cyber-Security

Weitere Artikel zu Safety und Security

Weitere Artikel zu Security-Service-Provider

Weitere Artikel zu Industrial-/OT-Security

Weitere Artikel zu Security-Hardware

Weitere Artikel zu Security-Software

Weitere Artikel zu Cyber-Security-Lösungen

Weitere Artikel zu Managed Security

Weitere Artikel zu Security-Management

Weitere Artikel zu Security-Services

Weitere Artikel zu Cybersecurity/Cybersicherheit

Weitere Artikel zu IoT-Security

Weitere Artikel zu Mobile Security

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Matchmaker+