Bedrohungslandschaft im Wandel

Neue Risiken durch KI

15. Juni 2023, 7:00 Uhr | Frank Thias/wg

Fortsetzung des Artikels von Teil 1

KI-Technik zur Abwehr nutzen

Mit dem Aufkommen KI-gestützter Angriffe erreichen aber selbst solche umfassenden Lösungen ihre Grenzen, da sich bösartige und automatisierte Angriffe immer schwerer von legitimen menschlichen Aktivitäten unterscheiden lassen. Entsprechend müssen auch die Security-Lösungen KI-Technik integrieren und zur Abwehr nutzen. Denn jede zentrale Lösung zur Datenerfassung und -analyse steht vor der Herausforderung, aus sehr vielen Daten die richtigen Informationen zu gewinnen. Jegliche Software, die die riesigen Datenmengen intelligent vorfiltert und eine erste Einschätzung gibt, trägt erheblich zum Erfolg der gesamten Sicherheitsarchitektur bei. Zum Beispiel lassen sich KI-basierte Systeme zur Erkennung und Abwehr von Phishing-Angriffen einsetzen. Im Vergleich zu herkömmlichen E-Mail-Filtern unterscheiden sie besser zwischen automatisch und manuell erstellten Texten.

Beim Einsatz von AIaaS-Lösungen reichen dazu sogar grundlegende KI-Kenntnisse und wenig Ressourcen aus. AIaaS kann umgekehrt auch überzeugende Phishing-Mails erstellen, um die Durchführung von Red-Team-Tests zu verbessern: KI personalisiert die Inhalte automatisch auf Basis der Persönlichkeit und des Hintergrunds der Zielperson. Dies gelingt oft besser als manuell durch die Tester. Diese können sich dann auf höherwertige Aufgaben konzentrieren, darunter den Testaufbau und die Auswertung der Ergebnisse. Regelmäßige Penetration-Tests sind ebenso wichtig wie die Verbesserung von Erkennungs- und Abwehrtechniken und ein umfassender Sicherheitsansatz. Nicht zuletzt können aber auch bestehende Security-Tools wie fortschrittliche WAFs (Web Application Firewalls) helfen, KI-basierte Angriffe abzuwehren.

Eine vermeintlich schnelle Lösung wäre das Sperren von ChatGPT durch staatliche Stellen, so wie es derzeit Italien versucht. Die Begründung sind hier nicht Security-Bedenken, sondern mangelnder Daten- und Jugendschutz. Doch aus technischer Sicht bringen solche Verbote ­wenig. Denn erstens werden KI-Dienste nicht in allen Ländern blockiert; zweitens gibt es genügend – oft noch weniger ­kontrollierbare – Alternativen; und drittens finden Angreifer immer einen Weg, KI zu verwenden. Schlimmstenfalls sind solche Verbote aus Security-Sicht sogar kontraproduktiv.  Wenn Sicherheitsexperten die KI nicht zur Datenanalyse und Korrelation einsetzen dürfen, erhöht sich das Risiko für Nutzer und Unternehmen. Gleiches gilt für das von einigen IT-­Experten geforderte Moratorium für das Training von KI: Es könnte Cyberkriminellen einen enormen Wissensvorsprung geben, da sie weiterhin KI für ihre
Zwecke einsetzen werden.

Frank Thias ist Principal Solutions Engineer bei F5.

Anbieter zum Thema

zu Matchmaker+

  1. Neue Risiken durch KI
  2. KI-Technik zur Abwehr nutzen

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu F5 Networks GmbH

Weitere Artikel zu Bedrohungserkennung

Weitere Artikel zu HUMAX-Digital GmbH

Weitere Artikel zu Swissphone Telecommunications

Weitere Artikel zu InFocus GmbH

Matchmaker+