Cyberkriminelle nutzen zunehmend KI

Kaspersky: Phishing auf KI-Basis nimmt zu

5. November 2024, 7:00 Uhr | Jörg Schröper
© Kaspersky

Cyberkriminelle nutzen Künstliche Intelligenz (KI) in Form von Large Language Models (LLMs) für ihre schädlichen Zwecke. Die meisten von Kaspersky beobachteten Phishing-Beispiele zielen auf Nutzer von Kryptowährungsbörsen und -Wallets ab.

Experten des Kaspersky AI Research Centers haben zudem Anzeichen identifiziert, die für KI-generiertes Phishing sprechen. So weisen mit KI-erstellte Phishing-Webseiten oft bestimmte Merkmale auf, die sie von manuell erstellten Seiten unterscheiden lassen:

  • Typische KI-bezogene Disclaimer und Verweigerungen, bestimmte Befehle auszuführen, wie „Als KI-Sprachmodell…“,
  • Aussagen über Wissensgrenzen des Modells wie „Ich kann zwar nicht genau das machen, was Sie wollen, aber ich kann etwas Ähnliches versuchen“ oder „Stand meiner Informationen ist Januar 2023“,
  • spezifische Phrasen wie „in der sich immer wandelnden Landschaft“ oder „in der sich ständig verändernden Welt“ gelten als potenzielle Anzeichen für den Einsatz eines Sprachmodells zur Textgenerierung, und
  • nicht-lateinische Buchstaben, die diese imitieren, wie beispielsweise ein „m”, das mit einem Haken unten als ɱ aus dem Internationalen Phonetischen Alphabet (IPA) wiedergegeben wird.

Mit dem Einsatz von Large Language Models (LLMs) können Cyberkriminelle nicht nur Textinhalte generieren, sondern auch ganze Webseiten automatisiert erstellen, einschließlich der Meta-Tags, die in Suchmaschinen angezeigt werden. Diese Meta-Tags enthalten oft Spuren der KI-Nutzung.

Zudem verschleiern manche Seiten ihre Absichten durch nicht-standardisierte Unicode-Zeichen, um automatisierte Schutzsysteme zu umgehen; dies macht es für Sicherheitslösungen komplizierter, solche Seiten als schädlich zu identifizieren.

Vladislav Tushkanov, Research Development Group Manager bei Kaspersky, kommentiert: „Large Language Models werden immer besser, Cyberkriminelle nutzen diese zunehmend für ihre kriminellen Aktivitäten. Zwar lassen sich durch gelegentliche Fehler Hinweise auf die Nutzung solcher Tools erkennen, vor allem auf das steigende Maß an Automatisierung. Mit weiteren Fortschritten könnte es jedoch zunehmend schwerer werden, KI-generierte Inhalte von menschlich verfassten Texten zu unterscheiden. Deshalb ist es umso wichtiger, auf fortschrittliche Sicherheitslösungen zu setzen, die nicht nur Textinhalte, sondern auch Metadaten und andere Betrugsindikatoren analysieren.“
 

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Kaspersky

Weitere Artikel zu Kaspersky

Weitere Artikel zu Kaspersky Lab GmbH

Weitere Artikel zu Kaspersky Labs GmbH

Weitere Artikel zu Cybercrime

Weitere Artikel zu Cyber-Security-Lösungen

Weitere Artikel zu Cybersecurity/Cybersicherheit

Weitere Artikel zu Cyber-Security

Matchmaker+