Cyberkriminelle nutzen Künstliche Intelligenz (KI) in Form von Large Language Models (LLMs) für ihre schädlichen Zwecke. Die meisten von Kaspersky beobachteten Phishing-Beispiele zielen auf Nutzer von Kryptowährungsbörsen und -Wallets ab.
Experten des Kaspersky AI Research Centers haben zudem Anzeichen identifiziert, die für KI-generiertes Phishing sprechen. So weisen mit KI-erstellte Phishing-Webseiten oft bestimmte Merkmale auf, die sie von manuell erstellten Seiten unterscheiden lassen:
Mit dem Einsatz von Large Language Models (LLMs) können Cyberkriminelle nicht nur Textinhalte generieren, sondern auch ganze Webseiten automatisiert erstellen, einschließlich der Meta-Tags, die in Suchmaschinen angezeigt werden. Diese Meta-Tags enthalten oft Spuren der KI-Nutzung.
Zudem verschleiern manche Seiten ihre Absichten durch nicht-standardisierte Unicode-Zeichen, um automatisierte Schutzsysteme zu umgehen; dies macht es für Sicherheitslösungen komplizierter, solche Seiten als schädlich zu identifizieren.
Vladislav Tushkanov, Research Development Group Manager bei Kaspersky, kommentiert: „Large Language Models werden immer besser, Cyberkriminelle nutzen diese zunehmend für ihre kriminellen Aktivitäten. Zwar lassen sich durch gelegentliche Fehler Hinweise auf die Nutzung solcher Tools erkennen, vor allem auf das steigende Maß an Automatisierung. Mit weiteren Fortschritten könnte es jedoch zunehmend schwerer werden, KI-generierte Inhalte von menschlich verfassten Texten zu unterscheiden. Deshalb ist es umso wichtiger, auf fortschrittliche Sicherheitslösungen zu setzen, die nicht nur Textinhalte, sondern auch Metadaten und andere Betrugsindikatoren analysieren.“