Betrug, Desinformation, Schadsoftware

Europol warnt vor kriminellen Use Cases von ChatGPT

28. März 2023, 16:27 Uhr | Lukas Steiglechner
© AVC Photo Studio / AdobeStock

Da das KI-Tool ChatGPT immer mehr an Beliebtheit gewinnt, hat die europäische Polizeibehörde Europol untersucht, welche Gefahren von solchen Systemen ausgehen können. Die Experten sehen die Potenziale für Kriminelle unter anderem beim Phishing und bei der Erstellung von schädlichem Code.

Die europäische Polizeibehörde Europol warnt vor den Gefahren, die Large Language Models (LLM) wie ChatGPT des Entwicklers OpenAI bieten können. Deshalb hat das Europol Innovation Lab mehrere Workshops organisiert, um zu ergründen, wie Kriminelle LLMs ausnutzen können und die Ermittler mit diesen Tools umgehen können. Die Erkenntnisse der Workshops hat Europol im Bericht „ChatGPT – the impact of Large Language Models on Law Enforcement“ zusammengetragen. Ziel des Berichts ist es, Aufmerksamkeit für das Thema zu generieren und auch den Dialog mit KI-Unternehmen herzustellen, um vertrauenswürdige Systeme zu entwickeln.

Ein LLM ist eine bestimmte Art von KI-System, das Text generieren, verarbeiten und manipulieren kann. Das Training einer solche KI benötigt sehr große Datenmengen, damit sie Muster und Verbindungen zwischen den Wörtern erlernt und anschließend neue Inhalte erstellen kann.

Die Experten von Europol sehen mit der stetigen Weiterentwicklung von LLMs wie ChatGPT drei Bereiche, in denen die Tools von Kriminellen genutzt werden könnten:

  • Betrug und Social Engineering: Da ChatGPT in der Lage ist, sehr realistische Texte zu generieren, kann ein nützliches Tool für Phishing-Angriffe werden. Denn ein LLM kann Sprachmuster imitieren und auch Sprachstile bestimmter Individuen oder Gruppen nachahmen. Das erhöht die Glaubwürdigkeit von Phishing-Versuchen.
  • Desinformation: ChatGPT kann nicht nur sehr authentische Texte erstellen, sondern tut dies sehr schnell und in großem Umfang. Dadurch eignet es sich für Propaganda- und Desinformations-Kampagnen, da es schnell und ohne großen Aufwand ein bestimmtes Narrativ verbreiten kann.
  • Schadsoftware: Nicht nur Text lässt sich mittels ChatGPT generieren. Das Tool ist auch in der Lage, Code zu produzieren – in mehreren Programmiersprachen. Für Cyberkriminelle könnte hier eine Möglichkeit entstehen, eigene Schadsoftware zu erstellen, ohne viel technisches Verständnis zu besitzen.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu OpenAI

Weitere Artikel zu Kommunikation

Matchmaker+