Da das KI-Tool ChatGPT immer mehr an Beliebtheit gewinnt, hat die europäische Polizeibehörde Europol untersucht, welche Gefahren von solchen Systemen ausgehen können. Die Experten sehen die Potenziale für Kriminelle unter anderem beim Phishing und bei der Erstellung von schädlichem Code.
Die europäische Polizeibehörde Europol warnt vor den Gefahren, die Large Language Models (LLM) wie ChatGPT des Entwicklers OpenAI bieten können. Deshalb hat das Europol Innovation Lab mehrere Workshops organisiert, um zu ergründen, wie Kriminelle LLMs ausnutzen können und die Ermittler mit diesen Tools umgehen können. Die Erkenntnisse der Workshops hat Europol im Bericht „ChatGPT – the impact of Large Language Models on Law Enforcement“ zusammengetragen. Ziel des Berichts ist es, Aufmerksamkeit für das Thema zu generieren und auch den Dialog mit KI-Unternehmen herzustellen, um vertrauenswürdige Systeme zu entwickeln.
Ein LLM ist eine bestimmte Art von KI-System, das Text generieren, verarbeiten und manipulieren kann. Das Training einer solche KI benötigt sehr große Datenmengen, damit sie Muster und Verbindungen zwischen den Wörtern erlernt und anschließend neue Inhalte erstellen kann.
Die Experten von Europol sehen mit der stetigen Weiterentwicklung von LLMs wie ChatGPT drei Bereiche, in denen die Tools von Kriminellen genutzt werden könnten: