Nicht nur Menschen können halluzinieren, sondern auch generative Sprachmodelle wie beispielsweise ChatGPT. Was eine KI-Halluzination ist, wodurch sie entsteht und wie sie verhindert werden kann.
Von einer KI-Halluzination spricht man, wenn ein großes generatives Sprachmodell (Large Language Model; LLM) falsche Informationen oder Fakten erzeugt, die nicht der Realität entsprechen. Dabei erscheinen die Halluzinationen – zumindest auf den ersten Blick – oft plausibel, da flüssige, kohärente Texte generiert werden.
Wenn LLMs lügen, tun sie das allerdings nicht bewusst, sie haben schlichtweg kein Bewusstsein für die erstellten Texte.
Die technischen Gründe für KI-Halluzinationen können vielfältig sein. Einige Beispiele:
So ist es möglich, dass LLMs auch Halluzinationen erzeugen, obwohl sie auf konsistente und zuverlässige Datensätze zurückgreifen. Die Eindämmung von Halluzinationen zählt damit zu den grundsätzlichen Herausforderungen für KI-Anwender und Entwickler. Denn LLMs stellen in der Regel eine Blackbox dar, was es mitunter schwierig machen kann zu ermitteln, warum eine bestimmte Halluzination erzeugt wurde.
Was sind Arten von KI-Halluzinationen?
Der Begriff der KI-Halluzinationen umfasst ein breites Spektrum: Von kleineren Ungereimtheiten bis hin zu frei erfundenen Informationen. Arten von KI-Halluzinationen sind unter anderem:
Welche Gefahren entstehen durch KI-Halluzinationen?
Verlassen sich Nutzer zu sehr auf die Ergebnisse eines KI-Systems, weil diese sehr überzeugend und zuverlässig aussehen, kann es passieren, dass sie die Falschinformationen nicht nur selbst glauben, sondern auch weiterverbreiten. Für Unternehmen, die LLM-gestützte Dienste im Rahmen der Kundenkommunikation einsetzen, besteht zudem potenziell die Gefahr, dass Kunden mit unwahren Informationen versorgt werden. Das wiederum kann sich negativ auf den Ruf des Unternehmens auswirken.
Wie erkenne ich KI-Halluzinationen?
Der einfachste Weg, eine KI-Halluzination zu erkennen beziehungsweise zu enttarnen, besteht darin, die ausgegebenen Informationen sorgfältig auf ihre Korrektheit hin zu überprüfen. Als Nutzer einer generativen KI sollte man demnach stets im Hinterkopf behalten, dass auch diese Fehler machen kann und nach dem „Vier-Augen-Prinzip“ aus KI und Mensch vorgehen.
Wie können KI-Halluzinationen verhindert werden?
Um KI-Halluzinationen und anderen Herausforderungen von KI-Systemen entgegenzuwirken, sind entsprechende Prüfungen durch unabhängige Dritte empfehlenswert. So können Schwachstellen im besten Falle bereits identifiziert und behoben werden, bevor Anwendungen offiziell zum Einsatz kommen.