TÜV IT warnt

Hilfe, meine KI ʇɹǝıuıznןןɐɥ!

14. November 2024, 17:30 Uhr | Andrea Fellmeth
© TÜV IT

Nicht nur Menschen können halluzinieren, sondern auch generative Sprachmodelle wie beispielsweise ChatGPT. Was eine KI-Halluzination ist, wodurch sie entsteht und wie sie verhindert werden kann.

Von einer KI-Halluzination spricht man, wenn ein großes generatives Sprachmodell (Large Language Model; LLM) falsche Informationen oder Fakten erzeugt, die nicht der Realität entsprechen. Dabei erscheinen die Halluzinationen – zumindest auf den ersten Blick – oft plausibel, da flüssige, kohärente Texte generiert werden.
Wenn LLMs lügen, tun sie das allerdings nicht bewusst, sie haben schlichtweg kein Bewusstsein für die erstellten Texte.

Die technischen Gründe für KI-Halluzinationen können vielfältig sein. Einige Beispiele:

  • Veraltete, schlechte oder widersprüchliche Trainingsdaten, auf die sich das LLM stützt
  • Falsche Klassifizierung von Daten
  • Fehlender Kontext beziehungsweise unklare oder inkonsistente Benutzereingaben
  • Schwierigkeiten bei der Erkennung von Umgangssprache, Sarkasmus, etc.
  • Unzureichende Trainings- und Generierungsmethoden oder Programmierung

So ist es möglich, dass LLMs auch Halluzinationen erzeugen, obwohl sie auf konsistente und zuverlässige Datensätze zurückgreifen. Die Eindämmung von Halluzinationen zählt damit zu den grundsätzlichen Herausforderungen für KI-Anwender und Entwickler. Denn LLMs stellen in der Regel eine Blackbox dar, was es mitunter schwierig machen kann zu ermitteln, warum eine bestimmte Halluzination erzeugt wurde.

Was sind Arten von KI-Halluzinationen?

Der Begriff der KI-Halluzinationen umfasst ein breites Spektrum: Von kleineren Ungereimtheiten bis hin zu frei erfundenen Informationen. Arten von KI-Halluzinationen sind unter anderem:

  • Satzwidersprüche: Generierte Sätze stehen im Widerspruch zu vorherigen Sätzen beziehungsweise Teilen der erzeugten Antwort.
  • Widersprüche zur Eingabeaufforderung: Die generierte Antwort oder Teile davon stimmen nicht mit der Eingabeaufforderung durch den Nutzer bzw. die Nutzerin überein.
  • Faktische Widersprüche: Eine durch das LLM erfundene Information wird als Tatsache verkauft.
  • Zufällige Halluzinationen: Das LLM erzeugt zufällige Informationen, die nichts mit der eigentlichen Eingabeaufforderung zu tun haben.

Welche Gefahren entstehen durch KI-Halluzinationen?

Verlassen sich Nutzer zu sehr auf die Ergebnisse eines KI-Systems, weil diese sehr überzeugend und zuverlässig aussehen, kann es passieren, dass sie die Falschinformationen nicht nur selbst glauben, sondern auch weiterverbreiten. Für Unternehmen, die LLM-gestützte Dienste im Rahmen der Kundenkommunikation einsetzen, besteht zudem potenziell die Gefahr, dass Kunden mit unwahren Informationen versorgt werden. Das wiederum kann sich negativ auf den Ruf des Unternehmens auswirken.

Wie erkenne ich KI-Halluzinationen?

Der einfachste Weg, eine KI-Halluzination zu erkennen beziehungsweise zu enttarnen, besteht darin, die ausgegebenen Informationen sorgfältig auf ihre Korrektheit hin zu überprüfen. Als Nutzer einer generativen KI sollte man demnach stets im Hinterkopf behalten, dass auch diese Fehler machen kann und nach dem „Vier-Augen-Prinzip“ aus KI und Mensch vorgehen.

Wie können KI-Halluzinationen verhindert werden?

Um KI-Halluzinationen und anderen Herausforderungen von KI-Systemen entgegenzuwirken, sind entsprechende Prüfungen durch unabhängige Dritte empfehlenswert. So können Schwachstellen im besten Falle bereits identifiziert und behoben werden, bevor Anwendungen offiziell zum Einsatz kommen.

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu TÜV Informationstechnik GmbH

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Matchmaker+