Mit der Nutzung der generativen KI geht ein weit verbreitetes Problem einher: Ein Chatbot liefert falsche oder keine aktuellen Antworten. Abhilfe verspricht der Einsatz einer RAG-Technologie und -Architektur, die in einer Wissensdatenbank zusätzliche Informationen und Daten bereitstellt.
Immer mehr Unternehmen setzen auf KI-Anwendungen. Die sukzessive Weiterentwicklung der generativen KI hat die Einsatzmöglichkeiten erhöht und vor allem auch die Qualität der Ergebnisse signifikant verbessert. Large Language Models (LLMs) wie ChatGPT sind heute äußerst leistungsfähig, da sie mit großen Datenmengen trainiert sind, die ein breites Spektrum an Allgemeinwissen abdecken. Allerdings weisen LLMs auch deutliche Limitierungen auf. Wenn ein LLM beispielsweise aufgefordert wird, eine Antwort zu generieren, die ein nicht oder selten in den Trainingsdaten enthaltenes Wissen erfordert, kommt es zu ungenauen Aussagen. Das Ergebnis können dann auch objektiv falsche KI-Antworten sein, sogenannte Halluzinationen, oder auch veraltete Informationen. Zudem besteht oft keine Transparenz hinsichtlich der Quellen, die ein LLM für seine Antworten nutzt.
Unternehmen können diese Limitierungen aber überwinden und das Wissensdefizit von LLMs beseitigen, und zwar unter Nutzung des Verfahrens Retrieval-Augmented Generation (RAG). Es stellt den LLMs zusätzliche Informationen aus weiteren Wissensquellen zur Verfügung, etwa aktuelle Echtzeitdaten, proprietäre oder domänenspezifische Daten.
Das Grundprinzip von RAG besteht also darin, abfragebasierte Techniken mit generativen KI-Modellen zu integrieren. Das heißt, in Ergänzung zum Wissen des KI-Modells werden Daten aus zusätzlichen Wissensdatenbanken abgerufen. Das Ergebnis sind genauere, relevantere und kontextbezogene Antworten, die zum Beispiel auch die Gefahr von Halluzinationen reduzieren.
Beim Aufbau von RAG-Modellen werden meistens Vektordatenbanken genutzt, in denen die in Vektoren konvertierten Daten gespeichert sind. Eine Vektordatenbank fungiert gewissermaßen als „lebendes Objekt“, in das regelmäßig neue Daten integriert werden können, also etwa die domänenspezifischen, proprietären Daten eines Unternehmens.
Der technische Aufwand bei der Implementierung eines RAG-Modells hält sich in Grenzen. Es sind RAG-Frameworks verfügbar, in die die Daten eingebunden werden. Abgesehen von der Vektordatenbank fallen auch keine großen Investitionen an. So kostet etwa eine Indizierung der eigenen Website bei einer Cloud-Nutzung nur ein paar Hundert Euro.
Herausforderungen können für Unternehmen allerdings bei den Themen Daten und Governance bestehen, vor allem im Hinblick auf die verfügbaren Daten und die Erfassung der Daten. Für kleinere Firmen bedeutet das oft, dass sie mehr Daten sammeln müssen, und für größere, dass die Datenschätze einzelner Abteilungen auch besser ausgetauscht werden müssen, sodass dem RAG Daten in hoher Quantität und Qualität zur Verfügung gestellt werden. Wichtig und mit einem gewissen Aufwand verbunden ist auch die Etablierung eines Governance-Modells für RAG, also ein Benutzermanagement mit der Verwaltung von Rollen und Rechten.