Bei der RAG-Implementierung sollte ein Unternehmen mit dem Aufbau einer Vektordatenbank, der Entwicklung einer Datenstrategie und der Bestimmung von Zugriffsrechten beginnen. Sinnvoll ist dabei die Nutzung verschiedener, thematisch getrennter Datenbanken, etwa für Controlling oder Marketing. Auch die Einführung von KPIs mit anschließendem Tracking ist empfehlenswert, um beispielsweise zu ermitteln, wie hoch die Trefferquote ist, wie oft eine Antwort möglich ist und welche Infos nicht in der Vektordatenbank verfügbar sind.
Der konkrete RAG-Einsatz startet dann idealerweise mit einem internen Projekt, also etwa mit einer Aktivität im Onboarding-Prozess. Ein Beispiel hierfür wäre eine Notebookbestellung, die im Falle einer RAG-Nutzung kein Durchforsten des eigenen Intranets mehr erfordert. Nach umfassenden Tests kann dann auch eine Ausweitung auf die externe Kommunikation erfolgen. Ein Ziel sollte immer sein, den Mitarbeitern ein System zur Verfügung zu stellen, mit dem sie schnell und einfach – etwa mit einer Low-Code-Applikation – einen RAG-Bot aufbauen können, zum Beispiel einen Chatbot. Prinzipiell kann RAG etwa in Bereichen wie Kundensupport, Inhaltserstellung, Marktforschung, Verkaufsunterstützung und Verbesserung der Mitarbeitererfahrung eingesetzt werden.
Ohne Frage stellt die generative KI einen entscheidenden Entwicklungsschritt dar. Klassische, statische Chatbots mit vorformulierten Fragen und Antworten könnten damit schon bald der Vergangenheit angehören. Allerdings werden Unternehmen auch weiterhin Technologien wie die Conversational AI nutzen, also automatisierte Dialogsysteme, die von künstlicher Intelligenz unterstützt werden. Im Gegensatz zu einfachen Chatbots oder früheren Spracherkennungssystemen kann Conversational AI komplexere Ausdrücke in natürlicher Sprache verstehen und frei formulierte Texte verarbeiten. Dadurch ermöglicht sie einen Dialog zwischen Mensch und Maschine, der annähernd einem Gespräch mit einer realen Person entspricht. Auch bei der herkömmlichen Conversational AI geht die Entwicklung aber in Richtung der Integration einer Knowledge Base und der Nutzung von generativer KI. Um das Qualitätsniveau der Conversational AI etwa im Hinblick auf fehlende Antworten weiter zu verbessern, bietet sich wiederum eine Ergänzung mit RAG an.
Ein zentraler Vorteil in der RAG-Nutzung liegt in der Zukunftssicherheit, Unabhängigkeit und Flexibilität, die ein Unternehmen gewinnt. Die RAG-Architektur mit der Speicherung von Daten in einer Vektordatenbank ermöglicht es, Modelle jederzeit auszutauschen. Da kontinuierlich neue Modelle mit mehr Parametern und höherer Qualität verfügbar werden, ist diese RAG-Entkopplung vom Modell von entscheidender Bedeutung. So fällt keine direkte Arbeit am Modell an und ein Unternehmen kann immer ein aktuelles Modell nutzen, das die höchste Antwortqualität bietet.
Nach der Erfolgsgeschichte rund um ChatGPT nutzen derzeit immer mehr Unternehmen generative KI-Systeme. Dabei sollten sie immer auch die Möglichkeiten überprüfen, die für eine weitere Optimierung der großen Sprachmodelle bestehen. Hier spielt RAG eine entscheidende Rolle. So dürfte RAG die generative KI auf das nächste Qualitätslevel heben, indem sie die Grenzen von LLMs überwindet, und zwar durch die Nutzung von Echtzeitinformationen und domänenspezifischem Wissen bei jeder Antwortgenerierung.
Melvin Franzen ist Competence Lead Generative AI bei CGI