Der unternehmerische Nutzen von ChatGPT und anderen generativen KI-Technologien lässt sich durch die Integration von kausaler KI oder anderen Methoden steigern. Ein Anwendungsbereich ist die Softwareentwicklung und -bereitstellung. Dabei sollte man einige Dinge im Blick behalten.
Nur eine Frage und schon die ultimative Lösung – ist das möglich? Mit der Einführung des auf maschinellem Lernen, dem Deep Learning basierenden ChatGPT im November 2022 sind Large Language Models (LLMs) und generative Künstliche Intelligenz (KI) weltweit Gesprächsthema. Der von OpenAI entwickelte KI-Chatbot wird in privaten Kreisen, in Schulen bis hin zu Vorstandsetagen diskutiert. Nicht immer inhaltlich allumfassend, dennoch kommt das Thema Künstliche Intelligenz in der gesellschaftlichen Mitte an.
Ist es aber tatsächlich so einfach, wie es mancherorten diskutiert wird? Für Unternehmen ist die klare Antwort – jain. Generative Pre-Trained Transformer Technologie (GPT) steckt noch in den Kinderschuhen, doch sie hat das Potenzial, Branchen grundlegend zu verändern. Sei es die Verbesserung des Kundendienstes oder die Steigerung der Mitarbeiterproduktivität – zusammen mit LLM-basierten KI-Systemen, kann diese Technologie Unternehmen Möglichkeiten eröffnen. Will man sie ausschöpfen, muss man tiefer in die Mechanismen und KI-Verfahren einsteigen.
Es empfiehlt sich, den unternehmerischen Nutzen von ChatGPT und anderen generativen KI-Technologien durch die Integration von kausaler KI oder anderen Methoden zur Erweiterung des Kontexts zu steigern. Besonders in der Softwareentwicklung und -bereitstellung wird dies deutlich. Hier kann es zu Produktivitätssteigerungen kommen, doch auf dem Weg dorthin, gibt es einige Dinge im Blick zu behalten.
Softwareentwicklung und -bereitstellung sind in puncto GPT-Technologie ein Schlüsselbereich. Zahlreiche zeitraubende manuelle Prozesse, ließen sich so deutlich besser strukturieren. Nachdem generative KI auf natürlich-sprachlicher Vorgabe Code-Stücke für Software programmieren kann, indem sie auf gelernte Informationen aus öffentlichem Source Code zurückgreift, wäre es denkbar diese Fähigkeit auch auf DevOps- und Plattform-Engineering-Teams zum Schreiben von routinemäßigem Aufgaben zu erweitern. So können Teams schneller neue Softwareservices ausrollen, Automatisierungen erstellen und Hilfestellungen zur Analyse erhalten. Dazu wäre es nötig den IT-Kontext in die Anfrage an das GPT einzubetten, um spezifische Antworten zu erhalten. Auf diesem Wege könnten so Tickets und Fehlermeldungen automatisch mit generierten möglichen Maßnahmen zur Abhilfe ergänzt werden. Was bringt das im Endeffekt? Stack-Overflow-Seiten müssten dann nicht mehr wie herkömmlich auf der Suche nach einer Problemlösung durchforstet werden, Mitarbeiter könnten rascher neue Technologien einsetzen.
GPTs können auch dazu beitragen, Teammitglieder schnell in neue Entwicklungsplattformen und Toolsets einzuführen. Bislang durchsuchen Benutzer Dokumentationen manuell. Hier könnte die automatische Suche und Zusammenfassung benötigter Information auf Basis von IT-Kontext und Dokumentation über GPTs hilfreich sein. Über Fragen in der Suchleiste könnten mögliche Lösungen angezeigt werden. Zum Beispiel: „Wie automatisiere ich die Orchestrierung von meiner Cloud-Anwendung auf Basis von Laufzeitdaten?“ oder „Wie kann ich diese Lösung am besten in meine Toolchain integrieren?“
Die rein LLM-basierte generative KI, die ChatGPT und ähnliche Technologien antreibt, ist nicht unfehlbar, sondern prinzipiell probabilistisch und anfällig für Irrtümer und Manipulationen. Dessen sollten sich Unternehmen bewusst sein. Sie verlässt sich auf die Genauigkeit und Qualität der öffentlich zugänglichen Informationen und Eingaben, die sie erhält. Und somit ist Vorsicht geboten, denn diese können auch nicht vertrauenswürdig oder voreingenommen sein.
In Sachen Softwareentwicklung und -bereitstellung können diese Quellen Codebibliotheken umfassen, die rechtlich geschützt sind oder Syntaxfehler beziehungsweise Schwachstellen enthalten, die Cyberkriminelle bewusst eingeschleust haben. Entwicklungsteams müssen daher den Code, den sie von GPTs erhalten, und immer überprüfen. Nur so sind Zuverlässigkeit, Leistung, Konformität oder Sicherheit der Software garantiert.