LLM, generative und kausale KI

KI in der Softwareentwicklung und -implementierung

12. September 2023, 7:00 Uhr | Autor: Bernd Greifeneder / Redaktion: Sabine Narloch

Fortsetzung des Artikels von Teil 1

Schutzmechanismen und Kontrollen sind ein Muss

Wenn DevOps- und Plattform-Engineering-Teams GPTs einsetzen, um die Softwareentwicklung zu beschleunigen, müssen Engineering- und Datenschutzteams dafür sorgen, dass diese Technologien über die richtigen Kontrollmechanismen verfügen. Sonst verursachen die Chatbots mehr Probleme als sie lösen sollen.

Engineering Teams sollten sicherstellen, dass die Rechte am geistigen Eigentum (IP) an jeglichem Code anerkannt werden, der von und mit GPTs und anderer generativer KI geteilt wird. Das schließt urheberrechtlich oder markenrechtlich geschützte sowie patentierte Inhalte ein.

Ebenso wichtig ist es für Unternehmen, zu verhindern, dass ChatGPT und Co. versehentlich ihre eigenen geistigen Eigentümer oder vertrauliche Daten weitergeben. Denn sie nutzen zunehmend Coding-Assistenten für ihre Softwareentwicklung und diese könnten den geschützten Source Code in ihre Trainingsdatenbasis mit aufnehmen und ungewollt veröffentlichen.

Schließlich müssen auch regionale und länderspezifische Datenschutz- und Sicherheitsvorschriften wie die DSGVO oder das vorgeschlagene europäische KI-Gesetz berücksichtigt werden. Nur so können Unternehmen sicherstellen, dass ihre Teams GPT-Technologien nicht in einer Weise nutzen, die unbeabsichtigt zu Datenschutzverletzungen und möglichen Geldstrafen führt.

Kausale KI ist Schlüsselfaktor

Während Entwickler ihren Code und ihre Kommentare als Input für GPT-Tools bereitstellen, wollen DevOps-, SRE- und Plattform-Engineering-Teams ihre IT-Konfiguration und ihren Laufzeitzustand als Kontext in die Fragestellung an GPT-Tools mit einbringen. Denn je detaillierter die Frage an GPT-Tools ist, desto größer ist die Wahrscheinlichkeit eine hilfreiche Antwort zu erhalten. Die richtigen Fragen zu stellen, die dann sinnvolle Antworten liefern, nennt man Prompt-Engineering. Um nicht seitenweise Informationen in den Chat tippen zu müssen, möchte man möglichst viel Kontext zur Fragestellung automatisch erstellen.

Ein Beispiel: Erhalten GPT-Tools eine sehr allgemein gehaltene Anfrage über die Ursache einer CPU-Spitze, werden sie nur wenig hilfreiche, allgemeine Antworten ausspucken. Etwa der Hinweis, dass die Ursache von verschiedenen Faktoren abhängt und zusätzliche CPUs oder Skalierung helfen würden. Wenn die GPT-Tools jedoch die genaue Ursache, sprich die Root-Cause, mit Kontext hinter einer CPU-Spitze haben und somit die Zusammenhänge und Abhängigkeiten in vernetzten digitalen Softwaresystemen mit dem Prompt Engineering erhalten, können sie zielgerichtete Vorschläge generieren. Um die Root-Cause und den Kontext zu ermitteln, ist eine andere Art künstlicher Intelligenz erforderlich: kausale KI. Sie kann die Schlagkraft von generativer KI deutlich stärken.

Kausale KI ermittelt in nahezu Echtzeit präzise Erkenntnisse aus kontinuierlich beobachteten Beziehungen und Abhängigkeiten innerhalb eines Technologie-Ökosystems und über den Software-Lebenszyklus. Diese Abhängigkeitsgraphen oder Topologien ermöglichen es der kausalen KI, präzise, faktenbasierte, erklärbare, reproduzierbare Antworten zu generieren. Diese Antworten beschreiben detailliert die Ursache, die Art und den Schweregrad jedes entdeckten Problems. Durch die Kombination von kausaler KI mit GPTs können Teams Analysen automatisieren, die die Auswirkungen ihres Codes, ihrer Anwendungen und der zugrundeliegenden Infrastruktur untersuchen und dabei den gesamten Kontext offenlegen.

Anbieter zum Thema

zu Matchmaker+

  1. KI in der Softwareentwicklung und -implementierung
  2. Schutzmechanismen und Kontrollen sind ein Muss
  3. Generative KI und kausale KI – better together

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Dynatrace

Weitere Artikel zu technische Software

Weitere Artikel zu SaaS (Software as a Service)

Weitere Artikel zu Digitale Transformation

Matchmaker+