KI-Infrastruktur

Large Language Models für den Unternehmenseinsatz trimmen

27. August 2024, 10:35 Uhr | Autor: Marcus Busch / Redaktion: Sabine Narloch
© bonninturina - fotolia

Large Language Models können dazu beitragen, geschäftliche Prozesse effizienter zu gestalten. Für manche Unternehmen kann es daher von Vorteil sein, auf dieser Grundlage eigene KI-Anwendungen zu entwickeln. Was dabei entlang des KI-Lebenszyklus' zu berücksichtigen ist.

Leistungsfähige, frei verfügbare LLMs wie GPT und Llama 3 sorgen dafür, dass die Interaktion mit KI allmählich zur Normalität wird. Large Language Models nutzen Deep Learning, eine Form des maschinellen Lernens, die durch künstliche neuronale Netze die kognitiven Prozesse des menschlichen Gehirns nachahmt. Sie können anhand bereitgestellter unstrukturierter Daten Schlussfolgerungen nach menschlichem Vorbild ziehen und somit vollkommen selbständig lernen und Wissen erlangen. Unternehmen erstellen große Sprachmodelle in der Regel nicht selbst, sondern greifen auf vortrainierte Basismodelle zurück, die sie entsprechend ihres Anwendungsszenarios zu einem komplexeren Modell weiterentwickeln. Alternativ können sie verfügbare Modelle wie ChatGPT integrieren und durch Finetuning anpassen.

Phasen der KI-Entwicklung

Die Anforderungen an Rechen- und Speicherkapazität der zu Grunde liegenden Infrastruktur sind, wie bei allen KI-Anwendungen, hoch und verlangen, da große Sprachmodelle auf Kommunikation basieren, sichere Netzwerke mit äußerst geringer Latenz. Abhängig davon, in welchem Stadium sich ein KI-Modell befindet und wie es eingesetzt wird, können die Anforderungen variieren. Je nach Phase des Lebenszyklus müssen verschiedene Elemente der Infrastruktur hoch- oder herunterskaliert werden.

1. Datensammlung und Vorverarbeitung

Ob Neuentwicklung, Finetuning oder Weiterentwicklung eines vortrainierten KI-Modells: Zu Beginn erfordern große Sprachmodelle, da sie auf Deep Learning basieren, das Sammeln einer großen Menge unstrukturierter Daten. Um es auf den unternehmensspezifischen Einsatzzweck anzupassen, benötigt das Modell umfangreiche Text- und Sprachdatensätze aus dem entsprechenden Kontext. Diese aggregierten Daten bilden den Handlungsrahmen, innerhalb dessen die künftige KI-Anwendung operieren kann. 

Ist die Datensammlung abgeschlossen, müssen die Datensätze für die weitere Nutzung – das Training – vorbereitet werden. Um eine möglichst gute Qualität zu erzielen, werden nach einer ersten Überprüfung die Daten bereinigt, transformiert, reduziert und je nach Art des maschinellen Lernens in der darauf folgenden Phase – überwacht, halb-überwacht oder unüberwacht – entsprechend aufbereitet. Dieser Prozess erfolgt mit Hilfe von KI-Frameworks wie Python, RapidMiner, Alteryx, Apache Spark oder anderen.

Auf Infrastrukturseite erfordert die Datensammlungs- und Vorverarbeitungsphase eine hohe Speicherkapazität, gefolgt von der entsprechenden Rechenleistung. Apache Spark beispielsweise, ein Open-Source-Projekt, das auf einer SQL-Engine basiert, kann einen Großteil seiner Berechnungen im Arbeitsspeicher ausführen. Unternehmen sollten über mindestens acht bis 16 CPU-Kerne pro Rechner im Netzwerk verfügen, um Spark entsprechend der Anwendungsintensität skalieren zu können.

Die Geschwindigkeit hingegen spielt in dieser Phase eine untergeordnete Rolle. Statt ultraschnellen SSDs wären SATA-basierte Speicherserver ausreichend. Da allerdings große Datenmengen übertragen werden, sollten Unternehmen sicherstellen, dafür Server mit hoher Bandbreite zu nutzen, um ausreichend Netzwerkkapazität vorzuhalten (Apache zum Beispiel empfiehlt Anwendern mindestens 10 Gbit/s oder mehr). Dies gilt vor allem, falls sich die Daten an einem anderen Ort befinden (On-Premises) als die eingesetzten Tools (Public Cloud).

Anbieter zum Thema

zu Matchmaker+

  1. Large Language Models für den Unternehmenseinsatz trimmen
  2. Vom KI-Training zur Validierung

Lesen Sie mehr zum Thema


Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu LeaseWeb Deutschland GmbH

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu IT-Infrastruktur/Rechenzentrum

Matchmaker+