Kommentar von Sam Curry

DeepSeek tritt die nächste Welle des KI-Rushs los 

3. Februar 2025, 12:57 Uhr | Jörg Schröper
Sam Curry, Zscaler
© Zscaler

Sam Curry, VP und CISO bei Zscaler, hat sich in seinem Kommentar die neue KI-Instanz DeepSeek vorgenommen, die kürzlich für erhebliches Aufsehen gesorgt hat.

„Mit DeepSeek wurde die nächste Welle des KI-Rushs ausgelöst. Der Open Source KI-gestützte Chatbot macht OpenAI Konkurrenz. Mit jeder KI-Innovation rücken allerdings auch wieder deren Auswirkungen auf den Datenschutz in den Vordergrund. Dementsprechend sollte auch bei diesem Tool vor der Einführung ein genauerer Blick auf Datenschutzüberlegungen erfolgen“, so Curry in seinem Statement.

„Die Engines von Tools wie ChatGPT und jetzt auch DeepSeek greifen auf Daten als Kontext für die Modellierung und die Ergebnisfindung zurück. Die Frage muss geklärt werden, wer im Unternehmen diese Datengrundlage kontrolliert und wer Zugriff darauf erhält. Welche Daten fließen in die KI-Tools und welche Vorurteile wurden womöglich in diese Umgebungen eingebaut?“, so Curry weiter.

DeepSeek trete mit dem Anspruch an, immense Datenmengen effizient zu verarbeiten. Gleichzeitig habe das Unternehmen aufgrund der deutlich geringeren Kosten im Vergleich zu seinen Marktbegleitern auch Aktienmärkte in Bewegung versetzt. „Über Jahre hinweg hat die USA den Marktplatz der digitalen Innovationen dominiert. Kein Wunder, dass der Newcomer aus China als Gefahr angesehen wird. Ähnliches konnte auch im Rennen um die Cloud oder andere IT-Innovationswellen betrachtet werden“, so Curry.

Man erwarte, dass DeepSeeks Auftritt einen gewissen Demokratisierungs-Effekt auf die KI-Landschaft ausüben kann, indem die eingeschworene Gruppe aus dem Silicon Valley die Zukunft dieser Technologie nicht mehr allein gestalten wird. Die Tatsache, dass DeepSeek eine Open Source KI-Plattform ist, müsse allerdings genauer evaluiert werden, so Curry. „Auch wenn der Code des Tools offenliegt, sind die verwendeten Trainingsdaten undurchsichtig, sodass es schwierig ist, eventuelle Vorurteile oder Sicherheitsrisiken zu erfassen.“

Curry weiter: „Allerdings geht von der bisher nie dagewesenen Effizienz des Tools ein gewisser Reiz aus. Das größte Problem im Silicon Valley seit Beginn des KI-Rushs vor zwei Jahren ist der mit den in Mode gekommenen Chatbots und KI-Anwendungen einhergehende Anstieg des Energieverbrauchs durch die enormen Verarbeitungskapazitäten der Daten. Mit der jüngsten KI-Entwicklung geht die Erwartung an größere Effizienz und damit verbunden ein großes Energieeinsparungspotenzial einher, da weniger Computing-Power benötigt wird. Bisher näherte sich die Computing-Kurve einer flachen Asymptote an, getrieben durch die Nachfrage und in der Folge steigenden Kosten, was mit einer Marktkapitalisierung für Unternehmen in diesem Ökosystem einherging. Diese Nachfrage, vor allem nach Grafikverarbeitungsunits (GPU), kann sich nun ändern, wenn sich durch DeepSeek ein neues Gleichgewicht zwischen Angebot und Bedarf einstellt.“

Allerdings sei das zu erwartende Einsparungspotenzial vermutlich nur von kurzer Dauer. Das neue KI-Tool werde kurz- bis mittelfristig als Katalysator für die Nachfrage nach noch mehr KI-Innovationen wirken. Früher oder später werden Organisationen erneut an den Punkt gelangen, wo das Kapazitätsmaximum an Energiebedarf und Computing-Power an die frühere Asymptote zurückkehrt. Sofern es keinen neuen Durchbruch in Sachen Energieproduktion oder Computing gibt, wie durch Quantum Computing, werde sich das Ökosystem also wieder stabilisieren.

Dennoch sollten Organisationen im Hype um das Ausrollen neuer KI-gestützter Anwendungen den Datenschutz nicht vernachlässigen. KI Governance, rechtliche, soziale und ethische Überlegungen müssen laut Curry neben der Effizienz und Leistungsfähigkeit für die Beurteilung von KI-Tools herangezogen werden. Organisationen müssen all diese Grundlagen vor dem Einsatz innovativer Tools in Einklang bringen. Jeder dieser Dimensionen benötigt nicht nur ein Rahmenwerk und dessen Durchsetzung, sondern auch Klarheit und Kommunikation.

„Wenn Organisationen also damit anfangen, ihre KI-Tools verstärkt mit Informationen zu füttern, um die Adaption voranzutreiben, müssen zuvor Prüfungen auf mögliche Vorurteile erfolgen und Transparenz dazu bestehen, welche Daten zum Einsatz kommen und gesammelt werden. Schließlich gilt es nicht nur die Ergebnisse der KI-Modelle zu evaluieren, sondern muss auch berücksichtigt werden, wer darauf Zugriff hat. In dem Moment, indem KI Einzug hält, müssen Organisationen für angemessene Sicherheitsmaßnahmen zum Schutz ihrer Daten sorgen“, warnt Curry.

Diejenigen Unternehmen, die in den vergangenen zwei Jahren Zeit für die Entwicklung von KI-Governance und die Vorbereitung für den Schutz ihrer Daten aufgebracht haben, werden laut Curry am ehesten Profit aus der KI-Innovationswelle schlagen können. Sie haben KI-Richtlinien entwickelt, Tools evaluiert und die Sicherheit im Umgang mit ihren Datenschätzen gewonnen. Aufbauend auf ethischen Grundlagen und einem Überblick über all ihre KI-Projekte können ihre Abteilungen loslegen, die Funktionalität von KI-Innovationen für den Einsatz zu evaluieren.
 

Anbieter zum Thema

zu Matchmaker+

Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu Zscaler

Weitere Artikel zu Zscaler GmbH

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Matchmaker+