DeepSeek vs. ChatGPT

Das Duell der KI-Giganten und seine Folgen für die IT-Sicherheit

28. März 2025, 12:30 Uhr | Autor: Philipp Kalweit / Redaktion: Diana Künstler
© Victor Sanchez G – shutterstock.com

Der Wettlauf um IT-Sicherheit hat begonnen. Während Angreifer auf KI-gestützte Methoden setzen, stehen Unternehmen vor der Frage: Mit welchen Strategien schützen wir unsere Systeme in einer Ära intelligenter Angriffe? Der Beitrag zeigt Risiken auf – und liefert Ansätze für eine sichere KI-Nutzung.

Die zunehmende Nutzung von Künstlicher Intelligenz (KI) durch Angreifer stellt eine wachsende Bedrohung in der IT-Sicherheit dar. Besonders Phishing-Angriffe haben durch den Einsatz von KI eine neue Qualität erreicht: E-Mails sind nun fehlerfrei und können in verschiedenen Sprachstilen und sogar lokalen Dialekten verfasst werden, was ihre Glaubwürdigkeit erheblich steigert. Zudem senkt KI die Eintrittsbarriere für potenzielle Angreifer, da diese mit minimalem Fachwissen gezielte Angriffsinstrumente aufsetzen können. In diesem Kontext stellt sich die Frage, ob Unternehmen ebenfalls KI in ihre Sicherheitsstrategien integrieren müssen, um sich gegen diese neue Bedrohung zu wappnen und gleichzeitig wettbewerbsfähig zu bleiben.

Anbieter zum Thema

zu Matchmaker+

DeepSeeks Aufstieg

Seit wenigen Monaten ist DeepSeek in aller Munde – ein KI-Modell, das sich in beeindruckender Geschwindigkeit als ernstzunehmender Konkurrent zu OpenAIs ChatGPT etabliert hat. DeepSeek übertrifft den etablierten Chatbot von OpenAI sogar in manchen Anwendungsbereichen – und dabei hat die Entwicklung des chinesischen KI-Modells nur einen Bruchteil gekostet. Durch eine effiziente Nutzung von Speicherressourcen senkt DeepSeek die Betriebskosten, wodurch KI für Unternehmen kostengünstiger und zugänglicher wird.

Doch zu welchem Preis? Das Bestreben von DeepSeek, KI-Technologie open source zu gestalten, könnte die technologische Entwicklung in der Branche demokratisieren, wirft aber auch Fragen zur Sicherheit auf. Insbesondere weil DeepSeek aus China stammt und ein nahender China-Taiwan-Konflikt sich auf unser gesamtgesellschaftliches Zusammenleben hier in Zentraleuropa erheblich auswirken könnte. Der Aufstieg von DeepSeek verdeutlicht die Herausforderung, rasante KI-Innovationen mit digitalen Sicherheitsrisiken in Einklang zu bringen – ein kritisches Thema für Unternehmen und Regierungen gleichermaßen.

Verborgene Gefahren: Die größten KI-Sicherheitslücken, die Unternehmen kennen müssen

DeepSeek, ursprünglich ein Start-up aus Hangzhou, hat sich zu einem kostengünstigen Konkurrenten der US-KI-Pioniere entwickelt. Mit dem Modell R1 setzt das Unternehmen auf eine „Show, don’t tell“-Strategie und hat es trotz US-Sanktionen geschafft, erfolgreich zu wachsen. Besonders betroffen ist der Chiphersteller Nvidia, dessen spezialisierte GPUs für KI-Anwendungen entscheidend sind. DeepSeeks Erfolg hat nicht nur geopolitische, sondern auch wirtschaftliche Auswirkungen, da er das Bild der USA als unangefochtene KI-Führungsmacht in Frage stellt. Diese Entwicklungen haben Implikationen für Cybersecurity, da das rasante Wachstum und die geopolitischen Spannungen zusätzliche Risiken für die Sicherheit von KI-Modellen und Daten mit sich bringen.

Hacker im KI-Zeitalter: Adversarielle Angriffe und Datenvergiftung einfach erklärt

KI-Modelle stellen eine Herausforderung für die IT-Sicherheit dar, weil sie neue Angriffsvektoren und potenzielle Schwachstellen in der digitalen Infrastruktur eröffnen. Einige der Hauptgründe sind:

  • Adversarielle Angriffe: KI-Modelle können durch speziell gestaltete, manipulierte Eingabedaten (adversarielle Beispiele) getäuscht werden, was zu falschen Vorhersagen oder Fehlverhalten führen kann. Diese Art von Angriffen könnte gezielt dazu verwendet werden, Unternehmen, Institutionen oder Einzelpersonen zu schädigen. Ein relativ plakatives, aber dennoch sehr anschauliches Beispiel ist die Manipulation von Verkehrsschildern. Autonome Fahrzeuge werden so getäuscht und Menschenleben aktiv gefährdet.
  • Datenvergiftung: KI-Systeme sind stark auf die Qualität und Integrität der Daten angewiesen, mit denen sie trainiert werden. Angreifende könnten versuchen, die Trainingsdaten zu manipulieren, um das Verhalten des Modells zu beeinflussen, was zu fehlerhaften oder schädlichen Ergebnissen führen kann. Wir erinnern uns zurück an den Tay-Bot von Mircrosoft im Jahre 2016, der sich aufgrund von Datenvergiftung zu pro-nazionalsozialistischen Aussagen verführen ließ und folglich abgeschaltet werden musste.
  • Mangelnde Transparenz und Nachvollziehbarkeit: Viele KI-Modelle, insbesondere tiefgehende neuronale Netzwerke, sind als „Black Boxes“ schwer verständlich: Es ist schwierig nachzuvollziehen, wie sie zu ihren Entscheidungen kommen. Diese Intransparenz erschwert das Erkennen von Sicherheitslücken und erhöht das Risiko, dass Schwachstellen unentdeckt bleiben. Einige Studien zeigten beispielsweise, dass diese Systeme eine deutlich höhere Fehlerquote bei der Identifizierung von People of Color (insbesondere von Schwarzen Menschen und Asiaten) im Vergleich zu weißen Menschen aufwiesen.
  • Schutz von sensiblen Daten: KI-Modelle verarbeiten oft große Mengen an sensiblen Daten. Wenn diese Daten nicht ordnungsgemäß geschützt sind, können sie Ziel von Datendiebstahl oder -missbrauch werden. Darüber hinaus können KI-Modelle selbst als potenzielle Angriffsziele dienen, etwa durch Reverse Engineering oder die Extraktion von vertraulichen Informationen aus den Modellen.
  • Automatisierte Angriffe: KI-gestützte Angriffe können schneller und effektiver ausgeführt werden als herkömmliche Angriffe, da die Angreifer die KI selbst zur Automatisierung und Verbesserung ihrer Taktiken einsetzen können. Dies erhöht die Komplexität der Bedrohungslage für Unternehmen und Institutionen.
  • Verstärkung bestehender Schwachstellen: KI-Systeme können bestehende Sicherheitslücken in der IT-Infrastruktur ausnutzen und diese Probleme verstärken, indem sie neue, unerforschte Angriffsmöglichkeiten schaffen. Sie können dazu verwendet werden, Sicherheitsmechanismen zu umgehen oder zu überlisten.

Insgesamt erfordert die zunehmende Nutzung von KI-Modellen eine verstärkte Aufmerksamkeit auf IT-Sicherheitsmaßnahmen, um die Integrität, Vertraulichkeit und Verfügbarkeit von Daten und Systemen zu gewährleisten.

KI als Bedrohung KI als Schutzschild
Automatisiertes Phishing KI-basierte E-Mail-Filter
Adversarielle Angriffe Angriffserkennung durch KI
Datenvergiftung Datenqualitäts-Monitoring
Deepfake-Inhalte Authentifizierungs-KI

*Tabelle erstellt durch die Redaktion


DeepSeek und der Datenschutz: Warum europäische Unternehmen bei KI-Nutzung wachsam sein müssen

Gerade in Deutschland und Europa ist Datenschutz ein zentrales Anliegen, insbesondere wenn KI-Systeme sensible Unternehmensdaten verarbeiten. Viele Menschen nutzen generative KI am Arbeitsplatz und füttern Chatbots mit sensiblen, geschäftskritischen Informationen.

Ein zentrales Problem ist, dass die von DeepSeek verarbeiteten Daten beispielsweise in China gespeichert werden. Es sei denn, man nutzt die Open-Source-Variante. Europäische Unternehmen und Privatpersonen bevorzugen klar die lokale Speicherung, da sie mehr Sicherheit bietet und die Einhaltung strenger Vorschriften wie des EU AI Act gewährleistet. Diese wegweisende Gesetzgebung soll Transparenz, Verantwortlichkeit und Datenhoheit in der KI-Entwicklung und -Nutzung sicherstellen, sodass in Europa betriebene KI-Systeme hohe Datenschutz- und Sicherheitsstandards erfüllen.

Laut dem Applied AI Institute of Europe birgt die Nutzung von KI-Modellen Risiken in Bezug auf Bias, Ethik und Genauigkeit. Ein Beispiel: DeepSeek ist – wie viele chinesische Anwendungen – so programmiert, dass es politische Themen vermeidet, die für die chinesische Regierung heikel sind, etwa das Massaker auf dem Tiananmen-Platz. Solche Zensurmechanismen werfen grundlegende Fragen zur Transparenz und Objektivität von KI-Systemen auf.

KI-Sicherheit jetzt: Warum Untätigkeit Unternehmen in Gefahr bringt

Philipp Kalweit
Der Autor Philipp Kalweit ist Unternehmer, IT-Sicherheitsberater sowie CEO der Cybersecurity-Boutique Kalweit ITS (Eigenschreibweise „KALWEIT ITS“). Bereits in jungen Jahren machte er sich als White-Hat-Hacker einen Namen. Als Gründer und Geschäftsführer von Kalweit ITS unterstützt er heute Organisationen dabei, Schwachstellen aufzudecken und ihre Systeme wirksam gegen digitale Bedrohungen zu schützen.
© Kalweit ITS

Unternehmen stehen heute vor einer zentralen Herausforderung: Wie lässt sich Künstliche Intelligenz sicher und sinnvoll in Geschäftsprozesse integrieren? Während KI enormes Potenzial bietet, zeigen Entwicklungen wie DeepSeek auch Risiken – von unerwarteten Sicherheitslücken bis hin zu langfristigen Abhängigkeiten. Ignorieren ist keine Option, denn wer sich nicht mit der sicheren Nutzung von KI auseinandersetzt, riskiert langfristig Wettbewerbsnachteile.

Die eigentlichen Auswirkungen unserer heutigen Entscheidungen werden oft erst in 10 bis 15 Jahren spürbar. Wenn KI-Modelle auf Basis der aktuell gesammelten und verarbeiteten Daten operieren. Deshalb ist es essenziell, mit IT-Sicherheitsexpert*innen zu evaluieren, welche Prozesse mit KI verknüpft werden und welche Risiken dabei entstehen. Es geht nicht nur um Compliance mit Standards wie ISO/IEC 27001 oder regulatorischen Anforderungen, sondern vor allem um eine nachhaltige Sicherheitsstrategie, die Mensch, Prozesse und Technologie ganzheitlich betrachtet.

Ein mehrschichtiger Schutzansatz, bestehend aus sicheren Entwicklungspraktiken, gezieltem Monitoring von KI-Modellen und kontinuierlichen Sicherheitsprüfungen, ist entscheidend, um Manipulationen, adversarielle Angriffe und ungewollte Datenverzerrungen zu verhindern. Die Zusammenarbeit mit Experten hilft nicht nur, aktuelle Bedrohungen frühzeitig zu erkennen, sondern auch langfristige Risiken zu minimieren. Unternehmen, die heute klug investieren, schaffen nicht nur eine robuste Sicherheitsbasis, sondern stellen auch sicher, dass ihre KI-Systeme zuverlässig und vertrauenswürdig bleiben.


Lesen Sie mehr zum Thema


Das könnte Sie auch interessieren

Jetzt kostenfreie Newsletter bestellen!

Weitere Artikel zu connect professional

Weitere Artikel zu Künstliche Intelligenz

Weitere Artikel zu Künstliche Intelligenz (KI)

Weitere Artikel zu Cyber-Security

Weitere Artikel zu Cyber-Security-Lösungen

Weitere Artikel zu Managed Security

Weitere Artikel zu Cybersecurity/Cybersicherheit