Wird andererseits die Entwicklung Künstlicher Intelligenz zu stark eingeschränkt, könnte dies Chancengleichheit gefährden. Dies könnte zu KI-Monopolen führen, da kleinere Anbieter und Start-ups reguliert sind oder sie aufgrund der hohen Kosten keine Innovationen mehr erbringen können. Während die Einkäufer von Unternehmen im Allgemeinen etablierte Anbieter bevorzugen, werden gemeinsame Standards kleineren, wendigeren KI-Anbietern mehr Möglichkeiten zur Entwicklung neuer Produkte geben.
Geordnete Daten
Hinter all diesen Überlegungen steht die Datensicherheit. Viele Unternehmen haben ihre Datenschutz- und Wiederherstellungsmaßnahmen noch nicht auf den neuesten Stand gebracht. Mit der zunehmenden Datennutzung beim Trainieren von LLMs und dem alarmierenden Wachstum von GenAI sowie sich weiterentwickelnder Cyber-Bedrohungen könnten Unternehmen Sicherheits- und Compliance-Probleme bekommen, wobei gesetzliche Strafen wahrscheinlich höher sind als Lösegeldforderungen. Während Europa mit der Datenschutz-Grundverordnung (DSGVO) in puncto Datenverwaltung und -regulierung immer noch führend ist, werden nun auch in den USA Gesetze wie der California Consumer Privacy Act (CCPA) verabschiedet. Ohne Investitionen in Datenschutz und Compliance drohen Unternehmen, die Unternehmensdaten für KI-Dienste einsetzen, Strafen, Lösegeldforderungen, Rechtsstreitigkeiten sowie Störung des Geschäftsbetriebs.
Vertrauen steht an erster Stelle
Unternehmen müssen sich auf einen Rechtsrahmen vorbereiten, der unternehmenstaugliche und datenschutzkonforme KI-Tools zulässt. Die vorrangige Aufgabe der Regulierungsbehörden wird allerdings immer darin bestehen, die Sicherheit ihrer Bürger zu gewährleisten. Wie der Fall Meta zeigt, werden die Bedürfnisse der Wirtschaft immer an zweiter Stelle stehen, wenn es um das Vertrauen der Öffentlichkeit in die KI geht, selbst wenn diese Tools zu einem festen Bestandteil unseres Lebens werden.
Christoph Ertl ist Solutions Architect bei Nasuni.