AI Act: TÜV-Kritik an Regulierungslücke
Die geplanten Änderungen am EU AI Act könnten laut TÜV-Verband zu einer fragmentierten Regulierung führen. Insbesondere die Auslagerung von Hochrisiko-KI in sektorale Vorgaben berge Risiken für Sicherheit, Compliance und Investitionssicherheit in Unternehmen.
Das Europäische Parlament hat im Rahmen des sogenannten „Digital-Omnibus“ Änderungen an der KI-Verordnung beschlossen. Laut Branchenangaben umfasse das Paket sowohl Anpassungen wie verlängerte Umsetzungsfristen und Entlastungen für kleine und mittlere Unternehmen als auch neue Verbote bestimmter Anwendungen.
Gleichzeitig enthalte die Reform aus Sicht von Fachorganisationen kritische Punkte. Insbesondere die geplante Herauslösung zentraler Hochrisiko-Produktbereiche aus dem direkten Anwendungsbereich des AI Acts werde als problematisch bewertet.
Hochrisiko-KI soll sektoral geregelt werden
Nach den aktuellen Beschlüssen sollen KI-Anforderungen für bestimmte Produktgruppen künftig nicht mehr einheitlich im AI Act geregelt werden. Stattdessen sei vorgesehen, diese in sektorspezifische Rechtsakte zu integrieren.
Branchenvertreter weisen darauf hin, dass damit der ursprünglich horizontale Regulierungsansatz abgeschwächt werde. Einheitliche Anforderungen an sicherheitskritische KI-Systeme könnten dadurch verzögert oder fragmentiert umgesetzt werden. Insbesondere für Anwendungen in Bereichen wie Medizin, Maschinenbau oder Konsumgüter werde ein einheitlicher Rahmen als zentral erachtet.
„Mit diesem Vorgehen wird der ursprüngliche Ansatz des AI Act ausgehebelt, einheitliche Regelungen für zahlreiche Produktgruppen zu schaffen“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. „Stattdessen wird die Festlegung von Sicherheitsanforderungen für risikoreiche Produkte und Anwendungen mit Künstlicher Intelligenz auf den Sankt-Nimmerleins-Tag verschoben.“
Risiken für Sicherheit und Compliance
Zu den Hochrisiko-KI-Systemen zählen laut Definition Anwendungen, deren Fehlfunktionen erhebliche Auswirkungen auf Sicherheit, Gesundheit oder Grundrechte haben könnten. Dazu gehörten unter anderem Systeme in der medizinischen Diagnostik, automatisierte Entscheidungsprozesse im Recruiting oder Kreditvergaben.
Für diese Einsatzfelder seien laut Experten klare Vorgaben zu Robustheit, Datenqualität, Transparenz sowie Risikomanagement und menschlicher Aufsicht erforderlich. Eine Zersplitterung der Regulierung könne die Einhaltung dieser Anforderungen erschweren und die Vergleichbarkeit von Sicherheitsstandards beeinträchtigen.
Befürchteter Flickenteppich an Regelungen
Die geplante sektorale Verlagerung der KI-Regulierung könne nach Einschätzung von Fachverbänden zu einer Vielzahl unterschiedlicher Regelwerke führen. Unternehmen müssten sich dann auf divergierende Anforderungen, Verfahren und Zeitpläne einstellen.
Dies könne insbesondere für international tätige Unternehmen zusätzliche Komplexität bei der Integration und Skalierung von KI-Lösungen bedeuten. Unterschiedliche regulatorische Rahmenbedingungen könnten zudem Investitionsentscheidungen beeinflussen und Innovationsprozesse verlangsamen.
Herausforderungen durch Innovationsgeschwindigkeit
Ein weiterer Kritikpunkt betrifft die Dynamik technologischer Entwicklungen im KI-Bereich. KI-Systeme entwickelten sich schneller, als sektorale Gesetzgebungsverfahren angepasst werden könnten.
Die Integration KI-spezifischer Anforderungen in bestehende Regelwerke erfordere kontinuierliche Anpassungen, was zusätzliche Ressourcen binde. Unternehmen könnten dadurch mit erhöhtem Compliance-Aufwand konfrontiert werden, insbesondere bei der Umsetzung neuer regulatorischer Vorgaben.
Forderung nach einheitlichem Regulierungsrahmen
Der TÜV-Verband hat bereits gemeinsam mit AlgorithmWatch, AI Policy Lab, ALLAI, BSI - United Kingdom, DEKRA, ForHumanity, Open Knowledge Foundation, The Future Society und TÜV AI.Lab in einem offenen Brief an die Bundesregierung vor einem Sektor-Exit gewarnt. Sie fordern, den horizontalen Ansatz des AI Acts beizubehalten, um konsistente Sicherheits- und Qualitätsstandards zu gewährleisten.
Im weiteren Gesetzgebungsprozess seien nun die EU-Mitgliedstaaten und die Europäische Kommission gefordert, einen ausgewogenen Regulierungsrahmen sicherzustellen, der sowohl Innovationsfähigkeit als auch Sicherheitsanforderungen berücksichtigt.