Meta pausiert seine KI-Entwicklung in Europa aufgrund von Datenschutzbedenken der irischen Datenschutzbehörde. Diese Nachricht ist nur ein Beispiel für die vermeintlichen oder wahren Risiken von KI-Technik und das Ausmaß für daraus folgende Regulierungen.
Für Unternehmen ist es schwierig genug, mit der Entwicklung von KI Schritt zu halten. Einer Studie des Bundesverbands Digitale Wirtschaft (BVDW) e. V. in Zusammenarbeit mit der Hochschule der Medien Stuttgart (HdM) zufolge geben 40 Prozent der befragten Mitarbeiter an, mehrmals pro Woche Anwendungen mit generativer KI (GenAI) zu verwenden. Laut einer Umfrage des Conference Boards setzen sogar mehr als die Hälfte (56 Prozent) der US-Arbeitnehmer GenAI ein.
Doch wie der Fall Meta zeigt – die Aufsichtsbehörde ist besorgt über die Daten, die das Unternehmen zu Trainingszwecken der Large Language Models (LLMs) nutzt – müssen Entscheidungsträger in Unternehmen Strategien zum Einsatz von KI entwickeln, um den neuen Gesetzen und Verordnungen dazu gerecht zu werden. Zu den wichtigsten neuen Regulierungen im Bereich KI zählen der AI Act der EU (seit 1. August 2024 in Kraft, wird schrittweise umgesetzt), das Dekret der US-Regierung vom Oktober 2023 sowie die britische Bletchley-Erklärung vom November 2023.
Verbreitet sind die Bedenken und Ängste hinsichtlich Sicherheit- und Datenschutz, aber auch Arbeitsplatzverlust im Zusammenhang mit KI. Führungskräfte müssen daher ernsthaft darüber nachdenken, wie sich die neuen Gesetze/Richtlinien auf ihre Innovationsfähigkeit auswirken. Es lohnt sich also ein Blick auf die weitreichenden Folgen dieser veröffentlichten Richtlinien und auf lokale Faktoren, die die Regulierung von KI-Tools und deren Akzeptanz verbessern könnten.
KI-Regulierung
Die genannten Regularien versuchen in unterschiedlichem Maße, die mit KI-Technik und -Fähigkeiten verbundenen Risiken zu antizipieren und einzudämmen:
Risiko-Management: Alle drei räumen der Risikominderung Vorrang ein und nennen Verzerrungen bei den Ergebnissen, neue Sicherheitsschwachstellen und unbeabsichtigte Folgen als Herausforderungen, die die Aufsicht des Unternehmens erfordern. Allerdings verfolgen sie jeweils unterschiedliche Ansätze bei der Regulierung.
Sichere Innovation: Die Gesetze und Erklärungen haben generell den Anspruch, Sicherheit und Ethik in Einklang zu bringen sowie gleichzeitig Innovationen zu fördern. Die Gewichtung ist allerdings unterschiedlich. So sieht die U.S. Government Executive Order eine Zusammenarbeit mit den Tech-Giganten des Landes vor. Und obwohl diese Erklärungen im Allgemeinen auf Hochrisiko-Anwendungen abzielen, erkennen alle drei an, dass auch KI-Systeme mit geringerem Risiko Transparenz erfordern, und vermeiden es weitgehend, der KI-Entwicklung selbst harte Grenzen zu setzen.
Koordination: Während beim Dekret der US-Regierung die Sicherheit im Fokus steht, haben beim KI-Gesetz der EU die Bürgerrechte Priorität. Die Motivation der Bletchley-Erklärung ist schwerer zu fassen, auch wenn sie zur Zusammenarbeit zwischen den Staaten aufruft. Sowohl die britische Erklärung als auch das KI-Gesetz der EU befürworten im Gegensatz zum US-Dekret die Schaffung zentraler Regulierungsbehörden.
Alle Vorschläge betonen zudem, wie wichtig eine Koordinierung zwischen Regierungen und dem Privatsektor ist. Was dabei fehlt, ist eine Festlegung, welche Unternehmen diese Diskussion mitgestalten könnten.
Umfang der Regulierung
Während das KI-Gesetz der EU zum jetzigen Zeitpunkt wohl am detailliertesten ist und Regeln für alle Mitgliedsstaaten enthält, bevorzugen die anderen Rahmenwerke allgemeinere Grundsätze. Allmählich wird jedoch eine allgemeine Richtung erkennbar und es wird klarer, wie KI-Governance auf globaler Ebene funktionieren könnte.
Regierungen und die Technikbranche sollten Zertifizierungen fördern, damit KI-Tools und ihre zugrunde liegenden Modelle vertrauenswürdigen internationalen Standards entsprechen. Im Zertifizierungsprogramm der Standard Association des Institute of Electrical and Electronics Engineers (IEEE) ist beispielsweise die Ethik autonomer Systeme umschrieben. Für Unternehmen, die neue Techniken einführen und gleichzeitig die mit der KI-Bereitstellung verbundenen Risiken begrenzen wollen, sind praktikable Standards sehr wichtig. Sie schaffen Gewissheit, dass die neuen Tools vertrauenswürdig, sicher und unternehmenstauglich sind.
Die KI-Branche benötigt klarere Leitplanken für die Entwicklung ihrer Tools, die auf einer stärkeren Zusammenarbeit zwischen den Regierungen basieren, wenn deren rechtliche Bestimmungen in gemeinsame Vorschriften für die KI-Entwicklung umgesetzt werden. Diese Kontrollen sollten allerdings nicht zum Nachteil der örtlichen KI-Industrien und Unternehmen werden, die die die Regeln befolgen, wenn andere es nicht tun.