Die Europäische Union hat nach mehrjähriger Beratung den sogenannten AI Act verabschiedet, der klare Regeln im Umgang mit Künstlicher Intelligenz festlegen soll.
Mit dem sogenannten AI Act der Europäischen Union verändern sich die Spielregeln für alle, die Künstliche Intelligenz entwickeln und anwenden wollen. Einige KI-Anwendungen wie beispielsweise Social Scoring sind nun offiziell verboten. Alle anderen KI-Lösungen werden einer von vier Risikoklassen zugeordnet. Die Einordnung der EU-Kommission richtet sich nach dem potenziellen Risiko, das mit dem Einsatzbereich der Künstlichen Intelligenz einhergeht.
Die Risikogruppen sind eingeteilt in
minimales Risiko:
Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Für Anwendungen mit minimalem Risiko wie KI-gestützte Empfehlungssysteme oder Spam-Filter gilt ein Freifahrtsschein und das Fehlen von Verpflichtungen, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen.
hohes Risiko:
KI-Systeme, die als hochriskant eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Nutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit.
unannehmbares Risiko:
KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, beispielsweise Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördert, oder Systeme, die „Social Scoring" durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit.
Je höher also das Risiko einer KI-Lösung, desto höher die regulatorischen Anforderungen an sie. Einige dieser Anforderungen gelten zudem über den gesamten Lebenszyklus, sodass jede KI-Lösung auch auch nach ihrer Implementierung kontinuierlich überprüft werden muss.
Strafen bei Verstoß gegen das Gesetz
Ähnlich wie bei der Berechnung von Bußgeldern im Rahmen der europäischen Datenschutz-Grundverordnung werden die Bußgelder für Verstöße gegen das Gesetz als Prozentsatz des weltweiten Jahresumsatzes der verantwortlichen Partei im vorangegangenen Geschäftsjahr oder als fester Betrag berechnet, je nachdem, welcher Betrag höher ist:
35 Millionen Euro oder 7 Prozent für Verstöße, die den Einsatz verbotener KI-Anwendungen beinhalten;
15 Millionen Euro bzw. 3 Prozent für Verstöße gegen die Verpflichtungen des Gesetzes; und
7,5 Millionen Euro oder 1,5 Prozent für die Erteilung falscher Auskünfte.
Für die Verhängung von Bußgeldern gegen kleine und mittlere Unternehmen und Start-ups gelten jedoch verhältnismäßige Obergrenzen. Die Bürger werden die Möglichkeit haben, Beschwerden über die Verwendung von KI-Systemen, die sie betreffen, einzureichen, wie dei weltweit tätige Anwaltskanzlei Mayer Brown auf ihrer Website mitteilt.