KI-Regulierung

Vorschlag der EU-Kommission für die Regulierung von KI

Die EU-Kommission hat am 21. April 2021 einen Gesetzesentwurf für die Regulierung Künstlicher Intelligenz (KI) vorgelegt. Ziel der geplanten Verordnung ist es, einen rechtlichen Rahmen für sichere und vertrauenswürdige KI zu schaffen. KI-Systeme, die die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen bedrohen und demnach ein inakzeptables Risiko bergen, werden verboten. Für KI-Systeme mit hohem Risiko gelten strenge Anforderungen.
KI-Anwendungen können Risiken im Zusammenhang mit Diskriminierung bergen, wenn sie zur Aussonderung bestimmter Personengruppen führen, beispielsweise in einem KI-basierten Bewerbungsverfahren oder bei einer automatisierten Bonitätsprüfung. Das kann insbesondere dann passieren, wenn das KI-System nicht hinreichend trainiert oder die Datenbasis unvollständig, bzw. qualitativ unzureichend ist. Die körperliche Unversehrtheit kann bei KI-Anwendungen in Medizin, Mobilität oder Industrie in Mitleidenschaft gezogen werden.
Der Rechtsrahmen, der von der EU-Kommission vorgeschlagen wurde, soll gewährleisten, dass KI-Anwendungen sicher und mit dem Wertesystem in der EU vereinbar sind und so Vertrauen schaffen. Deshalb soll er für alle Anbieter gelten, die KI-Systeme in der EU in Verkehr bringen oder in Betrieb nehmen, unabhängig davon, ob diese Anbieter in der EU oder in einem Drittland ansässig sind. Die Verordnung folgt einem risikobasierten Ansatz und unterscheidet zwischen Anwendungen von KI, die ein inakzeptables Risiko, ein hohes Risiko und ein geringes oder minimales Risiko darstellen:
Die Kategorie „Anwendungen mit einem „inakzeptablen Risiko“ umfasst KI-Systeme, die eine klare Bedrohung für die Sicherheit, die Lebensgrundlagen oder die Rechte der Menschen darstellen. Diese Anwendungen sollen grundsätzlich verboten werden. Dazu gehören Systeme, die eine Bewertung des sozialen Verhaltens (Social Scoring) von natürlichen Personen für allgemeine Zwecke durch Behörden oder in deren Auftrag durchführen. Sie können zu diskriminierenden Ergebnissen und zum Ausschluss bestimmter Gruppen führen. Ebenso verboten werden sollen Systeme, die dazu bestimmt sind, das menschliche Verhalten zu manipulieren und z.B. zu gefährlichem Verhalten ermuntern.
Der Einsatz von KI-Systemen zur biometrischen Fernidentifizierung natürlicher Personen in öffentlich zugänglichen Räumen in "Echtzeit" zum Zweck der Strafverfolgung wird als besonders eingreifend in die Rechte und Freiheiten der betroffenen Personen angesehen und soll daher ebenso verboten werden. Eine Ausnahme gilt, wenn der Einsatz erforderlich ist, z.B. bei der Suche nach Opfern bei Straftaten oder in lebensbedrohlichen Situationen. In diesen Fällen gelten strenge Regeln zur Autorisation der Anwendung.
Eine zweite Kategorie stellen KI-Anwendungen dar, die ein hohes Risiko für die Gesundheit, Sicherheit oder die Grundrechte natürlicher Personen bergen. Annex 3 der Verordnung enthält eine Liste mit Anwendungen, die als hoch riskant eingestuft werden. Dazu zählen folgende Anwendungsbereiche:
  • Sicherheitskomponenten von Produkten wie z.B. Maschinen, Spielzeuge, Aufzüge
  • kritische Infrastrukturen, z.B. im Verkehr
  • wichtige private und öffentliche Dienstleistungen (z.B. Kreditscoring bei Banken)
  • Asyl- und Migrationsverfahren, Grenzkontrollen
  • Personalmanagement, Beschäftigung, Bewerbungsverfahren
  • Schul- oder Berufsausbildung, wenn der Zugang einer Person zur Bildung und zum Berufsleben beeinträchtigt werden könnte (z. B. Bewertung von Prüfungen)
  • Strafverfolgung
  • Rechtspflege und demokratische Prozesse
Die Liste kann durch die Kommission erweitert werden. Die gelisteten KI-Systeme mit hohem Risiko sind auf dem europäischen Markt zugelassen, sofern sie bestimmte Anforderungen erfüllen:
  • Hohe Qualität der Datensätze
  • Dokumentationspflichten mit allen erforderlichen Informationen über das System und seinen Zweck
  • Protokollierung der Vorgänge, um die Rückverfolgbarkeit von Ergebnissen zu ermöglichen
  • Transparenz und Bereitstellung von Informationen für Benutzer
  • menschliche Aufsicht
  • hohes Maß an Robustheit, Genauigkeit und Sicherheit
  • angemessene Risikobewertungs- und Risikominderungssysteme
Diese Anforderungen werden in den Artikeln 8 bis 15 der Verordnung sowie im Annex konkretisiert. Auch den Anwendern und anderen Akteuren der KI-Wertschöpfungskette (z. B. Importeuren, Händlern, Bevollmächtigten) werden anteilige Verpflichtungen auferlegt.
Für Systeme mit geringem Risiko sollen besondere Transparenzverpflichtungen gelten. Insbesondere sollten natürliche Personen darüber informiert werden, dass sie mit einem KI-System interagieren, es sei denn, dies ist aus dem Nutzungskontext ersichtlich. Darüber hinaus sollten natürliche Personen benachrichtigt werden, wenn sie einem Emotionserkennungssystem oder einem System zur biometrischen Kategorisierung ausgesetzt sind.
Für Anwendungen mit minimalem Risiko, z.B. KI-gestützten Videospielen oder Spamfilter, gilt die freie Nutzung.
Die EU-Kommission schlägt in ihrem Entwurf außerdem Maßnahmen vor, um Innovationen zu unterstützen (Title V). So sollen die zuständigen nationalen Behörden ermutigt werden, Reallabore („regulatory sandboxes“) einzurichten. Diese sollen die Entwicklung und Erprobung innovativer KI-Technologien unter Aufsicht erleichtern. Kleine Anbieter und Start-ups erhalten einen vorangingen Zugang zu den Reallaboren, sofern sie die Voraussetzungen für eine Teilnahme erfüllen.