KI-Gesetz: erste Regulierung der künstlichen Intelligenz

Der Einsatz von künstlicher Intelligenz in der EU wird durch das KI-Gesetz geregelt, das weltweit erste umfassende KI-Gesetz. Erfahren Sie, wie es Sie schützen wird.

Ein Mann steht vor einer computergenerierten Figur mit Programmiersprache im Hintergrund.
Dieses Symbolbild für künstliche Intelligenz ist von der KI generiert.

Als Teil ihrer digitalen Strategie will die EU künstliche Intelligenz (KI) regulieren, um bessere Bedingungen für die Entwicklung und Nutzung dieser innovativen Technologie zu schaffen. KI kann viele Vorteile mit sich bringen, zum Beispiel eine bessere Gesundheitsfürsorge, einen sichereren und saubereren Verkehr, eine effizientere Fertigung sowie eine billigere und nachhaltigere Energieversorgung.

Im April 2021 hat die Kommission den ersten EU-Rechtsrahmen für KI vorgeschlagen. Darin wird empfohlen, dass KI-Systeme, die in verschiedenen Anwendungen eingesetzt werden können, je nach dem Risiko, das sie für die Nutzer darstellen, analysiert und eingestuft werden. Die verschiedenen Risikostufen unterliegen zu mehr oder weniger Regulierung.

Erfahren Sie mehr darüber, was ist künstliche Intelligenz ist und wie sie genutzt wird.

Was das Parlament von der KI-Gesetzgebung erwartet

Das Europäische Parlament will vor allem sicherstellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern.

Das Parlament möchte außerdem eine technologieneutrale, einheitliche Definition für KI festlegen, die auf zukünftige KI-Systeme angewendet werden könnte.

Erfahren Sie mehr über die Arbeit des Parlaments zum Thema KI und seine Vision für die Zukunft der KI.

Gesetz über künstliche Intelligenz: ein risikobasierter Ansatz

Die neuen Vorschriften legen Verpflichtungen für Anbieter und Nutzer fest, die sich nach dem Risiko, das von dem KI-System ausgeht, richten. Obwohl viele KI-Systeme ein minimales Risiko darstellen, müssen sie bewertet werden.

Unannehmbares Risiko

KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme werden verboten. Sie umfassen:

  • kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, zum Beispiel sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert;
  • Soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;
  • biometrische Identifizierung und Kategorisierung natürlicher Personen;
  • biometrischen Echtzeit-Fernidentifizierungssystemen, zum Beispiel Gesichtserkennung.


Einige Ausnahmen können für Strafverfolgungszwecke zugelassen werden. Biometrische Echtzeit-Fernidentifizierungssysteme werden in einer begrenzten Anzahl schwerwiegender Fälle zulässig sein. System zur nachträglichen biometrischen Fernidentifizierung, bei denen die Identifizierung erst mit erheblicher Verzögerung erfolgt, können zur Verfolgung schwerer Straftaten und nur nach gerichtlicher Genehmigung zulässig sein.

Hochrisiko-KI-Systeme

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und werden in zwei Hauptkategorien eingeteilt.

1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.

2. KI-Systeme, die in spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:

  • Verwaltung und Betrieb von kritischen Infrastrukturen;
  • allgemeine und berufliche Bildung;
  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;
  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;
  • Strafverfolgung;
  • Verwaltung von Migration, Asyl und Grenzkontrollen;
  • Unterstützung bei der Auslegung und Anwendung von Gesetzen.


Alle KI-Systeme mit hohem Risiko werden vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet. Die Bürger werden das Recht haben, bei den zuständigen nationalen Behörden Beschwerden über KI-Systeme einzureichen.

Transparenzanforderungen

Generative Foundation-Modelle wie ChatGPT werden nicht als risikoreich eingestuft, müssen aber Transparenzanforderungen und das EU-Urheberrecht erfüllen:

  • Offenlegung, dass der Inhalt durch KI generiert wurde;
  • Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;
  • Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.


KI-Systeme mit allgemeinem Verwendungszweck und beträchtlichen Auswirkungen, die ein Systemrisiko darstellen könnten, wie das fortgeschrittene KI-Modell GPT-4, müssten gründlich bewertet werden und alle schwerwiegenden Vorfälle wären der Kommission zu melden.

Inhalte, die mit Hilfe von KI erzeugt oder verändert wurden – Bilder, Audio- oder Videodateien (z. B. Deepfakes)–, müssen eindeutig als KI-generiert gekennzeichnet werden, damit die Nutzer wissen, wenn sie auf solche Inhalte stoßen.

Förderung der Innovation

Mit dem Gesetz soll KMU und Start-ups die Möglichkeit gegeben werden, KI-Modelle zu entwickeln und zu trainieren, bevor sie für die breite Öffentlichkeit freigegeben werden.

Aus diesem Grund müssen die nationalen Behörden den Unternehmen eine Testumgebung zur Verfügung stellen, die realitätsnahe Bedingungen simuliert.

Nächste Schritte

Der vereinbarte Text wird auf einer der nächsten Plenartagungen des Parlaments förmlich angenommen werden. Er wird 24 Monate nach Inkrafttreten in vollem Umfang anwendbar sein, aber einige Teile werden schon früher anwendbar sein:

  • das Verbot von KI-Systemen, die unannehmbare Risiken darstellen, wird sechs Monate nach Inkrafttreten gelten;
  • die Verhaltenskodizes werden neun Monate nach Inkrafttreten gelten;
  • Vorschriften für KI-Systeme mit allgemeinem Verwendungszweck, die den Transparenzanforderungen genügen müssen, gelten zwölf Monate nach Inkrafttreten.


Systeme mit hohem Risiko werden mehr Zeit haben, um die Anforderungen zu erfüllen; die sie betreffenden Verpflichtungen werden 36 Monate nach dem Inkrafttreten gelten.