09.12.2023 Brüssel. Nach langen Verhandlungen haben sich die europäischen Gesetzgeber, das Europäische Parlament und der Rat der EU auf das Gesetz über die Künstliche Intelligenz politisch geeinigt. „Künstliche Intelligenz verändert schon heute unseren Alltag. Und das ist erst der Anfang. Klug und breit eingesetzt, verspricht KI enorme Vorteile für unsere Wirtschaft und Gesellschaft. Daher begrüße ich die heutige politische Einigung des Europäischen Parlaments und des Rates über den Rechtsakt zur Künstlichen Intelligenz sehr“, sagte Ursula von der Leyen, Präsidentin der Europäischen Kommission.
Die Präsidentin betonte weiter: „Das EU-Gesetz über die Künstliche Intelligenz ist der erste umfassende Rechtsrahmen für Künstliche Intelligenz weltweit. Dies ist also ein historischer Moment. Mit dem KI-Gesetz werden die europäischen Werte in eine neue Ära überführt. Durch die Konzentration der Regulierung auf erkennbare Risiken wird die heutige Einigung eine verantwortungsvolle Innovation in Europa fördern. Indem sie die Sicherheit und die Grundrechte von Menschen und Unternehmen garantiert, wird sie die Entwicklung, den Einsatz und die Einführung vertrauenswürdiger KI in der EU unterstützen. Unser KI-Gesetz wird einen wesentlichen Beitrag zur Entwicklung globaler Regeln und Grundsätze für menschenzentrierte KI leisten.“
„KI ist bereits ein echter Wandel, und wir, die Europäer, müssen eine rechtliche Möglichkeit haben, uns vor den schädlichsten Auswirkungen der KI zu schützen“, ergänzte Věra Jourová, Vizepräsidentin für Werte und Transparenz. „Unser Ansatz ist risikobasiert und innovationsfreundlich. Wir wollen einfach, dass die Menschen ihre Rechte behalten und die Grundrechte im digitalen Zeitalter gewahrt bleiben. Das können wir nicht nur durch Gesetze erreichen, sondern auch durch die Wertschätzung von Technologieentwicklern und die Zusammenarbeit mit ihnen, damit sie bei der Entwicklung und Implementierung von KI-Technologie einen menschenzentrierten Ansatz verfolgen.“
„Das KI-Gesetz ist viel mehr als ein Regelwerk – es ist eine Startrampe für Start-ups und Forscher in der EU, um im weltweiten Wettlauf um vertrauenswürdige KI die Führung zu übernehmen“, unterstrich EU-Binnenmarktkommissar Thierry Breton. „Dieses Gesetz ist kein Selbstzweck, sondern der Beginn einer neuen Ära der verantwortungsvollen und innovativen KI-Entwicklung, die Wachstum und Innovation in Europa fördert.“
Risikobasierter Ansatz
Die neuen Vorschriften werden in allen Mitgliedstaaten auf der Grundlage einer zukunftssicheren Definition von KI unmittelbar und in gleicher Weise angewandt. Sie folgen einem risikobasierten Ansatz:
Minimales Risiko
Die große Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Anwendungen mit minimalem Risiko wie KI-gestützte Empfehlungssysteme oder Spam-Filter werden von einem Freipass und fehlenden Verpflichtungen profitieren, da diese Systeme nur ein minimales oder gar kein Risiko für die Rechte oder die Sicherheit der Bürger darstellen. Auf freiwilliger Basis können sich die Unternehmen jedoch zu zusätzlichen Verhaltenskodizes für diese KI-Systeme verpflichten.
Hohes Risiko
KI-Systeme, die als risikoreich eingestuft werden, müssen strenge Anforderungen erfüllen, darunter Systeme zur Risikominderung, eine hohe Qualität der Datensätze, die Protokollierung von Aktivitäten, eine ausführliche Dokumentation, klare Benutzerinformationen, menschliche Aufsicht und ein hohes Maß an Robustheit, Genauigkeit und Cybersicherheit. Regulatorische Sandkästen werden verantwortungsvolle Innovationen und die Entwicklung von konformen KI-Systemen erleichtern.
Kritische Infrastrukturen
Beispiele für solche risikoreichen KI-Systeme sind bestimmte kritische Infrastrukturen, z. B. in den Bereichen Wasser, Gas und Strom, medizinische Geräte, Systeme zur Bestimmung des Zugangs zu Bildungseinrichtungen oder zur Rekrutierung von Personen oder bestimmte Systeme, die in den Bereichen Strafverfolgung, Grenzkontrolle, Rechtspflege und demokratische Prozesse eingesetzt werden. Darüber hinaus gelten biometrische Identifizierungs-, Kategorisierungs- und Emotionserkennungssysteme ebenfalls als hochriskant.
Unannehmbares Risiko
KI-Systeme, die eine eindeutige Bedrohung für die Grundrechte der Menschen darstellen, werden verboten. Dazu gehören KI-Systeme oder -Anwendungen, die das menschliche Verhalten manipulieren, um den freien Willen des Nutzers zu umgehen, wie z. B. Spielzeug mit Sprachassistenz, das gefährliches Verhalten von Minderjährigen fördert, oder Systeme, die ein „Social Scoring“ durch Regierungen oder Unternehmen ermöglichen, sowie bestimmte Anwendungen der vorausschauenden Polizeiarbeit. Darüber hinaus werden einige Anwendungen biometrischer Systeme verboten, z. B. Systeme zur Erkennung von Emotionen am Arbeitsplatz und einige Systeme zur Kategorisierung von Personen oder zur biometrischen Fernidentifizierung in Echtzeit zu Strafverfolgungszwecken in öffentlich zugänglichen Räumen (mit engen Ausnahmen).
Spezifisches Transparenzrisiko
Beim Einsatz von KI-Systemen wie Chatbots sollten sich die Nutzer bewusst sein, dass sie mit einer Maschine interagieren. Deep Fakes und andere KI-generierte Inhalte müssen als solche gekennzeichnet werden, und die Nutzer müssen informiert werden, wenn biometrische Kategorisierungs- oder Emotionserkennungssysteme verwendet werden. Darüber hinaus müssen die Anbieter ihre Systeme so gestalten, dass synthetische Audio-, Video-, Text- und Bildinhalte in einem maschinenlesbaren Format gekennzeichnet und als künstlich erzeugt oder manipuliert erkannt werden können.
Strafen
Unternehmen, die sich nicht an die Vorschriften halten, müssen mit Geldstrafen rechnen.
KI für allgemeine Zwecke
Mit dem KI-Gesetz werden spezielle Vorschriften für KI-Modelle für allgemeine Zwecke eingeführt, die für Transparenz entlang der Wertschöpfungskette sorgen werden. Für sehr leistungsfähige Modelle, die systemische Risiken darstellen könnten, wird es zusätzliche verbindliche Verpflichtungen in Bezug auf das Risikomanagement und die Überwachung schwerwiegender Vorfälle sowie die Durchführung von Modellevaluierungen und Tests mit gegnerischen Systemen geben. Diese neuen Verpflichtungen werden durch Verhaltenskodizes operationalisiert, die von der Industrie, der Wissenschaft, der Zivilgesellschaft und anderen Interessengruppen zusammen mit der Kommission entwickelt werden.
Neues Office für Künstliche Intelligenz
Was die Verwaltung betrifft, so werden die zuständigen nationalen Marktaufsichtsbehörden die Umsetzung der neuen Vorschriften auf nationaler Ebene überwachen, während die Einrichtung eines neuen europäischen AI-Offices innerhalb der Europäischen Kommission die Koordinierung auf europäischer Ebene sicherstellen wird. Das neue Office für Künstliche Intelligenz wird auch die Umsetzung und Durchsetzung der neuen Vorschriften für allgemeine KI-Modelle überwachen.
Zusammen mit den nationalen Marktaufsichtsbehörden wird das Amt für künstliche Intelligenz die erste Stelle auf der Welt sein, die verbindliche Vorschriften für künstliche Intelligenz durchsetzt, und soll daher zu einem internationalen Bezugspunkt werden. Für allgemeine Modelle wird ein wissenschaftliches Gremium unabhängiger Experten eine zentrale Rolle spielen, indem es Warnungen zu systemischen Risiken herausgibt und zur Klassifizierung und Prüfung der Modelle beiträgt.
Nächste Schritte
Die politische Einigung muss nun noch vom Europäischen Parlament und vom Rat formell genehmigt werden.
Nach der Verabschiedung des AI-Gesetzes wird es eine Übergangszeit geben, bevor die Verordnung anwendbar wird. Um diese Zeit zu überbrücken, wird die Kommission einen KI-Pakt ins Leben rufen. Er wird KI-Entwickler aus Europa und der ganzen Welt zusammenbringen, die sich auf freiwilliger Basis verpflichten, die wichtigsten Verpflichtungen des KI-Gesetzes bereits vor Ablauf der gesetzlichen Fristen umzusetzen.
Internationale Ebene
Um Regeln für vertrauenswürdige KI auf internationaler Ebene zu fördern, wird die Europäische Union weiterhin in Foren wie der G7, der OECD, dem Europarat, der G20 und der UNO mitarbeiten. Erst kürzlich haben wir die Einigung der G7-Staats- und Regierungschefs im Rahmen des Hiroshima-Prozesses für KI auf internationale Leitprinzipien und einen freiwilligen Verhaltenskodex für fortgeschrittene KI-Systeme unterstützt.
Weitere Informationen:
Die vollständige Pressemitteilung mit Hintergründen
Das Statement der EU-Kommissionspräsidentin
Neue Regeln für Künstliche Intelligenz – Fakten-Seite
Hiroshima KI-Prozess: Leitprinzipien und ein Verhaltenskodex für künstliche Intelligenz
Koordinierter Plan für künstliche Intelligenz
Verordnung über maschinelle Produkte
Haftungsregeln für Künstliche Intelligenz
Europäisches Zentrum für Algorithmische Transparenz, Gemeinsame Forschungsstelle
Quelle dieser Informationen: EU-Nachrichten der Vertretung der EU-Kommission in Deutschland