Sie sind auf Seite 1von 8

Europäische Kommission - Fragen und Antworten

Neue Vorschriften für künstliche Intelligenz – Fragen und Antworten


Brüssel, 21. April 2021
Inhalt:
1. Neuer Rechtsrahmen für KI
2. Koordinierter Plan – Aktualisierung 2021
3. Neue Maschinenverordnung
4. Nächste Schritte

1. Ein neuer Rechtsrahmen für KI


Warum muss die Verwendung künstlicher Intelligenz reguliert werden?
Der potenzielle Nutzen der KI für unsere Gesellschaften ist vielfältig und reicht von einer besseren
medizinischen Versorgung bis hin zu besserer Bildung. Angesichts der raschen technologischen
Entwicklung der KI muss die EU jetzt geschlossen handeln, um diese Chancen zu ergreifen. Von den
meisten KI-Systemen geht nur ein geringes oder gar kein Risiko aus. Bestimmte KI-Systeme bergen
aber Risiken, die jetzt angegangen werden müssen, damit es nicht zu unerwünschten Ergebnissen
kommt. So kann beispielsweise die Undurchsichtigkeit vieler Algorithmen zu Unsicherheiten führen
und eine wirksame Durchsetzung der bestehenden Rechtsvorschriften im Bereich der Sicherheit und
der Grundrechte behindern. Zur Bewältigung dieser Herausforderungen sind gesetzgeberische
Maßnahmen nötig, um einen gut funktionierenden Binnenmarkt für KI-Systeme zu schaffen, der
sowohl die Vorteile als auch die Risiken angemessen berücksichtigt. Gefahren lauern vor allem bei
Anwendungen wie biometrischen Identifizierungssystemen oder KI-gestützten Entscheidungen, die
wichtige persönliche Interessen berühren, z. B. in den Bereichen Personaleinstellung, Bildung und
Erziehung, Gesundheitsversorgung oder Strafverfolgung. Der von der Kommission vorgeschlagene
Rechtsrahmen für KI soll den Schutz der Grundrechte und die Sicherheit der Nutzer gewährleisten
und das Vertrauen in die Entwicklung und Verbreitung von KI stärken.
Welche Risiken sollen mit den neuen KI-Vorschriften angegangen werden?
Die Einführung von KI-Systemen verspricht große gesellschaftliche Vorteile, mehr
Wirtschaftswachstum und Innovation und eine gesteigerte weltweite Wettbewerbsfähigkeit der EU.
In bestimmten Fällen können jedoch die besonderen Merkmale bestimmter KI-Systeme neue Risiken
in Bezug auf die Sicherheit der Nutzer und die Grundrechte mit sich bringen. Dies führt zu
Rechtsunsicherheit für Unternehmen und – mangels Vertrauen – zu einer möglicherweise
langsameren Verwendung von KI-Technik durch Unternehmen und Bürger. Unterschiedliche
Regulierungsmaßnahmen nationaler Behörden könnten zu einer Fragmentierung des Binnenmarkts
führen.
Für wen soll der Vorschlag gelten?
Der Rechtsrahmen wird sowohl für öffentliche als auch für private Akteure innerhalb und außerhalb
der EU gelten, sofern das KI-System in der Union in Verkehr gebracht wird oder Menschen in der EU
von seiner Verwendung betroffen sind. Er erfasst sowohl Anbieter (z. B. Entwickler eines
Auswertungsprogramms für Lebensläufe) als auch Nutzer von KI-Systemen mit hohem Risiko (z. B.
eine Bank, die dieses Programm anschafft). Er gilt nicht für eine rein private, nicht gewerbliche
Verwendung.
Welche Risikoeinstufungen gibt es?
Die Kommission schlägt einen risikobasierten Ansatz mit vier Risikostufen vor:
Unannehmbares Risiko: Eine sehr geringe Zahl besonders schädlicher KI-Anwendungen, die gegen
die Werte der EU verstoßen, weil sie Grundrechte verletzen, wird verboten. Das betrifft z. B. die
Bewertung des sozialen Verhaltens durch Behörden (Social Scoring), die Ausnutzung der
Schutzbedürftigkeit von Kindern, den Einsatz von Techniken zur unterschwelligen Beeinflussung und
– mit eng gefassten Ausnahmen – biometrische Echtzeit-Fernidentifizierungssysteme, die zu
Strafverfolgungszwecken im öffentlich zugänglichen Raum eingesetzt werden.
Hohes Risiko: Eine begrenzte Zahl von KI-Systemen, die im Vorschlag definiert werden und die
sich nachteilig auf die Sicherheit der Menschen oder ihre (durch die Charta der Grundrechte der
Europäischen Union geschützten) Grundrechte auswirken, gilt als mit einem hohen Risiko behaftet.
Dem Vorschlag beigefügt ist die Liste der KI-Systeme mit hohem Risiko. Diese Liste kann
überarbeitet werden, um sie an die Entwicklung der KI-Anwendungsfälle anzupassen (und ist damit
zukunftssicher).
Zu solchen Systemen gehören auch Sicherheitskomponenten von Produkten, die unter sektorale
Rechtsvorschriften der Union fallen. Es wird stets davon ausgegangen, dass von ihnen ein hohes
Risiko ausgeht, wenn sie gemäß diesen sektoralen Rechtsvorschriften einer Konformitätsbewertung
durch Dritte unterzogen werden müssen.
Um das Vertrauen und ein einheitliches und hohes Maß an Sicherheit und Schutz der Grundrechte zu
gewährleisten, werden für alle KI-Systeme mit hohem Risiko verbindliche Anforderungen
vorgeschlagen. Diese Anforderungen betreffen die Qualität der verwendeten Datensätze, die
technische Dokumentation und das Führen von Aufzeichnungen genauso wie die Transparenz und die
Bereitstellung von Informationen für die Nutzer, die menschliche Aufsicht sowie die Robustheit,
Genauigkeit und Cybersicherheit. Bei Verstößen werden die nationalen Behörden aufgrund dieser
Anforderungen Zugang zu den Informationen erhalten, die nötig sind, um festzustellen, ob der
Einsatz des KI-Systems rechtmäßig erfolgt ist.
Der vorgeschlagene Rechtsrahmen steht im Einklang mit der Charta der Grundrechte der
Europäischen Union und ist mit den internationalen Handelsverpflichtungen der EU vereinbar.
Geringes Risiko: Bei bestimmten KI-Systemen werden besondere Transparenzverpflichtungen
auferlegt, z. B. wenn eine klare Manipulationsgefahr besteht (z. B. durch den Einsatz von Chatbots).
Den Nutzern sollte bewusst sein, dass sie es mit einer Maschine zu tun haben.
Minimales Risiko: Alle anderen KI-Systeme können unter Einhaltung des allgemein geltenden
Rechts entwickelt und verwendet werden, d. h. ohne Beachtung zusätzlicher rechtlicher
Verpflichtungen. Die große Mehrheit der KI-Systeme, die derzeit in der EU verwendet werden, fällt in
diese Kategorie. Anbieter solcher Systeme können freiwillig die Anforderungen an vertrauenswürdige
KI anwenden und freiwillige Verhaltenskodizes einhalten.
Wie wurde die Liste der eigenständigen (d. h. nicht in Produkte eingebetteten) KI-Systeme
mit hohem Risiko aufgestellt? Soll sie später aktualisiert werden?
Zusammen mit einer eindeutigen Bestimmung des Begriffs „hohes Risiko“ schlägt die Kommission
eine solide Methodik vor, die hilft, KI-Systeme mit hohem Risiko im Sinne des Rechtsrahmens zu
ermitteln. Dadurch soll Rechtssicherheit für Unternehmen und andere Akteure geschaffen werden.
Die Risikoeinstufung beruht auf der Zweckbestimmung des KI-Systems entsprechend den
bestehenden EU-Produktsicherheitsvorschriften. Dies bedeutet, dass die Einstufung des Risikos von
der Funktion des KI-Systems, von seinem konkreten Zweck und seinen Anwendungsmodalitäten
abhängt.
Diese Einstufung richtet sich nach dem Umfang und Zweck der Verwendung der KI-Anwendung, der
Anzahl der potenziell betroffenen Personen, der Abhängigkeit vom Ergebnis und der
Unumkehrbarkeit etwaiger Schäden sowie danach, inwiefern das bestehende Unionsrecht wirksame
Maßnahmen zur Beseitigung oder wesentlichen Verringerung dieser Risiken vorsieht.
Zur Verdeutlichung der Einstufungen wird eine Liste bestimmter kritischer Anwendungsgebiete
aufgestellt, zu denen die Bereiche biometrische Identifizierung und Kategorisierung, kritische
Infrastrukturen, Bildung und Erziehung, Personaleinstellung und Beschäftigung, Erbringung
wichtiger öffentlicher und privater Dienstleistungen, aber auch Strafverfolgung, Asyl und Migration
sowie Justiz gehören.
Die Anhänge des Verordnungsvorschlags enthalten eine Liste von Anwendungsfällen, in denen die
Kommission derzeit von einem hohen Risiko ausgeht. Anhand der oben erwähnten Kriterien sowie
gestützt auf Nachweise und Stellungnahmen von Sachverständigen, die in breit angelegten
Konsultationen der Interessenträger eingeholt werden, wird die Kommission dafür sorgen, dass diese
Liste stets auf dem neuesten Stand ist und zweckdienlich bleibt.
Wie wird in dem Vorschlag auf die biometrische Fernidentifizierung eingegangen?
Alle KI-Systeme, die zur biometrischen Fernidentifizierung von Personen verwendet werden sollen,
gehören nach den neuen Vorschriften in die Kategorie „hohes Risiko“, sodass vorab
Konformitätsbewertungen durch unabhängige Dritte durchgeführt und bestimmte Anforderungen an
die Dokumentation und die menschliche Aufsicht erfüllt werden müssen. Hochwertige Datensätze
und Tests werden dazu beitragen, dass solche Systeme korrekt funktionieren und sich nicht
diskriminierend auf die betroffenen Menschen auswirken.
Die biometrische Echtzeit-Fernidentifizierung im öffentlich zugänglichen Raum zu
Strafverfolgungszwecken stellt ein besonderes Risiko für die Wahrung der Grundrechte dar,
insbesondere hinsichtlich der Würde des Menschen, der Achtung des Privat- und Familienlebens, des
Schutzes personenbezogener Daten und der Nichtdiskriminierung. Sie ist daher grundsätzlich
verboten, mit wenigen eng abgesteckten Ausnahmen, die strikt definiert, begrenzt und geregelt
sind. Dazu zählen der Einsatz zu Strafverfolgungszwecken, etwa zur gezielten Suche nach
bestimmten potenziellen Verbrechensopfern oder vermissten Kindern, zur Abwendung eines
unmittelbar drohenden Terroranschlags oder zur Erkennung und Identifizierung von Personen, die
schwere Straftaten begangen haben.
An alle Systeme zur Erkennung von Emotionen und zur biometrischen Kategorisierung werden
zudem besondere Transparenzanforderungen gestellt. Sie werden ebenfalls als Anwendungen mit
hohem Risiko eingestuft, wenn sie zu den betreffenden Anwendungsfällen gehören, beispielsweise in
den Bereichen Beschäftigung, Bildung und Erziehung, Strafverfolgung, Migration und Grenzkontrolle.
Warum sind für die biometrische Fernidentifizierung besondere Vorschriften erforderlich?
Die biometrische Identifizierung kann in verschiedenen Formen erfolgen. Sie kann zur
Benutzerauthentifizierung verwendet werden, etwa zur Entsperrung eines Smartphones oder zur
Verifizierung (Authentifizierung) bei Grenzübertritten, um die Identität einer Person anhand ihrer
Reisedokumente (One-to-one-Matching) zu kontrollieren. Biometrische Identifizierung könnte auch
aus der Ferne verwendet werden, um Personen in einer Menschenmenge zu identifizieren, wobei z. B.
ein Bild einer Person mit einer Datenbank abgeglichen wird (One-to-many-Matching).
Aufgrund einer Vielzahl von Faktoren wie Kameraqualität, Licht, Entfernung, Datenbank, Algorithmus
sowie ethnische Herkunft, Alter oder Geschlecht der Personen kann die Genauigkeit von
Gesichtserkennungssystemen erheblich variieren. Gleiches gilt auch für die Erkennung von Gangart
und Sprache sowie andere biometrische Systeme. Bei hochmodernen Systemen werden die
Falscherkennungsraten zwar ständig verringert. Doch selbst wenn eine Genauigkeit von 99 % im
Allgemeinen recht gut klingen mag, stellt es ein erhebliches Risiko dar, wenn das Ergebnis dazu
führt, dass eine unschuldige Person verdächtigt wird. Selbst eine Fehlerquote von 0,1 % ist viel,
wenn es um Zehntausende Personen geht.
Welche Pflichten haben Anbieter von KI-Systemen mit hohem Risiko?
Bevor KI-Systeme, die mit hohem Risiko behaftet sind, in der EU in Verkehr gebracht oder
anderweitig in Betrieb genommen werden dürfen, müssen sich die Anbieter einer
Konformitätsbewertung unterziehen. Damit können sie nachweisen, dass ihr System den
verbindlichen Anforderungen an vertrauenswürdige KI entspricht (z. B. in Bezug auf Datenqualität,
Dokumentation und Rückverfolgbarkeit, Transparenz, menschliche Aufsicht, Genauigkeit und
Robustheit). Sollte später das System selbst oder sein Zweck wesentlich geändert werden, so muss
die Bewertung wiederholt werden. Bei bestimmten KI-Systemen muss zudem eine benannte
unabhängige Bewertungsstelle in diesen Prozess einbezogen werden. Bei KI-Systemen, die
Sicherheitskomponenten von Produkten sind, die unter sektorale Rechtsvorschriften der EU fallen,
wird stets davon ausgegangen, dass von ihnen ein hohes Risiko ausgeht, wenn sie gemäß diesen
sektoralen Rechtsvorschriften einer Konformitätsbewertung durch Dritte unterzogen werden müssen.
Ebenso ist bei biometrischen Identifizierungssystemen stets eine Konformitätsbewertung durch
Dritte erforderlich.
Außerdem müssen Anbieter von KI-Systemen mit hohem Risiko Qualitäts- und
Risikomanagementsysteme einführen, um die Einhaltung der neuen Anforderungen sicherzustellen
und die Risiken für Nutzer und betroffene Personen zu minimieren, auch nachdem ein Produkt bereits
in Verkehr gebracht wurde. Zur Überwachung nach dem Inverkehrbringen werden die
Marktüberwachungsbehörden Audits durchführen und den Anbietern die Möglichkeit bieten,
schwerwiegende Vorfälle oder Grundrechtsverstöße, von denen sie Kenntnis erlangen, zu melden.
Wie wird die Einhaltung durchgesetzt?
Den Mitgliedstaaten kommt bei der Anwendung und Durchsetzung dieser Verordnung eine
Schlüsselrolle zu. Dazu sollte jeder Mitgliedstaat eine oder mehrere zuständige nationale Behörden
benennen, die die Anwendung und Umsetzung beaufsichtigen und die Marktüberwachung
wahrnehmen. Im Interesse der Effizienz sollte jeder Mitgliedstaat als offizielle Kontaktstelle für die
Öffentlichkeit und für andere Stellen eine nationale Aufsichtsbehörde benennen, die das Land auch
im Europäischen Ausschuss für künstliche Intelligenz vertritt.
Welche Sanktionen sind bei Verstößen vorgesehen? *
Für den Fall, dass KI-Systeme in Verkehr gebracht oder in Betrieb genommen werden, die den
Anforderungen der Verordnung nicht genügen, müssen die Mitgliedstaaten wirksame,
verhältnismäßige und abschreckende Sanktionen, einschließlich Geldbußen, festlegen
und diese der Kommission mitteilen.
Dafür werden in der Verordnung bestimmte Schwellenwerte festgelegt:
bis zu 30 Mio. EUR oder 6 % des gesamten weltweiten Vorjahresumsatzes (je
nachdem, welcher Wert höher ist) bei Verstößen durch verbotene Praktiken oder
Verletzung von Datenanforderungen;
bis zu 20 Mio. EUR oder 4 % des gesamten weltweiten Vorjahresumsatzes bei
Verstößen gegen andere Anforderungen oder Verpflichtungen aus der Verordnung;
bis zu 10 Mio. EUR oder 2 % des gesamten weltweiten Vorjahresumsatzes bei
falschen, unvollständigen oder irreführenden Angaben in angeforderten Auskünften
an benannte Stellen und zuständige nationale Behörden.
Zur Harmonisierung der nationalen Vorschriften und Verfahren bei der Festsetzung von
Geldbußen wird die Kommission auf Empfehlung des Ausschusses Leitlinien
ausarbeiten.
Da die Organe, Einrichtungen und sonstigen Stellen der EU mit gutem Beispiel vorangehen
sollten, werden die Vorschriften und möglichen Sanktionen auch für sie gelten, und der
Europäische Datenschutzbeauftragte wird befugt sein, Geldbußen gegen sie zu verhängen.
Was ist der Europäische Ausschuss für künstliche Intelligenz?
Der Europäische Ausschuss für künstliche Intelligenz soll sich aus hochrangigen Vertretern der
zuständigen nationalen Aufsichtsbehörden, des Europäischen Datenschutzbeauftragten und der
Kommission zusammensetzen. Seine Aufgabe wird es sein, eine reibungslose, wirksame und
einheitliche Umsetzung der neuen KI-Verordnung zu erleichtern. Der Ausschuss wird der Kommission
Empfehlungen und Stellungnahmen zu KI-Systemen mit hohem Risiko und zu anderen Aspekten
vorlegen, die für eine wirksame und einheitliche Umsetzung der neuen Vorschriften von Bedeutung
sind. Außerdem wird er helfen, Fachwissen aufzubauen, und den nationalen Behörden als
Kompetenzzentrum dienen, das sie konsultieren können. Nicht zuletzt wird er auch
Normungstätigkeiten in diesem Bereich unterstützen.
Wie werden die Grundrechte durch die neuen Vorschriften geschützt?
Wenngleich auf der Ebene der EU und der Mitgliedstaaten bereits ein starker Schutz der Grundrechte
und gegen Diskriminierung besteht, stellen die Komplexität und Undurchsichtigkeit bestimmter KI-
Anwendungen („Blackbox“) ein Problem dar. Ein auf den Menschen ausgerichteter Ansatz für KI
bedeutet, dass KI-Anwendungen mit den Rechtsvorschriften zum Schutz der Grundrechte im
Einklang stehen müssen. Die Anforderungen an Rechenschaftspflicht und Transparenz beim Einsatz
von KI-Systemen mit hohem Risiko werden in Verbindung mit verbesserten
Durchsetzungskapazitäten sicherstellen, dass die Einhaltung der Rechtsvorschriften bereits ab der
Entwicklungsphase berücksichtigt wird. Bei Verstößen werden die nationalen Behörden aufgrund
dieser Anforderungen Zugang zu den Informationen erhalten, die nötig sind, um festzustellen, ob der
Einsatz von KI rechtmäßig erfolgt ist.
Wie soll diese Verordnung darauf hinwirken, dass KI zu keinen Verzerrungen aufgrund der
Rasse oder des Geschlechts führt? *
Es ist äußerst wichtig, dass KI-Systeme keine Voreingenommenheit schaffen und keine
derartigen Verzerrungen reproduzieren. KI-Systeme können – wenn sie richtig konzipiert
und eingesetzt werden – vielmehr dazu beitragen, Verzerrungen der Wirklichkeit und
bestehende strukturelle Diskriminierungen zu verringern, und somit zu gerechteren,
diskriminierungsfreien Entscheidungen führen (z. B. bei Personaleinstellungen).
Die neuen verbindlichen Anforderungen an alle KI-Systeme mit hohem Risiko dienen
diesem Zweck. KI-Systeme müssen technisch robust sein und Garantien dafür bieten, dass
die Technik ihren Zweck erfüllt und geschützte Gruppen (z. B. wegen Rasse oder ethnischer
Herkunft, Geschlecht, Alter usw.) nicht unverhältnismäßig stark von falsch positiven oder
falsch negativen Ergebnissen betroffen sind.
KI-Systeme mit hohem Risiko werden zudem mit ausreichend repräsentativen
Datensätzen zu trainieren und zu testen sein, um das Risiko, dass unfaire
Verzerrungen schon im Modell selbst begründet sind, möglichst gering zu halten und
um sicherzustellen, dass solchen Verzerrungen mit geeigneten Maßnahmen zur Erkennung,
Korrektur und sonstigen Risikominderung begegnet werden kann.
Darüber hinaus müssen sie rückverfolgbar und überprüfbar sein, und es müssen
angemessene Unterlagen aufbewahrt werden, wozu auch die Daten gehören, mit denen der
Algorithmus trainiert wurde, da diese für nachträgliche Untersuchungen unverzichtbar sind.
Die Beaufsichtigung der Einhaltung der Anforderungen vor und nach dem Inverkehrbringen
der KI-Systeme muss sicherstellen, dass solche Systeme regelmäßig überwacht werden und dass
möglichen Risiken unverzüglich entgegengewirkt wird.
Was sind freiwillige Verhaltenskodizes?
Anbieter von KI-Anwendungen, die kein hohes Risiko darstellen, können die Vertrauenswürdigkeit
ihrer KI-Systeme dadurch stärken, dass sie eigene freiwillige Verhaltenskodizes aufstellen oder sich
den Verhaltenskodizes anderer repräsentativer Verbände anschließen. Diese werden parallel zu den
Transparenzverpflichtungen für bestimmte KI-Systeme gelten. Die Kommission wird
Branchenverbände und andere repräsentative Organisationen zur Aufstellung freiwilliger
Verhaltenskodizes anhalten.
Müssen auch importierte KI-Systeme und -Anwendungen dem Rechtsrahmen entsprechen?
Ja. Die Importeure von KI-Systemen müssen sicherstellen, dass der ausländische Anbieter bereits
das entsprechende Konformitätsbewertungsverfahren durchgeführt hat und über die nach der
Verordnung erforderlichen technischen Unterlagen verfügt. Außerdem müssen die Importeure sich
vergewissern, dass die Systeme mit einer europäischen Konformitätskennzeichnung (CE) versehen
sind und die erforderlichen Unterlagen und Gebrauchsanweisungen beigefügt sind.
Wie können die neuen Vorschriften die Innovation fördern?
Der Rechtsrahmen kann die Verbreitung von KI auf zweierlei Weise fördern. Einerseits erhöht ein
größeres Vertrauen der Nutzer die Nachfrage nach KI, die in Unternehmen und Behörden eingesetzt
wird. Andererseits erhalten KI-Anbieter dank der höheren Rechtssicherheit und einheitlicher
Vorschriften Zugang zu größeren Märkten mit ihren Produkten, die von Nutzern und Verbrauchern
geschätzt und gekauft werden.
Die Vorschriften werden nur angewandt, soweit dies unbedingt erforderlich ist, und zwar mit einer
schlanken Verwaltungsstruktur und in einer Weise, die die Wirtschaftsteilnehmer so wenig wie
möglich belastet. Darüber hinaus wird ein Ökosystem für Exzellenz – mit regulatorischen
„Sandkästen“, die ein kontrolliertes Umfeld bieten, in dem innovative Technik für einen begrenzten
Zeitraum getestet werden kann, aber auch Zugang zu digitalen Innovationszentren und Zugang zu
Erprobungs- und Versuchseinrichtungen – dazu beitragen, dass innovative Unternehmen, KMU und
Start-ups unter Einhaltung der neuen KI-Vorschriften und der anderen geltenden Rechtsvorschriften
weiterhin innovativ sein können. Zusammen mit anderen Maßnahmen wie den zusätzlichen Netzen
der KI-Exzellenzzentren und der öffentlich-privaten Partnerschaft für künstliche Intelligenz, Daten
und Robotik werden sie dazu beitragen, die richtigen Rahmenbedingungen für die Entwicklung und
den Einsatz von KI zu schaffen.
Welche internationale Dimension hat das EU-Konzept?
Der Vorschlag für einen Rechtsrahmen und der koordinierte Plan für KI sind Teil der Bemühungen der
Europäischen Union um eine weltweite Führungsrolle bei der Förderung einer vertrauenswürdigen KI
auf internationaler Ebene. KI ist heute ein Gebiet von strategischer Bedeutung an der Schnittstelle
geopolitischer Bestrebungen, wirtschaftlicher Interessen und sicherheitspolitischer Bedenken. Auf
der ganzen Welt setzen Länder heute KI ein und bekunden damit ihren Wunsch, ausgehend von der
Nützlichkeit und dem Potenzial der KI technische Fortschritte zu erzielen. Die Regulierung der
künstlichen Intelligenz steht noch am Anfang, weshalb die EU Maßnahmen ergreifen wird, um die
Festlegung weltweiter Normen zu fördern, und zwar in enger Zusammenarbeit mit internationalen
Partnern und im Einklang mit dem regelbasierten multilateralen System und den Werten, für die sie
eintritt. Die EU ist bestrebt, ihre Partnerschaften, Koalitionen und Allianzen mit Partnern der EU (z. B.
Japan, USA oder Indien) sowie mit multilateralen (z. B. OECD und G20) und regionalen
Organisationen (z. B. Europarat) zu vertiefen.

2. Koordinierter Plan – Aktualisierung 2021


Was hat sich im Vergleich zum koordinierten Plan von 2018 geändert?
Mit dem koordinierten Plan von 2018 wurde die Grundlage für eine politische Koordinierung im
Bereich der KI gelegt, und die Mitgliedstaaten wurden angehalten, nationale Strategien zu
entwickeln. Seitdem hat sich der technologische, wirtschaftliche und politische Kontext im Bereich
der KI jedoch erheblich weiterentwickelt, weshalb die Kommission zur Aufrechterhaltung der
Flexibilität und Zweckmäßigkeit nun die Überarbeitung 2021 des koordinierten Plans vorlegt. Mit
Blick auf eine stärkere Verknüpfung mit dem europäischen Grünen Deal, die Einbeziehung der sich
entwickelnden Märkte und die Bewältigung der Coronavirus-Pandemie, werden in dem überarbeiteten
Plan die vorgeschlagenen Maßnahmen für die Bereiche Umwelt und Gesundheit verstärkt.
Welches Ziel hat der koordinierten Plan?
Der koordinierte Plan sieht konkrete gemeinsame Maßnahmen vor, die von der Europäischen
Kommission und den Mitgliedstaaten ergriffen werden sollen, um eine weltweite Führungsrolle der
EU im Bereich der vertrauenswürdigen KI aufzubauen. Die vorgeschlagenen Schlüsselmaßnahmen
sind Ausdruck der Überzeugung, dass die Europäische Kommission gemeinsam mit den
Mitgliedstaaten und privaten Akteuren folgende Ziele verfolgen muss: Beschleunigung der
Investitionen in KI-Technik, um eine robuste wirtschaftliche und soziale Erholung zu fördern, die
durch die Einführung „neuer“ digitaler Lösungen erleichtert wird; vollständige und rasche Umsetzung
der KI-Strategien und -Programme, damit die EU in vollem Umfang von den mit ihrer Vorreiterrolle
verbundenen Vorteilen profitieren kann; gegenseitige Abstimmung der KI-Politik, um jegliche
Fragmentierung zu beseitigen und globale Herausforderungen anzugehen.
Wie viele Mitgliedstaaten haben eine nationale KI-Strategie aufgestellt?
Insgesamt haben 19 Mitgliedstaaten (Bulgarien, Dänemark, Deutschland, Estland, Finnland,
Frankreich, Lettland, Litauen, Luxemburg, Malta, Niederlande, Portugal, Slowakei, Schweden,
Tschechien, Ungarn, Zypern und zuletzt im Dezember 2020 auch Polen und Spanien) sowie
Norwegen nationale KI-Strategien aufgestellt.
Wie wird die EU dafür sorgen, dass Spitzenleistungen zügig vom Labor auf den Markt
gelangen?
Der überarbeitete koordinierte Plan enthält das Ziel der Kofinanzierung von Erprobungs- und
Versuchseinrichtungen, die so zu einer gemeinsamen, hochspezialisierten Ressource auf EU-Ebene
werden können, die die rasche Einführung und größere Verbreitung von KI unterstützt.
Überdies baut die Kommission ein Netz europäischer digitaler Innovationszentren auf. Dabei handelt
es sich um zentrale Anlaufstellen, die den KMU und Behörden helfen, in diesem Bereich
wettbewerbsfähiger zu werden.
Die öffentlich-private Partnerschaft für KI, Daten und Robotik trägt ebenfalls dazu bei, unsere
Anstrengungen zur Steigerung der Ressourcen zu bündeln, denn sie hilft bei der Entwicklung und
Umsetzung einer strategischen Forschungs-, Innovations- und Einführungsagenda sowie eines
dynamischen EU-weiten KI-Innovationsökosystems.
Die aus dem Investitionsfonds für KI- und Blockchain-Technik und über den Europäischen
Innovationsrat bereitgestellten Mittel haben sich als erfolgreich erwiesen und sollten aufgestockt
werden, z. B. auch mithilfe von InvestEU und im Zuge der Umsetzung der Aufbau- und
Resilienzfazilität durch die Mitgliedstaaten.
Wie will die EU eine strategische Führungsrolle in hochwirksamen Sektoren erlangen?
Um den Marktentwicklungen und den laufenden Maßnahmen in den Mitgliedstaaten Rechnung zu
tragen und die weltweite Position der EU zu stärken, werden im koordinierten Plan sieben neue
sektorale Aktionsbereiche aufgeführt. Die gemeinsamen Maßnahmen in den Bereichen Umwelt und
Gesundheit sind notwendig, um Ressourcen zu mobilisieren, damit die Ziele des europäischen
Grünen Deals erreicht werden und die Coronavirus-Pandemie wirksam bewältigt werden kann.
Darüber hinaus gibt die Kommission Anregungen und macht Vorschläge für konkrete und durch
Finanzierungsinstrumente unterstützte Maßnahmen zur Koordinierung und zur Bündelung von
Ressourcen in weiteren fünf weiteren Bereichen: öffentlicher Sektor, Robotik, Mobilität, Inneres
und Landwirtschaft.
Wie werden die Mitgliedstaaten in KI investieren?
Die Verfügbarkeit größtmöglicher Ressourcen und die Koordinierung der Investitionen spielen eine
entscheidende Rolle, weshalb sie wichtige Bestandteile der KI-Strategie der Kommission sind. Im
Rahmen des Programms Digitales Europa, des ersten Finanzierungsinstruments der EU für digitale
Technik, und des Programms Horizont Europa plant die Kommission Investitionen in die KI in Höhe
von 1 Mrd. EUR jährlich. Ziel ist die Mobilisierung zusätzlicher Investitionen aus dem Privatsektor
und von den Mitgliedstaaten, um im Laufe dieses Jahrzehnts ein jährliches Investitionsvolumen von
20 Mrd. EUR zu erreichen. Aus der kürzlich verabschiedeten Aufbau- und Resilienzfazilität, dem
größten Konjunkturpaket, das jemals aus dem EU-Haushalt finanziert wurde, werden 134 Mrd. EUR
für die Digitalisierung zur Verfügung stehen. Dies markiert einen grundlegenden Wendepunkt, denn
Europa gibt sich damit die Möglichkeit, ehrgeizigere Ziele zu verfolgen und eine weltweite
Führungsposition bei der Schaffung einer hochentwickelten, vertrauenswürdigen KI zu erlangen.
Wie tragen die von der EU geförderten KI-Lösungen zur Verwirklichung der Ziele des
Grünen Deals bei?
Die Kommission wird die Forschung in diesem Bereich weiter beschleunigen, indem sie auf eine
nachhaltige KI drängt (z. B. durch die Entwicklung von KI-Modellen, die weniger datenintensiv und
energiehungrig sind). Im Rahmen von Horizont Europa laufen dazu besondere Aufforderungen zur
Einreichung von Vorschlägen für KI, Daten und Robotik im Dienste des Grünen Deals sowie für eine
umweltbewusstere KI. Wie in der EU-Datenstrategie angekündigt, wird die Kommission mithilfe des
Programms „Digitales Europa“ in umweltfreundliche KI investieren können, z. B. in die Schaffung von
Datenräumen für Bereiche wie Umwelt, Energie und Landwirtschaft, damit mehr Daten für die
Nutzung in Wirtschaft und Gesellschaft zur Verfügung stehen. Außerdem wird die Kommission in
Erprobungs- und Versuchseinrichtungen investieren, deren Schwerpunkt auf Umwelt und Klima liegt
(z. B. Landwirtschaft, Fertigung und intelligente Städte/Gemeinden) und die so dank ihrer
ökologischen Ausrichtung einen Beitrag zum Umwelt- und Klimaschutz leisten können. Die Aufbau-
und Resilienzfazilität bietet eine einzigartige Gelegenheit für das Ergreifen nationaler Maßnahmen zur
Unterstützung sowohl des digitalen Wandels (einschließlich KI) als auch des ökologischen Wandels.

3. Die neue Maschinenverordnung


Was hat die Maschinenverordnung mit KI zu tun?
Die Vorschriften für Maschinen stellen sicher, dass die neue Generation von Maschinenprodukten die
Sicherheit der Benutzer und Verbraucher gewährleistet und die Innovation fördert.
Maschinenprodukte umfassen eine breite Palette von Verbraucherprodukten und Produkten für den
gewerblichen Gebrauch – von Robotern (z. B. Reinigungsroboter, persönliche Assistenzroboter,
kollaborative Roboter, Industrieroboter) über Rasenmäher bis zu 3D-Druckern und von
Baumaschinen bis hin zu industriellen Produktionslinien.
Wie fügt sie sich in den Rechtsrahmen für KI ein?
Beide ergänzen sich. In der KI-Verordnung geht es um die Sicherheitsrisiken, die von KI-Systemen
ausgehen, die Sicherheitsfunktionen in Maschinen steuern, wogegen die Maschinenverordnung
gegebenenfalls gewährleisten soll, dass ein KI-System auf sichere Weise in die gesamte Maschine
integriert wird, damit die Sicherheit der Maschine insgesamt nicht beeinträchtigt wird.
Wie wird die neue Verordnung eine hohe technische Sicherheit gewährleisten?
Mit der Maschinenverordnung werden der Anwendungsbereich, einige Begriffsbestimmungen sowie
die Sicherheitsanforderungen angepasst, um mehr Rechtsklarheit zu schaffen und den neuen
Merkmalen von Maschinenprodukten Rechnung zu tragen. Darüber hinaus werden Einstufungsregeln
für Maschinen mit hohem Risiko festgelegt und es wird eine Konformitätsbewertung für grundlegend
veränderte Maschinenprodukte vorgeschrieben, um ein hohes Sicherheitsniveau zu gewährleisten.
Was werden Unternehmen und insbesondere KMU davon haben?
Die Unternehmen werden für beide Verordnungen (KI-Verordnung und Maschinenverordnung) nur
eine einzige Konformitätsbewertung durchführen müssen. Die neuen Rechtsvorschriften verringern
auch den administrativen und finanziellen Aufwand für die Hersteller, denn sie lassen digitale
Gebrauchsanleitungen und Konformitätserklärungen zu und sehen eine Anpassung der Gebühren für
KMU vor, wenn Dritte an der Konformitätsbewertung von Maschinen mitwirken müssen.

4. Nächste Schritte
Nun müssen die Vorschläge der Kommission für ein europäisches Konzept für künstliche Intelligenz
und für eine Maschinenverordnung vom Europäischen Parlament und von den Mitgliedstaaten im
ordentlichen Gesetzgebungsverfahren angenommen werden. Sobald die Verordnungen verabschiedet
sind, werden sie unmittelbar in der gesamten EU gelten. Parallel dazu wird die Kommission weiter
mit den Mitgliedstaaten zusammenarbeiten, um die im koordinierten Plan angekündigten
Maßnahmen umzusetzen.
* Aktualisiert am 26.4.2021 um 14:00 Uhr
QANDA/21/1683

Kontakt für die Medien:


Johannes BAHRKE (+32 2 295 86 15)
Charles MANOURY (+32 2 291 33 91)
Kontakt für die Öffentlichkeit: Europe Direct – telefonisch unter 00 800 67 89 10 11 oder per E-Mail