Sie sind auf Seite 1von 3

Verlieren die Menschen die Kontrolle über

die Maschinen? KI-Entwickler sollen ihre


Modelle künftig von einem
Sicherheitsinstitut überprüfen lassen
Um die Gefahren der künstlichen Intelligenz zu bannen, verständigen sich
Regierungen und Techfirmen bei einem Gipfel in Grossbritannien auf Sicherheitstests
für neue Anwendungen. London sucht bei der Regulierung der Zukunftstechnologie
eine führende Rolle zwischen den grossen Blöcken USA, China und EU.

Der britische Premierminister Rishi Sunak gilt eher als Technokrat denn als
Vollblutpolitiker. Seit seinem Studium in Stanford fühlt er sich der kalifornischen
Tech-Szene verbunden. Dazu passt, dass er sich bis ins Detail für die Risiken und
Chancen neuer Technologien interessiert – und sich nach Kräften darum bemüht,
Grossbritannien als führenden Akteur in der Debatte über den Umgang mit künstlicher
Intelligenz (KI) zu positionieren.

Worst-Case-Szenarien
Ausdruck dieses Bestrebens war der internationale Gipfel zur KI-Sicherheit, zu dem
Sunak am Mittwoch und Donnerstag Vertreter von Regierungen, Techfirmen sowie
der Zivilgesellschaft geladen hatte. Symbolträchtiger Austragungsort des Treffens war
Bletchley Park, wo Spezialisten des britischen Geheimdiensts im Zweiten Weltkrieg
unter Einsatz des ersten programmierbaren elektronischen Computers die Funkcodes
der Nazis geknackt hatten.
Zu den Teilnehmern des Gipfels zählten der Schweizer Energieminister Albert Rösti,
der deutsche Wirtschaftsminister Robert Habeck, die amerikanische Vizepräsidentin
Kamala Harris und der chinesische Technologie-Minister Wu Zhaohui. Die
Beteiligung Chinas hatte im Vorfeld für Kritik und Misstöne gesorgt. Sunak
entgegnete, man könne nur über die Sicherheit von KI diskutieren, wenn alle global
relevanten Akteure am Tisch sässen.

Im Zentrum der Beratungen standen weniger neue Regeln für alltägliche


Anwendungen von KI, die menschliche Fähigkeiten wie logisches Denken, Lernen,
Planen und Kreativität imitieren kann. Vielmehr ging es um Sicherheitsrisiken, die
verheerende Folgen für die Menschheit haben könnten – Sunak zog Vergleiche zu
einer Pandemie oder einem Atomschlag.

In einem Papier skizzierte seine Regierung verschiedene Schreckensszenarien. Für


Kriminelle und Terroristen könne es leichter werden, Betrug zu begehen,
Cyberattacken zu planen oder mit Falschinformationen Unsicherheit zu stiften. Zudem
könnten KI-Anwendungen bei der Entwicklung biologischer oder chemischer Waffen
helfen.

Im Vorfeld des Gipfels sprach Sunak gar von der Gefahr einer künstlichen
Superintelligenz, über die die Menschheit die Kontrolle verlieren könnte. Ins gleiche
Horn blies Elon Musk, mit dem Sunak am Donnerstagabend auch ein Gespräch führte,
das auf Musks Plattform X veröffentlicht wurde. Der Tech-Milliardär erklärte, eine
KI-Anwendung könnte dereinst nach Vorgaben von radikalen Klimaschützern die
Auslöschung der Menschheit in die Wege leiten, um die Umwelt zu bewahren.

Institut solle Modelle testen


Wie realistisch solche Extremszenarien sind, ist unter Experten umstritten. Mustafa
Suleyman, Mitbegründer von Google Deepmind, betonte, er glaube nicht, dass die
derzeitig verfügbaren Modelle in der Lage seien, katastrophale Schäden anzurichten.
Sunak wehrte sich allerdings gegen den Vorwurf des Alarmismus und erklärte, es liege
in der Verantwortung der Regierungen, Vorkehrungen zu treffen.

Vollmundig erklärte Sunak, der Gipfel habe im Kampf zwischen humaner und
künstlicher Intelligenz «die Gewichte zugunsten der Menschheit verschoben». So
einigten sich die Techfirmen und die Regierungen in einer rechtlich nicht bindenden
Vereinbarung darauf, dass neuartige KI-Modelle auf ihre Gefahren für Gesellschaft
und nationale Sicherheit hin getestet werden sollen.

Diese Tests sollen nicht nur nach der Lancierung der Modelle erfolgen, sondern bereits
bevor sie in Umlauf gebracht werden. Grossbritannien kündigte zu diesem Zweck
die Schaffung eines Instituts für KI-Sicherheit an. Weiter einigten sich die
Gipfelteilnehmer auf die Einsetzung eines mit dem Uno-Klimarat (IPPC)
vergleichbaren Gremiums, das die Entwicklung der KI wissenschaftlich begleiten und
die Regierungen auf allfällige Gefahren hinweisen soll.
Sunaks Gipfel ist auch insofern ein Erfolg, als Südkorea und Frankreich im
kommenden Jahr Nachfolgetreffen organisieren wollen. Dennoch bleibt abzuwarten,
welche Rolle die in Bletchley Park beschlossenen Gremien bei der internationalen
Regulierung spielen werden.

Denn nicht nur die Techfirmen, sondern auch die Staaten stehen in Konkurrenz
zueinander. So haben die USA deutlich gemacht, dass sie die Rolle des Vorreiters in
der internationalen KI-Regulierung für sich selber beanspruchen und nicht den Briten
überlassen. Unmittelbar vor dem Gipfel erliess Joe Biden ein Dekret zum Umgang mit
KI und kündigte die Schaffung eines amerikanischen Sicherheitsinstituts an.

KI als Brexit-Chance?
Bidens Vizepräsidentin Kamala Harris betonte am Rande des Gipfels, die KI berge
nicht nur existenzielle Risiken für die Menschheit in der Zukunft. Vielmehr müssten
auch bereits heute existierende Gefahren für Individuen angegangen werden. Als
Beispiele nannte sie einen Senior, der wegen eines fehlerhaften Algorithmus Zugang
zu seiner Krankenversicherung verliert, oder einen jungen Vater, der wegen eines
diskriminierenden Programms zur Gesichtserkennung unschuldig im Gefängnis landet.

Sunak hingegen steht bisher für eine zurückhaltende Regulierung von


Alltagsanwendungen. Man wolle nicht überhastete Regeln erlassen, erklärte ein
Regierungsvertreter kurz vor dem Gipfel. Der Beamte machte auch deutlich, dass
London die KI als Brexit-Chance begreift und sich dank regulatorischer Zurückhaltung
als Standort für innovative Firmen zwischen den grossen Blöcken China, USA und der
EU positionieren möchte.

Brüssel hat im Gegensatz zu London schnell agiert und eine Artificial Intelligence Act
ausgearbeitet, die sich derzeit in der letzten Phase des Gesetzgebungsverfahrens
befindet. Allerdings kritisierten europäische Unternehmen im Sommer, das
Gesetzesprojekt sei teilweise bereits überholt und die EU drohe sich ins Abseits zu
regulieren.

Das könnte Ihnen auch gefallen