KI & Recht kompakt
()
About this ebook
- Zivilrecht
- Vertragsgestaltung
- Lizenzierung
- Haftung
- Immaterialgüterrechte
- Datenschutz
- Strafrecht
- Arbeitsrecht
Related to KI & Recht kompakt
Related ebooks
Mensch und Künstliche Intelligenz: Herausforderungen für Kultur, Wirtschaft und Gesellschaft Rating: 0 out of 5 stars0 ratingsKünstliche Intelligenz Rating: 0 out of 5 stars0 ratingsKünstliche Intelligenz: Was steckt hinter der Technologie der Zukunft? Rating: 0 out of 5 stars0 ratings30 Minuten ChatGPT Rating: 0 out of 5 stars0 ratingsBetriebswirtschaftliche KI-Anwendungen: Digitale Geschäftsmodelle auf Basis Künstlicher Intelligenz Rating: 0 out of 5 stars0 ratings365 Tage, 365 Einsichten: Ihr Weg zur KI-Meisterschaft Rating: 0 out of 5 stars0 ratingsLieferantensuche, -bewertung und -auswahl mit Künstlicher Intelligenz im Einkauf: Spitzenlieferanten global entdecken Rating: 0 out of 5 stars0 ratingsWie Maschinen lernen: Künstliche Intelligenz verständlich erklärt Rating: 0 out of 5 stars0 ratingsDie Künstliche Intelligenz des Kapitals Rating: 0 out of 5 stars0 ratingsDie besten KI-Tools: Ein Leitfaden von JvS Creative Possibilities Rating: 0 out of 5 stars0 ratingsKommunikation mit unverständlichen Maschinen Rating: 0 out of 5 stars0 ratingsDie Unschuld der Maschinen: Technikvertrauen in einer smarten Welt Rating: 0 out of 5 stars0 ratingsKünstliche Intelligenz verstehen: Grundlagen – Use-Cases – unternehmenseigene KI-Journey Rating: 0 out of 5 stars0 ratingsStatistische Hypothesentests: Bausteine der Künstlichen Intelligenz Rating: 0 out of 5 stars0 ratingsKünstliche Intelligenz in der Praxis: Anwendung in Unternehmen und Branchen: KI wettbewerbs- und zukunftsorientiert einsetzen Rating: 0 out of 5 stars0 ratingsKI-Innovationen: Wie die Technologie die Grenzen verschiebt Künstliche Intelligenz verstehen und nutzen: Ein AI-Buch Rating: 0 out of 5 stars0 ratingsKünstliche Intelligenz in Sozialen Medien Rating: 0 out of 5 stars0 ratingsAutonome Systeme und Arbeit: Perspektiven, Herausforderungen und Grenzen der Künstlichen Intelligenz in der Arbeitswelt Rating: 0 out of 5 stars0 ratingsVernetzte Gesellschaft. Vernetzte Bedrohungen: Wie uns die künstliche Intelligenz herausfordert Rating: 0 out of 5 stars0 ratingsDie KI sei mit euch: Macht, Illusion und Kontrolle algorithmischer Vorhersage Rating: 0 out of 5 stars0 ratingsComputer wie Götter: Die Rechenknechte übernehmen die Herrschaft Rating: 0 out of 5 stars0 ratingsKünstliche Intelligenz: Die vierte industrielle Revolution Rating: 0 out of 5 stars0 ratingsDas Zeitalter der Daten: Was Sie über Grundlagen, Algorithmen und Anwendungen wissen sollten Rating: 0 out of 5 stars0 ratingsKI jetzt!: Wie Künstliche Intelligenz Ihren Arbeitsalltag erleichtern kann Rating: 0 out of 5 stars0 ratingsQuick Guide KI-Projekte – einfach machen: Künstliche Intelligenz in Service, Marketing und Sales erfolgreich einführen Rating: 0 out of 5 stars0 ratings
Law For You
Präsentieren auf Englisch: überzeugender Auftritt / treffende Formulierungen / klare Visualisierung Rating: 0 out of 5 stars0 ratingsTrigger Warnung: Identitätspolitik zwischen Abwehr, Abschottung und Allianzen Rating: 0 out of 5 stars0 ratings200 Duas für Muslim Rating: 5 out of 5 stars5/5Die Diktatur der Demokraten: Warum ohne Recht kein Staat zu machen ist Rating: 0 out of 5 stars0 ratingsCompendium Wortschatz Deutsch-Deutsch, erweiterte Neuausgabe: 2. erweiterte Neuausgabe Rating: 3 out of 5 stars3/5Familienrecht Rating: 0 out of 5 stars0 ratingsReden gegen Verres: Ciceros meisterhafte Rhetorik in seiner bekannteste Gerichtsrede: Die Kunst der Rhetorik in Rechtswissenschaft Rating: 0 out of 5 stars0 ratingsDie ZPO in Fällen Rating: 0 out of 5 stars0 ratings200 Übungsfragen für die mündliche Prüfung: Sachkundeprüfung gem. § 34a GewO Rating: 4 out of 5 stars4/5Grundlagen der Kriminaltechnik I Rating: 0 out of 5 stars0 ratingsInternationales Wirtschaftsrecht Internationales Privatrecht Rating: 0 out of 5 stars0 ratingsBaugesetzbuch (BauGB) Rating: 0 out of 5 stars0 ratingsDie systemische Mediation: und andere Konfliktmethoden Rating: 0 out of 5 stars0 ratingsPolizeiliche Abkürzungen Rating: 0 out of 5 stars0 ratingsPoweReading®: Schneller lesen, Zeit sparen, Effektivität steigern Rating: 0 out of 5 stars0 ratingsLogik, Ethik, Mystik: Allgemeine Rechtslehre Rating: 0 out of 5 stars0 ratingsBGB Allgemeiner Teil: für Studienanfänger Rating: 0 out of 5 stars0 ratingsSchuldrecht Allgemeiner Teil: für Studienanfänger Rating: 5 out of 5 stars5/5Das Controlling 1x1 Rating: 0 out of 5 stars0 ratingsPhotovoltaikanlage und Blockheizkraftwerk: Steuern, Technik und Umsetzung Rating: 0 out of 5 stars0 ratingsRhetorische Deeskalation: Deeskalatives Einsatzmanagement – Stress- und Konfliktmanagement im Polizeieinsatz Rating: 0 out of 5 stars0 ratingsVölkerrecht und IPR Rating: 0 out of 5 stars0 ratingsJuristische Übungsfälle zum Handelsrecht Rating: 0 out of 5 stars0 ratingsSichere Maschinen: Fach-, Sach- und Lachgeschichten zur Maschinensicherheit Rating: 5 out of 5 stars5/5Erfolgreich vor Gericht: Zivilprozess verständlich erklärt Rating: 0 out of 5 stars0 ratingsJuristische Übungsfälle zum Kreditsicherungsrecht Rating: 0 out of 5 stars0 ratingsMethoden und Technik der Rechtsanwendung Rating: 0 out of 5 stars0 ratingsZPO - Zivilprozessordnung - Aktueller Stand: 1. Februar 2015: E-Book Rating: 0 out of 5 stars0 ratingsProfessioneller Handel Mit Kryptowährungen: Mit Ausgereiften Strategien, Tools Und Risikomanagementtechniken Zum Börsenerfolg Rating: 0 out of 5 stars0 ratings
Reviews for KI & Recht kompakt
0 ratings0 reviews
Book preview
KI & Recht kompakt - Matthias Hartmann
IT kompakt
Die Bücher der Reihe „IT kompakt" zu wichtigen Konzepten und Technologien der IT:
• ermöglichen einen raschen Einstieg,
• bieten einen fundierten Überblick,
• eignen sich für Selbststudium und Lehre,
• sind praxisorientiert, aktuell und immer ihren Preis wert.
Weitere Bände in der Reihe:
http://www.springer.com/series/8297 http://www.springer.com/series/8297
Hrsg.
Matthias Hartmann
KI & Recht kompakt
1. Aufl. 2020
../images/490545_1_De_BookFrontmatter_Figa_HTML.pngHrsg.
Matthias Hartmann
HK2 Rechtsanwälte, Berlin, Deutschland
ISSN 2195-3651e-ISSN 2195-366X
IT kompakt
ISBN 978-3-662-61699-4e-ISBN 978-3-662-61700-7
https://doi.org/10.1007/978-3-662-61700-7
© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2020
This work is subject to copyright. All rights are solely and exclusively licensed by the Publisher, whether the whole or part of the material is concerned, specifically the rights of translation, reprinting, reuse of illustrations, recitation, broadcasting, reproduction on microfilms or in any other physical way, and transmission or information storage and retrieval, electronic adaptation, computer software, or by similar or dissimilar methodology now known or hereafter developed.
Die Wiedergabe von allgemein beschreibenden Bezeichnungen, Marken, Unternehmensnamen etc. in diesem Werk bedeutet nicht, dass diese frei durch jedermann benutzt werden dürfen. Die Berechtigung zur Benutzung unterliegt, auch ohne gesonderten Hinweis hierzu, den Regeln des Markenrechts. Die Rechte des jeweiligen Zeicheninhabers sind zu beachten.
Der Verlag, die Autoren und die Herausgeber gehen davon aus, dass die Angaben und Informationen in diesem Werk zum Zeitpunkt der Veröffentlichung vollständig und korrekt sind. Weder der Verlag, noch die Autoren oder die Herausgeber übernehmen, ausdrücklich oder implizit, Gewähr für den Inhalt des Werkes, etwaige Fehler oder Äußerungen. Der Verlag bleibt im Hinblick auf geografische Zuordnungen und Gebietsbezeichnungen in veröffentlichten Karten und Institutionsadressen neutral.
Planung: Martin Börger
Springer Vieweg ist ein Imprint der eingetragenen Gesellschaft Springer-Verlag GmbH, DE und ist ein Teil von Springer Nature.
Die Anschrift der Gesellschaft ist: Heidelberger Platz 3, 14197 Berlin, Germany
Vorwort
Unter „Künstlicher Intelligenz werden neue Technologien und Algorithmen verstanden, die die menschliche Art nach Prinzipien der Vernunft zu reagieren, zu handeln oder Probleme zu lösen, nachbilden. Je mehr dies gelingt, desto disruptiver werden die Auswirkungen sein. Künstliche Intelligenz konfrontiert die Menschen aber noch auf einer existenzielleren Ebene: KI macht dem Menschen streitig, worauf er seine Vorrangstellung gegenüber allen anderen Lebewesen stützt, nämlich seine „einmalige
Verstandeskraft. Gelingt es Intelligenz zu algorithmisieren oder zumindest zu digitalisieren, dann lässt sich das Ergebnis optimieren und skalieren. Wenn es also intelligente Rechner gibt, gelten für diese viele der Einschränkungen menschlichen Verstandes nicht. Die intellektuelle Kapazität ist dann räumlich, zeitlich und inhaltlich beinahe unbegrenzt und beliebig übertragbar. Dann sind es nicht mehr Menschen, die die besten Entscheidungen treffen oder die erstaunlichsten Dinge kreieren. Sobald die KI sich schließlich selbst weiter entwickeln wird, sind die Ergebnisse mit den Begrenzungen menschlichen Verstandes im Sinne des Wortes unvorstellbar. Wenn es künstliche Intelligenz gibt, wird sie automatisch der menschlichen überlegen sein.
Was an künstlicher Intelligenz möglich ist, hängt zunächst davon ab, wie Intelligenz definiert wird. Der Begriff KI stammt ab von dem Versuch, durch Informatik kognitive Fähigkeiten des Menschen bei der Verarbeitung von Informationen zur Bewältigung von Aufgaben nachzubilden. Es ging also zunächst um das Simulieren „menschlich intelligenter Leistungen" durch Informationstechnologie (sogenannte schwache KI). Eine extreme Ausprägung dieses Ansatzes findet sich heute im Human Brain Project der EU, also in dem Versuch, das Gehirn des Menschen technisch nachzubilden.
Unter „starker KI werden dagegen Maschinen verstanden, die selbst „denken
. Die Schaffung einer „starken KI ist nach aktuellem Stand noch weit entfernt, wenn überhaupt möglich. Allerdings sind „Intelligenz
und „Denken bei Menschen auch noch weitgehend unerforscht, sodass die Diskussion über die Möglichkeit einer „starken KI
müßig bis sinnlos erscheint. Vermutlich wird die Debatte hinfällig, sobald sie von einer KI geführt wird und die Menschen ihr nicht mehr folgen können.
Die Entwicklung von KI geschieht seit den frühen 50er-Jahren in Phasen großer Erwartungen und tiefer Enttäuschungen. Letztere werden KI-Winter genannt und seit einigen Jahren ist nun schon wieder Frühling. Die einen sehen den nächsten Winter kommen, die anderen eine Epoche der KI anbrechen.
Menschliche Intelligenz hat jedenfalls viele Schwachstellen, vielleicht erweisen sich diese sogar als integrale Bestandteile. Niemand möchte aber eine KI bauen, die betrunken Auto fährt. Ein Hersteller machte sich wohl schadensersatzpflichtig und sogar strafbar, wenn er ein selbstfahrendes Auto in Verkehr brächte, das so viele tödliche Fehler macht wie menschliche Fahrer (siehe zur Haftung bei autonomen Fahrzeugen Dr. Lennart Lutz in Kap. 3 und zum Strafrecht und KI Christian Haagen/Anna Lohmann in Kap. 8).
In der Praxis - für die dieses Buch gedacht ist - geht es bei der Verwendung von KI nicht um „denkende" Roboter, sondern um den Einsatz intelligenter Werkzeuge zur Lösung spezifischer Aufgaben. Und hier ist KI seit Jahren sehr erfolgreich (siehe zu den technischen Grundlagen Dr. Florian Hoppe in Kap. 1).
KI meint dann Technologien, die vermeintlich oder tatsächlich die Arbeitsweise von Nervensystemen aus der Natur nachbilden oder zumindest Grundprinzipien neuronaler Netze verwenden. Im Unterschied zum „klassischen Algorithmus werden beim Einsatz von KI nicht alle Kriterien zur Aufgabenlösung vorgegeben. Es gibt also weder einen festen „Entscheidungsbaum
noch lassen sich alle zur Anwendung kommenden Entscheidungsbäume aus den Algorithmen allein generieren. Eine besondere Stärke von KI liegt darin, die Entscheidungskriterien und deren Relevanz für sehr komplexe Bewertungen selbst zu entwickeln. Hierzu werden geeignete KI Strukturen mit Input und Feedback zum Output trainiert.
Diese Nachahmung von bestimmten Aspekten neuronaler Netze hat sich als sehr erfolgreich erwiesen zur Lösung bestimmter Aufgaben, wie etwa der Erkennung von Mustern oder Anomalien in großen Datenmengen oder wahrscheinlichkeitsbasierte Entscheidungen bei nicht eindeutigen Verarbeitungs-Objekten (bspw. Bild-, Zeichen-, Spracherkennung, Virenerkennung, Erkennung von Krankheitsbildern oder -daten, Betrugserkennung, Prognosen für Aktienkurse, Expertensysteme). Der Optimierung von Aufbau, Kombination und Voreinstellung von generativen Netzen hat sich die Disziplin des „Deep Learning" verschrieben. Die Königsdisziplin sind KI, die unterschiedliche Aufgaben lösen können, die also für breitere Aufgabenbereiche oder ganz allgemein Sachverhalte lernen können.
Inzwischen werden zur Bewältigung komplexer Aufgaben verschiedene Ansätze von KI kombiniert. „Autonomes Fahren wird nicht durch eine KI realisiert, sondern KI-Werkzeuge spielen auf unterschiedlichen Ebenen der Aufgabenerfüllung eine Rolle. Dies beginnt bei der Analyse der einzelnen Ergebnisse von Sensoren und anderen Datenquellen, geht über den Entwurf von Entscheidungsmöglichkeiten bis zur Bewertung des sich aus allen Informationen ergebenden Gesamtbildes unter Berücksichtigung „nicht-intelligenter
Algorithmen.
Mit zunehmender Komplexität von KI wird es schwieriger, einen konkreten Output einer KI (bspw. die Diagnose aufgrund eines Fotos eines Hautbildes) auf Elemente des Inputs oder die konkreten Einstellungen der KI zurückzuführen (Black-Box-Problem).
Diese Eigenschaft vieler KI, den Grund der Entscheidung nicht mit anzugeben, führt zu vielen juristischen Fragestellungen. Ist eine KI mangelfrei, obwohl sie zu fehlerhaften Ergebnissen kommt (siehe dazu Kap. 2)? Ab welchem Grad der Zuverlässigkeit ist es erlaubt, ein autonomes Fahrzeug oder andere KI-Produkte in Verkehr zu bringen (siehe dazu Dr. Lennart Lutz in Kap. 3 und Christian Haagen/Anna Lohmann in Kap. 8)? Darf eine KI Entscheidungen über die Belange von Menschen treffen, wenn die Gründe unbekannt bleiben (siehe zum Datenschutzrecht allgemein Bernhard Kloos/Dr. Johanna Schmidt-Bens Kap. 5 und bei Forschungsvorhaben Prof. Dr. Beatrix Weber Kap. 6)? Ist eine Beurteilung von Arbeitnehmern durch eine solche KI zulässig (siehe Jörg Hennig/Anika Nadler Kap. 7)?
Eine Stärke von KI-Werkzeugen liegt in ihrer Skalierbarkeit bereits bei der Konstruktion oder dem Training im Bereich des Machine Learnings und einem späteren Einsatz. Beispielsweise können Übersetzungs-KI sich selbst anhand ihrer eigenen Rückübersetzung trainieren oder AlphaGo Zero lernt Go-Strategien ohne jeden externen Input allein durch das regelkonforme Spielen gegen sich selbst. Wenn eine App anhand von Bildern mehr Hautkrebs erkennt als Dermatologen, könnten schon heute zahllose Menschenleben gerettet werden, wenn die erste Stufe der Vorsorge die Benutzung einer App wäre und nicht der aufgeschobene Besuch beim Arzt, weil die beste App im Gegensatz zum besten Experten beliebig reproduzierbar ist.
KI wird es zunehmend ermöglichen, mehr und bessere Produkte und Dienstleistungen mit geringerem Zeitaufwand als durch Menschen herzustellen. Dieser Prozess hat schon begonnen. Diktate werden automatisch geschrieben, Texte übersetzt, aus Sensordaten wird der Wartungsbedarf von Maschinen vorhergesehen, Datenströme werden auf Auffälligkeiten untersucht, Aktien von Computern gehandelt, Röntgenbilder analysiert, Kundenanfragen beantwortet, Logistik optimiert, Fahrzeuge von Computern gesteuert. Computer agieren daher schon längst im Geltungsbereich des Zivilrechts (siehe dazu Kap. 2).
Ausreichend Bandbreite, leistungsfähige Endgeräte, Spracherkennung und sogar Übersetzung sind heute weltweit verfügbar und vernetzt. Die nächste große Hürde ist die sinngemäße Verarbeitung innerhalb eines kontextuellen Bezugsrahmens. Wenn dieses Problem gelöst ist, lassen sich Aufgaben an Computer in großem Umfange delegieren. Der Flaschenhals der Schnittstelle zwischen Mensch und Maschine wäre durch diese neue Fähigkeit der Maschinen beseitigt. Es wäre das Ende der heute vorherrschenden Plattformen, wenn eine KI den Bedarf des Nutzers „versteht, denn der Nutzer möchte einen Wasserkocher kaufen und nicht eine Plattform durchsuchen und er möchte wissen, was „ein Algorithmus ist
und nicht „Wikipedia lesen".
Es bedarf wenig Fantasie, um zu sehen, dass die Übernahme geistiger Aufgaben durch Computer zu ähnlichen Umbrüchen in der Arbeitswelt führen wird wie die Ersetzung menschlicher Arbeitskraft durch Maschinen während der Industriellen Revolution. Denjenigen, die dadurch ihre Arbeit verlieren werden, kommt die Wertschöpfung durch die Maschinen zunächst nicht zugute. Zurück an die Webstühle möchte aber auch niemand, daher sollte die Zeit, bis sich der Einsatz menschlicher Schaffenskraft bei der Wertschöpfung nicht mehr lohnt, genutzt werden (zu den aktuellen praktischen Auswirkungen im Arbeitsrecht siehe Jörg Hennig/Anika Nadler Kap. 7).
Grundstoff für alle KI-Anwendungen sind Daten. Hier hat die EU durch ihr strenges Datenschutzrecht hohe Hürden aufgebaut, sofern es um personenbezogene Daten geht (siehe dazu Bernhard Kloos/ Dr. Johanna Schmidt-Bens – Kap. 5). Auch die Forschung an KI steht dadurch vor Herausforderungen (siehe dazu Prof. Dr. Beatrix Weber – Kap. 6). Zwar lassen sich KI-Vorhaben auch im Kontext der DSGVO durchführen, aber die Grundsätze der KI-Entwicklung wiedersprechen nahezu allen Prinzipien des Datenschutzes: KI benötigt große Datenmengen, entscheidet nach unbekannten Kriterien und nur mit einer bestimmten Wahrscheinlichkeit „richtig", die DSGVO fordert Datenminimierung, Transparenz, Richtigkeit der Verarbeitung und Rechenschaftspflicht. Die EU hat sich damit einen steinigen Weg geschaffen für das Rennen um KI.
Es steht aber zu befürchten, dass der Gesetzgeber die Entwicklung und den Einsatz von KI noch weiter erschwert, wie die Debatte um die „Haftungslücke für Roboter und KI zeigt. Der Begriff impliziert einen Mangel an Haftung. Den gibt es nicht, sondern es gibt eine gesetzgeberische Entscheidung in unserer Rechtsordnung, dass grundsätzlich nur für Verschulden gehaftet wird. Was unter „Haftungslücke
diskutiert wird, ist die Forderung nach einer verschuldensunabhängigen Haftung für Hersteller von KI – also eine Schlechterstellung, denn bei Verschulden wird ohnehin gehaftet (siehe Dr. Lennart Lutz in Kap. 3). Bestimmte KI Systeme werden allerdings nur mit einer bestimmten Wahrscheinlichkeit „richtig entscheiden. Es ist komplexen trainierten neuronalen Netzen immanent, dass die „false positives
oder „false negatives vielleicht nur gegen Null tendieren, aber nie Null sind. Es besteht damit also eine bestimmte Wahrscheinlichkeit für einen Fehler und die Auswirkungen sind vielleicht auch durch andere Maßnahmen nicht zu verhindern. In dieser systemimmanenten Fehlerhaftigkeit sehen manche die sogenannte „Haftungslücke
, weil für unvermeidbare Fehler eben nicht gehaftet wird.
Bei näherer Betrachtung ist das Argument nicht überzeugend. Es handelt sich eben nicht um eine Lücke sondern um den Grundsatz, dass niemand haften soll, wenn er nichts für den Schaden kann. Außerdem ist die Rechtslage auch ausreichend zur Behandlung etwaiger Fälle, denn die Rechtsprechung wird bestimmen, welche Wahrscheinlichkeit für Fehler akzeptabel erscheint. Auch Herzschrittmacher haben eine bestimmte Ausfallwahrscheinlichkeit. Soll die Produktion mit Haftung sanktioniert werden, selbst wenn der Hersteller alles nach dem Stand der Technik unternommen hat?
Sofern bestimmte Produkte mit einem rechtlich zugelassenen Risiko in den Verkehr gebracht werden, die eine besondere Gefahrneigung für Unbeteiligte mit sich bringen, kann eine Verallgemeinerung der Schadenskosten und gegebenenfalls eine Haftpflichtversicherung sinnvoll erscheinen, um die Abwicklung von Schadensfällen zu vereinfachen und das Insolvenzrisiko des Verpflichteten abzufangen. Denkbar wäre eine solche Haftpflicht für neuartige Produkte im öffentlichen Raum, also Drohnen, Lieferroboter, Serviceroboter etc. Das könnte die Akzeptanz in der Bevölkerung erhöhen. Der Grund sollte aber nicht sein, dass es sich um Roboter oder KI-gestützte Produkte handelt, denn dem wohnt keine besondere Gefährlichkeit inne. Bei KI kommt hinzu, dass sie nicht an einem Ort verkörpert sein muss, beliebig zusammenwirken oder vervielfältigt werden kann und skaliert. Es gibt also schon nicht notwendig eine KI-Entität als Haftungsansatz. KI ist eine Basistechnologie, die in viele Produkte einfließen wird, eine gesonderte Haftung dafür entbehrt einer tatsächlichen Rechtfertigung und wäre nur symbolisch begründbar.
Missverständlich ist im Zusammenhang von KI auch der Begriff „Autonomie. Niemand möchte eine KI entwickeln, die sich nicht an die mitgegebenen Regeln hält, also sich selbst die eigenen Gesetze gibt. Zugleich erscheint gerade diese Fähigkeit, sich nicht vernünftig zu verhalten oder die eigene Maxime über die geltenden Gesetze zu stellen als ein wichtiger Aspekt menschlicher Freiheit. Inzwischen wird gar ein allgemeines Recht auf Rechtsverstoß für erforderlich angesehen, um menschliche Freiheit im Zeitalter lückenloser Kontrolle zu bewahren. In der Tat sind die bestehenden Verbote nicht unter der Annahme geschaffen worden, dass wirklich jeder Verstoß sanktioniert wird. Man denke an Beleidigungen im Wirtshaus, Fußgängerampeln in der Nacht oder das Rücksichtnahmegebot der Straßenverkehrsordnung. Es ließen sich schon heute Ampeln so ausrüsten, dass eine Kamera bei Rot überquerende Fußgänger aufnimmt, diese mit Bilddatenbanken abgleicht, identifiziert und einen Bußgeldbescheid versendet. Allerdings scheint es für das Gemeinwesen sinnvoller, die Verbote zu überprüfen, als ihre Beachtung der autonomen Entscheidung des Einzelnen zu überlassen. „Autonome
Entscheidungen stellen bei näherer Betrachtung meist Abwägungen auf Ebene übergeordneter Prinzipien dar und dies ist freiheitlichen Rechtssystemen bereits heute immanent. Auf die ersten autonomen KI werden wir dagegen noch sehr lange warten müssen.
Schon in den 90er-Jahren wurde viel über die Automatisierung der Rechtsanwendung geforscht und debattiert. Einem menschlichen Richter wird das Streben nach „Gerechtigkeit zugestanden und die Kompetenz dies umzusetzen. Wissenschaftlich begründet ist das nicht und eine Überprüfung von Urteilen nach diesen Kriterien findet nur sehr eingeschränkt statt. Niemand stellt das Rechtsystem in Frage, wenn der Bundesgerichtshof eine jahrzehntealte Rechtsprechung aufgibt und einen Sachverhalt plötzlich ungleich zu vorher beurteilt (bspw. BGH Urt. v. 07.09.2017 – III ZR 71/17: zum immateriellen Schadensersatz bei hoheitlichen Eingriffen) oder wenn ein Amtsrichter eine besonders harte Strafe zur Abschreckung ausspricht, ohne eine entsprechende Wirkung nachweisen zu können. Würde dasselbe einer KI zugestanden? Es wird argumentiert, die KI habe kein Mitgefühl oder sei nicht in der Lage nach höherrangigen Prinzipien zu entscheiden. Beides erscheint derzeit noch ungeklärt. Aber der Mensch ist hinsichtlich seiner Entscheidungen noch mehr „Black Box
als eine KI, weil niemand feststellen kann, was einen Richter tatsächlich zu seinem Urteil bewogen hat. Die KI dagegen könnte analysiert werden. Wir erwarten zwar, dass der Richter seine Strafen an Gesetz, Gerechtigkeit und Mitgefühl orientiere. Überprüft werden im Rechtszug aber nicht die inneren Gründe des Richters für seine Entscheidung, sondern allein der Urteilstext. Das Urteil mag im Rechtsweg durch eine neue Entscheidung ersetzt werden und der Text wird auf die Einhaltung der Regeln des Rechtssystems überprüft. Inwieweit das Urteil auf Vorurteilen, schlechter Laune oder Boshaftigkeit basiert, wird aber nicht überprüft, solange sich das Gericht an die bekannten Regeln zum Verfassen des Textes hält. Eine Richter-KI dagegen übersähe wohl keine Norm, kein Urteil und kein Argument der Anwälte. Sie ließe sich außerdem wissenschaftlich analysieren und auf unerwünschte Vorurteile testen.
Von dort ist es nur ein kleiner Schritt zu der Frage nach dem Erfordernis der Schaffung einer digitalen Person. Ob es Sinn macht, einer KI Rechte zuzuerkennen, die eine Person genießt, (bspw. Recht auf körperliche Unversehrtheit, Eigentum, Willensfreiheit, Teilhabe am Rechtsverkehr) wird aktuell beim Urheberrecht diskutiert (siehe Matthias Hartmann/Dr. Claudia Ohst – Kap. 4). Nach hiesigem Verständnis können nur Menschen Werke schaffen. Schon die Werke anderer Lebewesen sind nicht anerkannt. Bei Robotern damit anzufangen liegt fern.
Unser gesamtes Rechtssystem ist auf Menschen ausgerichtet. Eine KI als beteiligte Person darin aufzunehmen wäre ein komplexes Unterfangen. Die Mechanismen, die dieses System aufrechterhalten, sind von Menschen für Menschen entwickelt. Vom Vertragsrecht über das Arbeitswesen, den Datenschutz, das Immaterialgüterrecht und die haftungs- oder strafrechtliche Verantwortlichkeit sind alle Regeln so sehr mit menschlichen Bedürfnissen, Fähigkeiten und Mängeln verwoben, dass es wohl nur eine KI schaffen könnte, das vernünftig aufzulösen.
In den eben genannten Rechtsbereichen wirft der Einsatz von KI aber schon heute viele praktische Fragen auf. Deren Beantwortung ist dieses Buch gewidmet.
Den Autorinnen und Autoren des Buches danke ich für ihre schnelle Mitwirkung bei den sehr aktuellen Themen und für ihre Geduld. Ich freue mich sehr, so viele fundierte und gut lesbare Beiträge mit Bezug zur Praxis herausgeben zu dürfen. Bedanken möchte ich mich außerdem bei unseren wissenschaftlichen Mitarbeiterinnen, die dieses Buch möglich gemacht haben: Elisa Dittrich, Celine Zeck und vor allem Kerstin Zimmermann.
Matthias Hartmann
Berlin, Deutschland
Inhaltsverzeichnis
1 Technische Grundlagen 1
Florian Hoppe
1.1 Von der Mustererkennung zur „Autonomie" 1
1.1.1 Verarbeitung der Sensordaten 2
1.1.2 Planung von Handlungen 3
1.1.3 Ansteuerung der Aktoren 4
1.1.4 Lernen 5
1.1.5 Bestimmung von Zielen 6
1.2 Technische Grundlagen 6
1.2.1 Regelbasierte Systeme 7
1.2.2 Maschinelles Lernen (ML) 9
1.2.3 Gemeinsamkeiten der maschinellen Lernverfahren 18
1.3 Anwendungsbereiche der KI-Methoden 22
1.3.1 KI für die Verarbeitung der Sensordaten 22
1.3.2 KI für die Planung von Handlungen 23
1.3.3 KI für die Ansteuerung der Aktoren 25
1.4 Ausblick 25
Literatur 28
2 Künstliche Intelligenz im Zivilrecht 29
Matthias Hartmann
2.1 Künstliche Intelligenz und Vertragsschluss 29
2.1.1 Einsatz einer KI beim Abschluss von Verträgen 29
2.1.2 Ausblick 47
2.2 Verträge zur Erstellung oder zum Einsatz von Künstlicher Intelligenz 47
2.2.1 Einführung 47
2.2.2 Vertragstypologische Einordnung der Beauftragung von Software-Erstellung 48
2.2.3 Lizenzierung von KI oder deren Bestandteilen 52
2.2.4 Bestimmungen zur Soll-Leistung 60
2.2.5 Regelungen zu den Trainingsdaten 71
2.2.6 Zugang zu Daten und Programmversionen, Regelungen zu Dokumentation, Darlegungs- und Beweismitteln, Exit-Vereinbarung 80
2.3 KI und Haftung 82
2.3.1 Einführung 82
2.3.2 Vertragliche Haftung 85
2.3.3 Deliktische Haftung 94
Literatur 113
3 Haftung am Beispiel automatisierter Fahrzeuge 117
Lennart S. Lutz
3.1 Einleitung 117
3.2 Grundstrukturen der Straßenverkehrshaftung 119
3.3 Haftung des Halters 120
3.4 Haftung des Fahrers 121
3.4.1 Fahrerpflichten bei der Benutzung automatisierter Fahrzeuge 122
3.4.2 Wegfall des Fahrers als Haftungssubjekt: Auswirkungen auf das Haftungssystem 126
3.5 Haftung des Herstellers: Sicherheit neuer Technologien 128
3.5.1 Staatliche Zulassung oder Genehmigung 129
3.5.2 Aktueller Stand von Wissenschaft und Technik 132
3.5.3 Neueinführung innovativer Produkte: Sicherheitsmaßstab 134
3.6 Automatisierte Fahrzeuge: Globale Auswirkungen im Haftungssystem und haftungsrechtliche Letztverantwortung 136
3.6.1 Haftungsquote zwischen Unfallbeteiligten: Betriebsgefahr 137
3.6.2 Haftungsverteilung zwischen Pflichtversicherung und Hersteller 138
3.7 Fazit: Brauchen wir neue Gesetze? 139
Literatur 140
4 Künstliche Intelligenz im Immaterialgüterrecht 143
Matthias Hartmann und Claudia Ohst
4.1 Welche Bestandteile einer KI kommen für den Rechtsschutz in Betracht? 143
4.2 Urheberrecht 145
4.2.1 Schutz als Computerprogramm 147
4.2.2 Schutz als Datenbank oder Datenbankwerk 150
4.2.3 Schutz der KI als Werk eigener Art 153
4.2.4 Können KIs Urheber sein? 155
4.3 Patentrecht 160
4.4 Schutz als Geschäftsgeheimnis 162
Literatur 163
5 Datenschutz 165
Bernhard Kloos und Johanna Schmidt-Bens
5.1 Einführung, Problematik, Grundsätze 165
5.2 Rechtsgrundlagen für die Nutzung von personenbezogenen Daten für KI-Training 170
5.2.1 Definition personenbezogene Daten 171
5.2.2 Verbot mit Erlaubnisvorbehalt 172
5.2.3 Datenminimierung, Anonymisierung und Pseudonymisierung 183
5.2.4 Zweckbindung, Zweckänderung 185
5.3 Automatisierte Einzelentscheidungen 187
5.3.1 Grundsätzliches Verbot der automatisierten Entscheidung 187
5.3.2 Ausnahmen vom Verbot der automatisierten Entscheidung (Art. 22 Abs. 2 und 3 DSGVO) 189
5.3.3 Verarbeitung besonderer Kategorien von Daten/Kategoriedaten (Art. 22 Abs. 4 DSGVO) 192
5.4 Transparenz, Informationspflichten, Betroffenenrechte 193
5.5 Datensicherheit, technische und organisatorische Maßnahmen 195
5.5.1 Allgemeine Vorgaben zur Datensicherheit 195
5.5.2 KI-spezifische Anforderungen an Datensicherheit, technische und organisatorische Maßnahmen 197
5.6 Datenschutz-Folgenabschätzung 202
5.6.1 Übersicht Risikoklassifizierung von Datenverarbeitungen 203
5.6.2 Durchführung der DatenschutzFolgenabschätzung 204
Literatur 206
6 Datenschutz in öffentlichen KI-Forschungsprojekten 209
Beatrix Weber
6.1 Forschungsprojekte als rechtsfreier Raum? 209
6.1.1 Rechtsrahmen Forschung 209
6.1.2 Gute wissenschaftliche Praxis 212
6.1.3 Forschungsdatenmanagement 217
6.2 Herausforderungen beim Datenmanagement in Forschungsprojekten 219
6.2.1 Zugang zu Daten 219
6.2.2 Kosten der Daten und Lizenzbedingungen 220
6.2.3 Rechte an Daten 223
6.2.4 Verwertung und Nachnutzbarkeit 224
6.3 Datenschutz 226
6.3.1 DSGVO, BDSG und Landesdatenschutzgesetze 226
6.3.2 Verantwortlicher der Datenverarbeitung 228
6.3.3 Datenschutzkonzeption 229
6.3.4 Datenschutz-Folgenabschätzung 233
6.3.5 Implementierung und Prozessmodellierung 235
6.4 Zusammenfassung 236
Literatur 237
7 Künstliche Intelligenz im Arbeitsrecht 239
Jörg Hennig und Anika Nadler
7.1 Einführung 239
7.2 Benachteiligung nach dem AGG 240
7.2.1 Benachteiligung durch KI am Beispiel des Bewerbungsverfahrens 240
7.2.2 Ausblick 244
7.3 Mitbestimmung nach dem BetrVG 245
7.3.1 Auskunftsanspruch gemäß § 80 Abs. 2 BetrVG 245
7.3.2 Mitbestimmung nach § 87 BetrVG 249
Literatur 256
8 Künstliche Intelligenz und das Strafrecht 257
Christian Haagen und Anna Lohmann
8.1 Neue Herausforderungen für das Strafrecht? 257
8.2 Strafrechtliche Verantwortung beim Einsatz Künstlicher Intelligenz 258
8.2.1 Künstliche Intelligenz: Anwendungsfälle der Mustererkennung 258
8.2.2 Problemfelder der strafrechtlichen Produkthaftung 261
8.2.3 Der „Aschaffenburger Fall" 294
8.2.4 Fragen der Zulassung am Beispiel von Fahrzeugen 302
8.3 Neue Regelungen für KI? 303
Literatur 304
© Der/die Herausgeber bzw. der/die Autor(en), exklusiv lizenziert durch Springer-Verlag GmbH, DE, ein Teil von Springer Nature 2020
M. Hartmann (Hrsg.)KI & Recht kompaktIT kompakthttps://doi.org/10.1007/978-3-662-61700-7_1
1. Technische Grundlagen
Florian Hoppe¹
(1)
Berlin, Deutschland
Florian Hoppe
Email: florian.hoppe@ymail.com
Dr. Florian Hoppe
ist unabhängiger Berater und IT-Projektleiter zum Thema KI und Datenanalyse, wohnhaft in Berlin und tätig in der DACH-Region Seit seiner Promotion vor 15 Jahren im Bereich KI und Robotik war er als Entwickler, Manager und Firmenmitgründer immer wieder daran beteiligt, innovativste Software bei Startups, KMUs und Konzernen in Produktion zu bringen. Diese Bandbreite an Erfahrungen helfen ihm, seinen Kunden in der stark Hype-getriebenen IT-Welt den Überblick zu vermitteln, um pragmatisch passgenaue Lösungen zu finden.
1.1 Von der Mustererkennung zur „Autonomie"
Systeme der künstlichen Intelligenz lassen sich wie jedes technische System am besten anhand ihrer Einzelteile erklären. Die für diese Teile eingesetzten KI-Techniken lernt man umfassend kennen, wenn man die bereits existierenden Systeme mit dem größten Grad an Autonomie betrachtet. Aktuell sind das (kleine) elektromechanische Roboter oder Simulationen davon, die ganz überwiegend in den Fluren von Robotik-Lehrstühlen oder deren virtuellen Pendants autonom agieren.
Diese Systeme haben grundsätzlich drei Komponenten gemein: Sensoren, Aktoren und eine oder mehrere Recheneinheiten, die auf Grundlage der Signale der Sensoren die Aktoren so ansteuert, dass das System autonomes Verhalten zeigt d. h. eine Wechselwirkung zur (virtuellen) Welt entsteht. Der ganz entscheidende Teil der Software dieser Recheneinheiten verwendet Methoden der KI. Um diese zu verstehen, betrachtet man am besten die verschiedenen Aufgaben, die die Software eines autonomen Systems lösen muss.
1.1.1 Verarbeitung der Sensordaten
In verschiedenen Verarbeitungsschritten werden die Sensordaten so gefiltert, dass die wahrgenommene Umwelt zunehmend abstrakter durch die Software abgebildet wird. Die kontinuierlich auslesbaren, analogen Sensoren werden in diskrete, digitale Daten überführt: so wird z. B. in einer Digitalkamera eine Lichtwelle eines eingeschränkten Bereiches des sichtbaren Wellenspektrums auf einem bestimmten Quadratmikrometer eines CCD-Chip danach bemessen, welche Stärke sie auf einer Skala von 0-255 in einem Zeitintervall von wenigen Hundertstelsekunden aufweist. Mit einer gängigen Kamera, die mit 30 Hz Bildfrequenz und 1600x1200 Pixeln Auflösung arbeitet, ergibt das pro Sekunde ca. 173 Millionen einzelne, voneinander unabhängige Messwerte.
Zusammengenommen mit den Datenströmen aus Mikrofonen, Gyroskopen zur Lagebestimmung, GPS-, Druck- und Temperatursensoren müssen leicht hunderte von Millionen von Messwerten pro Sekunde so ausgewertet werden, dass das System „versteht, in welcher Umgebung es sich befindet und wie es darauf reagieren soll. Die große technische Hürde besteht darin aber nicht so sehr in der Masse der Daten, sondern vielmehr in der großen Varianz wie sich die äußere Welt in den internen Messwerten abbildet. Beim Beispiel der Kamera bleibend kann man sich klarmachen, dass schon der Unterschied zwischen Mittags- oder Abendsonne das Abbild ein und desselben Gegenstandes so verändert, dass ein Algorithmus zur Objekterkennung unmöglich durch klassische Programmierlogik à la „wenn diese Region von Pixeln im Bild die und die Rot-Grün-Blau-Messwerte zeigen, sitzt eine Katze vor der Kamera
zu realisieren ist.
Die Aufgabe wird um ein ungemein Vielfaches schwieriger, wenn sich die beobachteten Gegenstände oder das System selbst bewegen, deren Abbilder also in verschiedenen Regionen des Bildes auftauchen, mehrere Gegenstände und Lichtquellen unterschiedlichste Schatten aufeinander werfen, sich die Formen ändern, z. B. ein Mund plötzlich ein Lächeln zeigt oder über Tage hinweg Barthaare um ihn herum wachsen.
Ein autonomes System muss dennoch in der Lage sein, diese nicht im Vorhinein vorhersagbare Vielfalt der Welt, d. h. die Varianz der möglichen Messwerte auf kompakte Fakten der Art „Fußgänger in 5 m schräg links voraus oder „die Person Peter hat ‚Hallo‘ zu mir gesagt
umzurechnen. Diese Transformation der Millionen von erfassten Messwerten in wenige (tausend) Einzelinformationen wird durch die Algorithmen der Sensorverarbeitung realisiert, die sich ganz wesentlich auf maschinelle Lernverfahren für die Erkennung von Mustern in den Daten stützen. Ohne so eine Filterung, ohne so eine Komprimierung der Messwerte könnte der nächste Verarbeitungsschritt der Planung von Handlungen nicht effizient realisiert werden.
1.1.2 Planung von Handlungen
Ist die Umwelt in ihrem Ist-Zustand im Vergleich zu den ursprünglichen Messwerten in (relativ) einfachen Fakten beschrieben, muss ein autonomes System einen Plan entwickeln, was es selbst tun kann, um sich und die Umwelt in einen bestimmten Soll-Zustand zu überführen.