Beruflich Dokumente
Kultur Dokumente
1
ERGO Innovation Lab | Whitepaper Mai 2023
Seitdem das Startup OpenAI im November keit eine technologische Weiterentwicklung von
2022 ChatGPT veröffentlicht hat, überschlagen der nächsten abgelöst wird. Und immer schwingt
sich die Ereignisse und fast täglich gibt es neue die Frage mit, ob wir hier Zeitzeuge einer nie
Informationen über die innovative Anwendung. dagewesenen disruptiven Entwicklung sind.
Die aktuellen Entwicklungen rund um genera-
tive Künstliche Intelligenz im Allgemeinen und All das ist Grund genug, sich eindringlich mit dem
große Sprachmodelle im Speziellen lassen Thema zu beschäftigen. Das haben auch wir im
vermuten, dass uns dieses spannende Thema ERGO Innovation Lab getan und tun es immer
noch länger beschäftigen wird. noch. In unseren Gesprächen mit Mitarbeiterinnen
und Mitarbeitern, externen Partnern und Machine-
Auch in der Versicherungsbranche schlägt Learning-Experten begegnen uns immer wieder
ChatGPT hohe Wellen. Mitarbeiterinnen und zwei Extreme: Entweder sind ChatGPT und große
Mitarbeiter verschiedenster Fachabteilungen Sprachmodelle die Lösung vieler Probleme und
kommen mit Anfragen oder konkreten Projekt- führen uns in eine goldene Zukunft oder sie sind
vorschlägen auf die Data-Analytics- und Inno- gehypte, seelenlose, ethisch-fragwürdige stochas-
vations-Abteilungen zu. Es werden unterneh- tische Papageien. Die Wahrheit liegt bekanntlich
mensinterne Informationsveranstaltungen irgendwo in der Mitte.
abgehalten, um die notwendige Aufklärungs-
arbeit zu leisten. PR-Abteilungen beantworten Dieses Whitepaper zeigt deshalb, welche Potenti-
Presseanfragen, in denen Versicherer gebeten ale große Sprachmodelle und Anwendungen wie
werden, Stellungnahmen bezüglich der Chan- ChatGPT haben, gibt Einblick in die Funktionsweise,
cen, Risiken und konkreten Einsatzbereiche von nennt Grenzen und Risiken und erläutert, welche
ChatGPT abzugeben. Voraussetzungen für den Einsatz in der Versiche-
rungsbranche geschaffen werden müssen, um die
Das alles passiert in einem hochdynamischen Potentiale nutzbar zu machen und die Risiken
Umfeld, in dem in erstaunlicher Geschwindig- eindämmen zu können.
2
ERGO Innovation Lab | Whitepaper Mai 2023
Inhaltsverzeichnis
Wie OpenAI mit ChatGPT einen Hype auslöste 4
Der Wettlauf um die besten Sprachmodelle und Anwendungen ist in vollem Gange 30
3
ERGO Innovation Lab | Whitepaper Mai 2023
Ein beispielloser Erfolg, der sich nicht nur mit einer guten Word-of-Mouth/Mouse-Effekt
Bedienoberfläche und fehlenden Nutzungsgebühren Fans und Kritiker sorgten für immer mehr positive und negative
erklären lässt. Empfehlungen, eine verstärkte Berichterstattung und damit auch
zu steigenden Nutzungszahlen.
ChatGPT bzw. das Sprachmodell hinter ChatGPT war und OpenAI ist kein Tech-Gigant
ist überraschend gut dabei, menschlich anmutende Spra- OpenAI wurde als Startup gesehen und hatte damit eine andere
Wahrnehmung in der Öffentlichkeit 9. Nutzer waren nachsichtig
che zu generieren. Das ist unter anderem damit zu erklä- bei Fehlern. Google’s ChatGPT-Alternative Bard wird aktuell, auch
ren, dass das Sprachmodell auch von Menschen trainiert bei kleinen Fehlern, eher kritisch betrachtet 10.
wurde. Ein paar kommunikative Eigenheiten fallen im
4
ERGO Innovation Lab | Whitepaper Mai 2023
GPT arbeitet mit Sprache jeglicher Art erstellen damit schrittweise Texte. Sie sind auf allge-
meinen Daten trainiert und damit vielseitig einsetzbar.
Als ChatBot der auf einem GPT-Sprachmodell basiert, Deshalb ist ihre Aufgabenpalette groß. GPT-basierte
kann ChatGPT vor allem eins – mit Sprache umgehen. Anwendungen wie ChatGPT können verschiedene Arten
Die Künstliche Intelligenz hat aus digitalisierten Büchern von Text erstellen, abwandeln, ergänzen, übersetzen,
und heruntergeladenen Webinhalten gelernt, Sprache zusammenfassen, klassifizieren und Informationen
zu verstehen, auf Fragen zu antworten und Dialoge extrahieren. Dazu können sie Programmcode erstellen
möglichst menschenähnlich zu führen. GPT-Sprach- und mittlerweile auch schon mit Bildern in der Eingabe
modelle sind nicht für einen bestimmten Zweck gebaut. arbeiten.
Basierend auf einer eingegebenen Textsequenz können Die Anwendungsfälle lassen sich auf einer abstrakteren
sie das nächste wahrscheinliche Wort bestimmen und Ebene in sechs Kernfunktionen einteilen:
1 Kreieren Die Fähigkeit, Texte zu generieren, z. B. E-Mails, Konzepte, Rechtstexte, Gedichte, Programmcode.
3 Transferieren Die Fähigkeit, Texte in andere Formen/Formate zu übertragen, z. B. Texte in andere Sprache übersetzen,
einen Code (z. B. C+) in einen anderen Code (z. B. Python) umwandeln.
So nutzen Sie ChatGPT Am besten chattet man in den frühen Achtung: Lesen Sie sich die Nutzungs-
Morgenstunden, da die US-amerikani- bedingungen von OpenAI sorgfältig
schen Nutzer dann noch schlafen und durch, bevor Sie diese akzeptieren.
der Dienst noch nicht überlastet ist. Das Lassen Sie die notwendige Sorgfalt in
funktioniert leider auch nicht immer – Bezug auf den Datenschutz walten
Die Anwendungsmöglichkeiten sind viel- ein Abo-Modell namens ChatGPT Plus und beachten Sie auch die Regelungen
fältig. Probieren Sie es einmal selbst aus (monatliche Kosten: 23,80 Euro) bietet zur Nutzung von Inhalten, die unter
oder lassen sich von unseren nachfol- eine bessere Verfügbarkeit und Zugang die Verschwiegenheitspflicht und das
genden Beispielen inspirieren. zu neueren Modellen (z. B. ein schnelle- Geschäftsgeheimnis fallen.
res GPT-3.5 oder mit Einschränkungen
1. Webseite besuchen: chat.openai.com schon GPT-4). Trotz Premium-Abo gibt
2. Registrieren es bisweilen Einschränkungen, z. B. beim
3. Chatten Zugriff auf die Chat-Historie.
5
ERGO Innovation Lab | Whitepaper Mai 2023
Sprachmodelle schneiden bei einer Reihe von Tests die Sprachmodelle von OpenAI in der Lage sind, eine
beeindruckend gut ab Reihe von kognitiv anspruchsvollen Aufgaben erfolgreich
zu bearbeiten.
Nachdem ChatGPT veröffentlicht wurde, gab es zügig eine
Reihe von Nachrichten, welche die beeindruckenden Erste Ergebnisse zum Effekt von ChatGPT im
Fähigkeiten des Chatbots untermauerten. Es wurde bei- Arbeitseinsatz sind beeindruckend
spielsweise davon berichtet, dass ChatGPT …
Aufnahme- und Zulassungstests sind das eine, doch wie
– eine Prüfung des MBA-Programms der renommierten schneiden Sprachmodelle im Arbeitsalltag ab? Ein For-
US-amerikanischen Wharton School bestand 11. scherteam des MIT untersuchte bereits die Auswirkungen
von ChatGPT auf die Produktivität von Arbeitnehmern und
– die Prüfung des US Medical Licensing Exam meisterte, veröffentlichte die Ergebnisse in einem ersten
welche Voraussetzung für die medizinische Zulassung von Arbeitspapier 15.
Studenten in den USA ist 12.
In einem Online-Experiment mit 444 erfahrenen, akade-
– vier Klausuren der University of Minnesota Law School misch gebildeten Teilnehmern wurden diese instruiert,
bestand 13. berufsbezogene Schreibaufgaben innerhalb von 30 Minu-
ten zu bearbeiten. Dabei wurden Anreize für qualitativ
Mit der Veröffentlichung seiner Sprachmodelle publiziert hochwertige Arbeit geschaffen, indem externe Reviewer
OpenAI mittlerweile eine Reihe von Benchmarks, die her- die Aufgaben beurteilten und monetäre Belohnungen ver-
angezogen werden, um die Fähigkeiten des Sprachmodells gaben. Die Teilnehmer wurden zufällig einer Experimen-
zu verdeutlichen. Diese umfassen Themenbereiche wie die tal- oder Kontrollgruppe zugewiesen. In einer ersten Auf-
Medizin, Rechtswissenschaften, Mathematik, Literatur, gabenrunde durften in beiden Gruppen keinerlei Hilfsmit-
Geschichte, Biologie, Chemie, Physik, Wirtschaft, Kunstge- tel benutzt werden. In einer zweiten Runde durfte die
schichte bis hin zur Programmierung und der Theorie der Experimentalgruppe ChatGPT nutzen und die Kontroll-
Weinkellnerei (Sommelier). In der untenstehenden Tabelle gruppe einen Text-Editor einsetzen.
werden beispielhaft einige Testergebnisse von GPT-4 dar-
gestellt. Für eine detaillierte Übersicht sei auf die Website Die Studie zeigte, dass 81% der Experimentalgruppe
von OpenAI verwiesen. Die Tests lassen sich größtenteils ChatGPT aktiv bei der Aufgabenbearbeitung nutzten. Die
den Aufnahme- und Eignungstests für angehende Studen- Verwendung von ChatGPT führte zu einer Reduzierung der
ten an US-amerikanischen Hochschulen zuordnen. Es gibt benötigten Bearbeitungszeit für Aufgaben um 10 Minuten
aber auch Tests speziell für Machine-Learning-Modelle 14. (-37%) und einer Steigerung der Noten um 0,45
Standardabweichungen.
Diese Testergebnisse beeindruckten vor allem vor dem
Hintergrund, dass die Sprachmodelle GPT-3.5 und GPT-4, Die Ergebnisse deuten darauf hin, dass ChatGPT die Pro-
die bei ChatGPT zum Einsatz kommen, für keine der Auf- duktivität von Arbeitnehmern positiv beeinflussen kann,
gaben gesondert trainiert wurden. Die Erfolge in den Prü- wobei insbesondere Arbeitnehmer, die bei der ersten Auf-
fungen wurden mit dem Standardtraining der Sprachmo- gabe eine niedrige Note erhielten, von einer Steigerung
delle möglich, obwohl die Tests für Menschen mit gehobe- der Noten und einer Reduzierung der benötigten Zeit
nen Fähigkeiten konzipiert wurden. Die Tests zeigen, dass profitierten.
Uniform Bar Exam (U-BE) Standardisierte Anwaltsprüfung, testet 298/400 ~ Top 10 von 100
Wissen für Anwaltszulassung in USA
SAT Reading & Writing Zulassungstest für Universitäten in USA 810/800 ~ Top 7 von 100
mit Schwerpunkt Lesen & Schreiben
SAT Math Testet Anwendung mathematischer Konzepte 700/800 ~ Top 11 von 100
und Fähigkeiten für die Universität und das Berufsleben
Graduate Record Examination (GRE) – Testet Beherrschung der Grundrechenarten, 163/170 ~ Top 20 von 100
Quantitative Algebra, Geometrie, der Datenanalyse,
Dateninterpretation und Problemlösungskompetenz
Graduate Record Examination (GRE) – Testet Fähigkeiten bei Satzergänzungen, 169/170 ~ Top 1 von 100
Verbal Antonymen, verbale Analogien
und Leseverständnis
Graduate Record Examination (GRE) – Testet Fähigkeiten, Argumente zu formulieren, 4/6 ~ Top 46 von 100
Writing zielgerichtete und zusammenhängende
Diskussionen zu führen
6
ERGO Innovation Lab | Whitepaper Mai 2023
Veränderte Arbeitsabläufe
7
ERGO Innovation Lab | Whitepaper Mai 2023
Anwendungsbezogene
ChatGPT-Beispiele für
die Versicherungsbranche
Versicherung lebt von und durch Sprache
Erfolgreiches Prompten
Die oben genannten Kernfunktionen und Anwendungsbei-
spiele scheinen sehr generisch und können immer dort Rollenverständnis: Gebe ChatGPT vor, aus welcher
Rolle heraus er auf die Eingabe antworten soll.
hilfreich sein, wo mit Texten gearbeitet wird. Gerade in der
Das Rollenverständnis beeinflusst die Perspektive
Versicherung kommen sehr viele Texte zum Einsatz. Als und damit die Art und Weise, wie ChatGPT antwortet.
immaterielles Gut wird eine Versicherung erst durch Beispielhafte Rollen sind Ernährungsberater,
Schriftstücke (z. B. Versicherungsbedingungen), Pro- Medizinstudent, Autor, Komiker und für uns eher
relevante Versicherungsberater, Datenschützer,
zess-Dokumentation (z. B. Schadenprotokolle) und Kom-
Marketingberater.
munikation (z. B. Kundenservice) zum Leben erweckt. Ent-
lang der kompletten Wertschöpfungskette der Versiche- Klare Aufgabenstellung: Nenne eine klare Aufgaben-
rung ergeben sich deshalb mögliche Einsatzbereiche für stellung. Was soll ChatGPT genau tun? Einen einzel-
nen Text oder Textvariationen erstellen, Information
Sprachmodelle. Angefangen bei der Produktentwicklung,
aus Texten extrahieren, bestehende Vorlagen um-
über den Vertrieb, die Kundenberatung, hin zur Schaden- schreiben, übersetzen, Texte analysieren oder Dialoge
bearbeitung, dem Eingangsmanagement, der Abrech- führen?
nung und dem Kundensupport im Allgemeinen.
Kriterien/Kontext/Beschränkungen definieren: Wei-
tere Informationen helfen die Ausgabe zu verbessern.
Die nachfolgenden, anwendungsbezogenen Beispiele die-
Soll ein Aspekt in der Ausgabe unbedingt genannt
nen rein illustrativen Zwecken und sind frei erdacht. Mit oder weggelassen werden? Soll die Antwort eine be-
Hilfe der Beispiele soll ein erstes Bewusstsein für die Ein- stimmte Perspektive einnehmen oder zwischen Posi-
satzmöglichkeiten von Sprachmodellen im Versicherungs- tionen abwägen? Wird ein Text für eine unerfahrene
Leserschaft oder Experten geschrieben? Ein Text kann
kontext geschaffen werden. Alle Beispiel-Prompts wurden
Vieles sein – ein Gedicht, Blogbeitrag, eine wissen-
in ChatGPT Plus eingegeben. ChatGPT darf hier nur als ein schaftliche Abhandlung, usw.
sehr nutzerfreundliches Tool verstanden werden, welches
ein einfaches Ausprobieren ermöglicht. Die eigentliche Zielsetzung kommunizieren: Mit welcher Intention
wird ein Text geschrieben? Gilt es zu informieren, ins-
Bearbeitung der Prompts erfolgt mit dem Sprachmodell
pirieren, beraten, überzeugen, entertainen? Eine Ziel-
GPT-4. Um die Lesbarkeit zu gewährleisten, sind die Bei- setzung hilft ChatGPT, bessere Ausgaben zu erzeugen.
spielantworten von ChatGPT eher kurzgehalten und teil-
weise nur als Auszüge ausgegeben. GPT-4 kann ungefähr Formatvorgaben machen: Welche Form soll die Aus-
gabe haben? Wird ein Fließtext oder werden Stich-
25.000 Wörter (genauer 32.768 Tokens) als Kontext im
punkte benötigt, wie viele Wörter dürfen es sein? Soll
„Kopf“ behalten und darauf referenzieren 1. ein bestimmter Ton getroffen werden (z. B. freundlich
vs. streng)? Diese Informationen sorgen für eine be-
„Garbage in, Garbage out“ – Wer gute Antworten will, darfsgerechte Ausgabe.
muss gute Befehle geben
Feedback geben: Der gewünschte Output stellt sich
nicht immer beim ersten Versuch ein. Ein iteratives
Damit ChatGPT weiß, was von ihm verlangt wird, muss Vorgehen mit einer wiederholten Anpassung des
der Nutzer über ein Dialogfenster eine Eingabe – einen Prompts ist erfolgsversprechend. Dazu muss ChatGPT
sogenannten Prompt – tätigen. Dabei gilt: Je besser die mitgeteilt werden, wie die Ausgabe angepasst wer-
den soll, welche Aspekte fehlen oder stören.
Eingabe des Menschen, desto besser die Ausgabe von
ChatGPT. Es lohnt also, sich Gedanken bei der Prompt- Allgemeines
Erstellung zu machen. Das Denken nimmt ChatGPT seinen Es muss nicht immer jeder Aspekt berücksichtigt sein
Nutzern noch nicht ab. und die Reihenfolge scheint nebensächlich. Manch-
mal reicht auch eine kurze knackige Eingabe, um das
Ziel zu erreichen, z. B. muss man beim Übersetzen
Mit dem Prompt-Engineering hat sich auch schon eine nicht unbedingt spezifizieren, dass ChatGPT wie ein
eigene Disziplin zur Optimierung von Prompts herausge- Übersetzer agieren soll. Wichtig sind vor allem eine
bildet 16. Prinzipiell gilt: Je bessere Vorgaben gemacht wer- klare, einfache Sprache und gute Struktur des
Prompts. Fachbegriffe sollten nur verwendet werden,
den, desto bedarfsgerechter ist die Ausgabe und desto
wenn es die Aufgabe bzw. das Thema erfordert.
weniger muss im Nachhinein editiert werden.
8
ERGO Innovation Lab | Whitepaper Mai 2023
Texte erstellen
Versicherungsbeschreibungen
für das Internet
Dein Ziel ist es, auf der Unternehmenswebsite Interesse für eine
Wohngebäudeversicherung bei Eigenheimbesitzern zu wecken.
Erkläre, wie die Versicherung funktioniert, welche Schäden abgesichert
sind, gebe zwei kurze aber konkrete Beispiele an.
Ihr Eigenheim ist nicht nur ein Ort zum Leben, sondern auch eine wertvolle
Investition. Umso wichtiger ist es, dieses Vermögen bestmöglich zu schützen.
Unsere Wohngebäudeversicherung bietet genau den Schutz, den Sie benöti-
gen, um ruhig schlafen zu können.
Ein konkretes Beispiel: Stellen Sie sich vor, ein Sturm entwurzelt einen Baum in
Ihrem Garten und dieser beschädigt das Dach Ihres Hauses. Unsere Wohnge-
bäudeversicherung kommt für die Reparaturkosten und gegebenenfalls für
den Baumfällservice auf, sodass Sie sich um nichts kümmern müssen.
Ein weiteres Beispiel: Ein Wasserrohr in Ihrem Haus bricht und verursacht
einen massiven Wasserschaden. Unsere Wohngebäudeversicherung deckt die
Unser Prompt hat 68 Wörter. Kosten für die Reparatur des Rohrs sowie die Beseitigung des
Trotzdem haben kleine Ände- Wasserschadens.
rungen eine große Wirkung.
Ändern Sie beispielsweise die
Rolle von ChatGPT vom Websi- Schützen Sie Ihr Zuhause und Ihre finanzielle Sicherheit, indem Sie sich für
te-Texter zum Komiker, wird unsere Wohngebäudeversicherung entscheiden. Unser kompetentes Team
Ihr Eigenheim zum Palast, Na-
turkatastrophen zu komischen steht Ihnen jederzeit zur Verfügung, um Ihnen den bestmöglichen Schutz für
Zufällen, Stürme zu Windstö- Ihr Eigenheim zu bieten.
ßen und die Versicherung zum
Schutzzauber, der dafür sorgt,
dass Ihre Festung standhaft Call-to-Action: Zögern Sie nicht länger! Kontaktieren Sie uns noch heute, um
bleibt. ein unverbindliches Angebot für Ihre Wohngebäudeversicherung zu erhalten
und Ihr Eigenheim bestmöglich abzusichern.
9
ERGO Innovation Lab | Whitepaper Mai 2023
Texte erstellen
Datenschutzhinweise
& Einwilligungen
Gib eine Überschrift und Text sowie den Text für einen Opt-In Button mit.
Schreibe so einfach, klar und kurz wie möglich.
10
ERGO Innovation Lab | Whitepaper Mai 2023
Texte variieren
Productclaims generieren
Die Ausgabe soll als Tabelle erfolgen. Erstelle die Spalten Nummer,
Produktclaim, Bewertung. Lasse die Spalte Bewertung leer. Jeder Claim soll
aus 8 bis 12 Wörtern bestehen.
11
ERGO Innovation Lab | Whitepaper Mai 2023
Texte zusammenfassen
Für einen wöchentlichen Jour fixe musst du dich auf das Thema Generative
KI und ChatGPT vorbereiten. Du hast selbst aber keine Zeit, den Artikel
vollständig zu lesen und benötigst Unterstützung.
Quelle: //next
12
ERGO Innovation Lab | Whitepaper Mai 2023
Dialoge führen
Sei ein ERGO-ChatBot, der auf Fragen antwortet. Tritt in den Dialog ein,
indem du deinen Gesprächspartner begrüßt und ihn fragst, was du
für ihn tun kannst.
Bedingungswerk:
Das weiß ich leider nicht. Kann ich noch etwas für Sie tun?
13
ERGO Innovation Lab | Whitepaper Mai 2023
Dialoge führen
14
ERGO Innovation Lab | Whitepaper Mai 2023
Klassifizieren
Kontaktinformationen
aus Texten extrahieren
Erstelle basierend auf den beigefügten E-Mails eine Tabelle mit den
Namen, Nachnamen, Versicherungsnummern und Anliegen der Sender.
E-Mail 1: E-Mail 2:
Betreff: Änderungsmitteilung Betreff: Wechsel der Anschrift
Absender: max.mustermann@email.de Absender: erika.musterfrau@email.de
Sehr geehrte Damen und Herren, Hallo liebes Versicherungsteam,
hiermit kündige ich meine Reisekrankenversicherung ich ziehe um und wolle Ihnen nur kurz meine neue
(987654321) fristgerecht zum Ende des Quartals. Ich Adresse schicken:
entziehe Ihnen gleichzeitig das Sepa-Lastschriftman- Musterstrasse 1, 12345 Musterstadt
dat. Bitte senden Sie mir eine Kündigungsbestätigung Bitte schicken Sie die Post ab jetzt an die Anschrift.
auf dem Postweg zu. Viele Grüße
Mit freundlichen Grüßen Erika Musterfrau
Max Mustermann
Hier ist die erstellte Tabelle basierend auf den beigefügten E-Mails:
E-Mail 1:
Max Mustermann hat seine Reisekrankenversicherung (Versicherungsnummer:
987654321) gekündigt und das SEPA-Lastschriftmandat entzogen.
E-Mail 2:
Erika Musterfrau hat einen Umzug gemeldet und möchte, dass ihre Post
an ihre neue Adresse (Musterstrasse 1, 12345 Musterstadt) geschickt wird.
15
ERGO Innovation Lab | Whitepaper Mai 2023
Programmcode erstellen
Schreibe den Code für den Login-Screen. Frage den Nutzernamen und das
Passwort ab. Das Passwort ist maskiert und wird nur bei Bedarf angezeigt.
Füge ein Checkbox hinzu, die es erlaubt, dass das Passwort temporär für 14
Tage gespeichert wird.
Gerne!
Hier ist der Code für einen einfachen Login-Screen in Python:
import getpass
def login():
if remember_password.lower() == "y":
# save password to file or database for 14 days
pass
if __name__ == "__main__":
login()
Die Erstellung von Programm- Die Checkbox für das Speichern des Passworts könnte durch eine einfache
code beherrscht das Sprach- if-Abfrage implementiert werden, die prüft, ob der Nutzer die Option aus-
modell, weil auch diese Form
gewählt hat und das Passwort entsprechend für 14 Tage speichert. Da die
von Texten über die Trainings-
daten kennengelernt hat. Ne- Speicherung von Passwörtern in der Regel jedoch aus Sicherheitsgründen
ben der Codeerstellung kann vermieden wird, haben wir diese Funktionalität nicht implementiert.
man mit ChatGPT auch Code
kontrollieren, kommentieren,
erklären lassen oder von einer
Programmiersprache in eine
andere Programmiersprache
übersetzen.
16
ERGO Innovation Lab | Whitepaper Mai 2023
Sprachmodelle und viele Fragen Sprache ist komplex, vielfältig und mehrdeutig
Aktuell sorgen die Generative-Pre-Trained-Transfor- Der Wissenschaftszweig, der sich mit dem Verständnis
mer-Sprachmodelle von OpenAI für Aufsehen. Aber wie und der Verarbeitung von menschlicher Sprache
kommt es zu der rasanten Entwicklung bei Sprachmodel- durch Maschinen beschäftigt, wird Natural Language
len? Warum sind sie in der Lage, menschenähnliche Texte Processing (NLP) genannt. Für Maschinen stellt die
zu generieren? Wie funktioniert das Ganze und wo findet menschliche Sprache eine große Herausforderung dar.
sich die Künstliche Intelligenz wieder? Denn Sprache unterliegt einer Vielzahl von Regeln
(Syntax) und Worte haben Bedeutungen (Semantik),
Die Beispiele zeigen, wie mächtig Sprachmodelle gewor- die sich je nach Kontext verändern. Sprache ist mehr-
den sind. Dennoch weisen die Sprachmodelle teilweise deutig, vielfältig und ein Ausdruck persönlicher Prägung,
noch schwerwiegende Mängel auf. Warum die Entwick- Bildung und regionaler Kultur. Selbst uns Menschen fällt
lung so lange gedauert hat und welche Herausforderun- es schwer, Sprache zu verstehen – schon ein Rechtstext,
gen von den Entwicklern zukünftig zu lösen sind, ist nur Arztbrief, Dialekt oder eine Redewendung stellen uns
zu begreifen, wenn man ein Verständnis für die Funktions- vor Herausforderungen beim Sprachverständnis,
weise der Modelle hat. Nur mit einem ausreichenden Ver- das Erlernen einer Fremdsprache nicht zu vergessen.
ständnis für die Sprachmodelle ergibt sich auch das Wis- Einer Maschine menschliche Sprache beizubringen, ist
sen um die Schwächen und Limitationen der Technologie. eine hochkomplexe Aufgabe.
Begriffserklärungen
bezeichnet die Fähigkeit von Maschi- ist ein Teilgebiet der künstlichen ist ein Teilbereich des maschinellen
nen, bestimmte menschliche Fähig- Intelligenz, bei dem Computerpro- Lernens, der sich auf künstliche neu-
keiten wie Wahrnehmung, Entschei- gramme auf Basis von Daten auto- ronale Netzwerke mit vielen Schich-
dungsfindung, Problemlösung und nom „lernen“ und dabei ihre Leistung ten von Neuronen konzentriert. Durch
Spracherkennung zu imitieren oder verbessern. Trainieren mit großen Datenmengen
zu übertreffen. Dabei kommen Algo- kann es komplexe Muster erkennen
rithmen und Technologien wie und Vorhersagen treffen.
maschinelles Lernen, neuronale
Netze und Deep Learning zum
Einsatz.
17
ERGO Innovation Lab | Whitepaper Mai 2023
Probabilistische Modelle – Große Textmengen gepaart Für das Training von GPT-3 wurden beispielsweise
mit viel Rechenpower umfangreiche Texte aus dem Internet genutzt. Dafür
wurde das Internet gescraped, d. h. systematisch durch-
Frühe NLP-Versuche in den 1940er Jahren zielten darauf sucht und die Inhalte heruntergeladen. Zusätzlich wurde
ab, menschliche Sprache für Maschinen regelbasiert, syn- auf bereits digitalisierte Datenquellen (vor allem Bücher)
taxbezogen und formalisiert zu beschreiben. Damit zurückgegriffen. Die beeindruckende Menge von 570
erzielte man zunächst auch einige Erfolge, stieß aber Gigabyte an Daten aus verschiedenen Quellen wie Web-
schnell an Grenzen. Eine Gegenströmung setzte zur glei- seiten, Foren, Wikipedia-Artikeln und Büchern kam so
chen Zeit auf statistische und wahrscheinlichkeitsbasierte zusammen. Insgesamt wurden ca. 300 Milliarden Wörter
Ansätze 25. Die statistischen und probabilistischen Ansätze (genauer 499 Milliarden Tokens) in das Sprachmodell ein-
verzichten weitestgehend auf die sprachlichen Regeln und gespeist 26, 27.
gehen vereinfacht von folgender Logik aus: Die Bedeutung
eines Wortes bestimmt sich aus den begleitenden Wor- Welche enorme Rechenleistung für das Training eines
ten, die häufig nebeneinander oder in der Nähe auftreten. Sprachmodells benötigt wird, zeigt der „Supercomputer“
Man muss also nur genug Texte kennen, um zu lernen, den OpenAI beim Training einsetzt. Die Zahlen klingen
unglaublich: 285.000 Zentralprozessoren (CPU), 10.000
Graphikprozessoren (GPU) und 400 Gigabits pro Sekunde
„You shall know a word an verfügbarer Netzwerkverbindung für jeden einzelnen
GPU. Der Supercomputer gehört zu den 5 leistungsstärks-
by the company it keeps!“ ten Computern auf der Welt und kommt von Microsoft –
ein Grund dafür, dass OpenAI und Microsoft eine enge
J.R. Firth,
strategische Kooperation pflegen 28. OpenAI darf die tech-
A synopsis of linguistic theory (1957)
nische Infrastruktur von Microsoft zu günstigen Konditio-
nen nutzen, Microsoft erhält dafür Verwertungsrechte an
wie Worte untereinander zusammenhängen und wie den Produkten von OpenAI 29.
wahrscheinlich sie gemeinsam auftreten. Je mehr Infor-
mationen zum Kontext eines gesuchten Wortes bekannt Word-Embeddings – semantische Strukturen in Texten
sind, desto größer die Wahrscheinlichkeit, ein passendes codieren
Wort zu finden. Das Wort „Bank“ erhält z. B. eine jeweils
andere Bedeutung, wenn es von den Wörtern „Geld, Damit ein großes Sprachmodell mit Texten umgehen
Schalter, abheben“ oder „Park, Natur, sitzen“ begleitet kann, müssen Texte zunächst in eine maschinenlesbare
wird. Form umgewandelt werden. Jedem Wort (oder auch ein-
zelnen Wortbestandteilen), Satz- und Sonderzeichen wird
Statistische und wahrscheinlichkeitsbasierte Ansätze wur- dann ein numerischer Wert zugeordnet, mit dem der
den lange durch eine mangelnde Rechenkapazität und Computer operieren kann. Zusätzlich sollen ähnliche
eine schlechte Verfügbarkeit von Text-Daten in digitaler Worte auch ähnliche numerische Werte aufweisen. Dazu
Form zurückgehalten. Dies änderte sich spätestens durch werden Wörter mit Hilfe von Vektoren in einer Art mehrdi-
das Aufkommen vom Personal Computer (PC) und des mensionalem Raum abgebildet. Ähnliche Wörter mit ähn-
Internets. Seitdem erleben wir durch die Digitalisierung lichen Bedeutungen werden möglichst nahe beieinander
und Technologisierung ein Anwachsen der verfügbaren im Vektorraum positioniert. Die Ähnlichkeit bestimmt sich
Daten, der Rechenleistung und von Ansätzen innerhalb durch das gemeinsame Auftreten mit anderen, begleiten-
des Natural Language Processing, die davon profitieren 25. den Worten. Diese sogenannte Worteinbettung (Word
18
ERGO Innovation Lab | Whitepaper Mai 2023
Embedding) in einen multidimensionalen Raum ist die ten Bezügen im Text für Schwierigkeiten. In RNNs können
Grundlage für die Sprachverarbeitung durch große Informationen über die einzelnen Schleifen verwässert
Sprachmodelle 30. bzw. verfälscht werden und die Verkettung macht sie
relativ langsam. Diese Mängel beim Berücksichtigen von
Neuronale Netze und maschinelles Lernen – Kontext und der Geschwindigkeit limitieren ihren Einsatz
Muster in den Daten finden bei der Sprachverarbeitung 32.
Um aus den Word Embeddings nun sinnvolle Texte bilden Transformer – Eine Revolution für Sprachmodelle
zu können, müssen Muster in den Daten identifiziert wer-
den. Dafür wird auf neuronale Netzwerke und maschinel- Die Vorstellung von Transformer-Modellen stellte 2017
les Lernen zurückgegriffen. Neuronale Netzwerke sind einen Meilenstein in der Entwicklung von Sprachmodellen
dem menschlichen Gehirn nachempfunden und bestehen dar. Sie basieren auf der Transformer-Architektur, welche
aus miteinander verbundenen Neuronen. Über die Verbin- von Google-Forschern im Paper „Attention is all you need“
dungen werden Informationen (Gewichte) von einer eingeführt wurde 33. Transformer-Modelle bestehen laut
Schicht von Neuronen an die nächste Schicht weiterge- dem ursprünglichen Entwurf aus Encodern und Decodern.
reicht und durch die Neuronen verarbeitet 31. Jedes Neu- Ein Encoder nimmt die Texteingabe entgegen und erstellt
ron verarbeitet die erhaltenen Informationen über eine eine mathematische Repräsentation des Textes und sei-
meist einfache mathematische Operation (z. B. Schwel- ner Merkmale. Der Encoder ist darauf optimiert, ein Ver-
lenwert- oder Aktivierungsfunktionen), indem sie ein ständnis aus der Eingabe zu erlangen. Decoder nutzen die
Gewicht verstärken oder dämpfen 30. In einer ersten Trai- Informationen des Encoders zusammen mit anderen Ein-
ningsphase wird das Sprachmodell auf großen Textmen- gaben, um die Ausgabe zu generieren. Nach Einführung
gen vortrainiert (pre-trained). Beim Training wird das der Transformer-Architektur haben sich eine Reihe von
sogenannte Masking angewandt. Das ist eine Technik im großen Sprachmodellen herausgebildet, die nur Encoder,
maschinellen Lernen, bei der einzelne Wörter in Texten nur Decoder oder aber Encoder und Decoder nutzen. Sie
verdeckt – also maskiert – werden. Die Modelle lernen werden entsprechend ihrer Fähigkeiten für unterschiedli-
eigenständig (unsupervised), diese maskierten Wörter che Zwecke eingesetzt 34:
basierend auf den vorherstehenden Wörtern vorherzusa-
gen. Die Vorhersage wird mit der tatsächlichen Ausgabe, Reine Encoder-Modelle fokussieren auf das Verständnis
d. h. dem maskierten Wort, verglichen. Das Modell wird des Inputs und sind für Aufgaben wie Klassifikation oder
mit jedem weiteren Trainingsschritt besser bei der Vorher- Entitätserkennung geeignet.
sage, indem es die Gewichte so anpasst, dass die Fehler
des Modells minimiert werden. Dazu kommen Methoden Reine Decoder-Modelle sind für generative Aufgaben
wie Backpropagation und Gradient Descent zum Einsatz 31. geeignet, wie z. B. die Textgenerierung.
Am Ende entsteht durch das Training und die ausgebilde-
ten Gewichte eine Art gelerntes Denkmuster. Damit ist Encoder-Decoder-Modelle sind für generative Aufgaben
das große Sprachmodell sogar in der Lage, Texte zu verar- wie Übersetzungen und Zusammenfassungen geeignet,
beiten, die es im Training nie gesehen hat. Über den Trai- die eine Eingabe erfordern.
ningsprozess hat das neuronale Netz selbstständig die
beste Konfiguration an Gewichten kennen, um basierend Der Übersetzer DeepL ist beispielsweise ein Encoder-De-
auf einer Texteingabe das nächstwahrscheinliche Wort coder-Modell, während die GPT-Sprachmodelle von
vorherzusagen. Schrittweise bildet das Sprachmodell OpenAI reine Decoder-Modelle sind 32.
somit einen ganzen Text als Ausgabe.
Aufmerksamkeit ist alles, was man braucht
In früheren Sprachmodellen kamen beispielsweise soge-
nannte Rekurrente Neuronale Netzwerke (RNN) zum Ein- Das Besondere an Transformer-Modellen ist ihr Aufmerk-
satz. Die bestehen aus einer Reihe hintereinander samkeitsmechanismus. Während andere Modelle mit
geschalteter neuronaler Netzwerke, zwischen denen eine RNNs die Eingabe noch nacheinander verarbeiten und
Informationsübergabe stattfindet. Ein neuronales Netz- damit nur auf alles vorherstehenden Bezug nehmen kön-
werk verarbeitet die Eingabe und erzeugt das nächst- nen, verarbeiten Transformer die gesamte Eingabe auf
wahrscheinliche Wort. Die Ausgabe dieses neuronalen einmal. Dazu müssen sie aber verstehen, wie wichtig wel-
Netzes wird dann als zusätzliche Eingabe an ein nachge- che Wörter der Eingabe sind. Dazu wird zunächst jedes
schaltetes neuronales Netzwerk übergeben. Damit erhal- Wort der Eingabe in einen Vektor überführt. Der Aufmerk-
ten RNNs eine Art übermittelbares Gedächtnis, welches samkeitsmechanismus gleicht jedes Wort der Eingabe mit
Vorhersage des nächsten Wortes im nachfolgenden allen anderen der Eingabe ab und errechnet eine neue
Modell beeinflusst. Diese Verkettung von neuronalen Net- mathematische Darstellung. Diese berücksichtigt wie
zen sorgt vor allem bei langen Texten und weiter entfern- stark einzelne Wörter der Eingabe zusammenhängen und
19
ERGO Innovation Lab | Whitepaper Mai 2023
10/2019 BART Encoder & Decoder 374 Mio Hauptsächlich Textgenerierung, Facebook
aber auch einige Textverständnisaufgaben.
05/2020 GPT-3 Decoder 175 Mrd Ursprünglich Textgenerierung, aber im Laufe OpenAI
der Zeit für eine Vielzahl von Anwendungen
in Bereichen wie Code-Generierung, aber auch
Bild- und Audio-Generierung verwendet worden
damit auch die semantische Struktur. Dabei zieht er auch Das Netzwerk sagt nun das nächstwahrscheinliche Wort
Informationen zu der Position der einzelnen Wörter, über voraus. Grundlage dafür sind die im Training mit großen
ein sogenanntes Positional Encoding, heran. Am Ende die- Textmengen gelernten Muster und die im Aufmerksam-
ses Schritts sind die Eingabetexte so gewichtet, dass die keitsmechanismus übergebenen Informationen 30.
Aufmerksamkeit auf relevante Wörter und deren Bezug
untereinander gelenkt wird 32. Das funktioniert auch über Ein einzelner Decoder bei GPT-Sprachmodellen besteht
große Distanzen zwischen einzelnen Wörtern und in beide aus einem Aufmerksamkeitsmechanismus und einem
Richtungen, d. h. der Kontext eines Wortes kann sich auf neuronalen Netzwerk. Die Eingabe durchläuft allerdings
Worte davor oder danach beziehen. mehrere hintereinander geschaltete Decoder, wobei in
jedem einzelnen Zyklus der Fokus auf andere Merkmale
Durch die Verarbeitung der gesamten Eingabe können die der Eingabe gelegt wird und andere Gewichte in den
Berechnungen parallelisiert werden, d. h. eine Rechenein- Netzwerken existieren. Dadurch können unterschiedliche
heit wendet den Aufmerksamkeitsmechanismus auf das Merkmale der Eingabe berücksichtigt werden und ein tie-
erste Wort an, eine weitere Recheneinheit zeitgleich auf fes Sprachverständnis erreicht werden. Am Ende liefert
das zweite Wort, eine weitere Recheneinheit auf das der Transformer eine Wahrscheinlichkeit für jedes Wort
dritte Wort, usw. Damit wird die Eingabe wesentlich (bzw. jeden Token) in seinem Sprachschatz, welche
schneller verarbeitet, als das bei RNNs möglich ist. Die angibt, wie wahrscheinlich es auf die Eingabe folgt. Aus
über den Aufmerksamkeitsmechanismus errechneten den Worten mit den höchsten Wahrscheinlichkeiten wird
Vektoren werden anschließend an ein tiefes neuronales dann ein Wort gewählt, welches an die Eingabe angefügt
Netz übergeben 32. Tiefe Netzwerke enthalten viele Schich- wird 32. Das muss je nach Einstellung nicht immer das
ten von Neuronen, die es ihnen ermöglichen, immer kom- wahrscheinlichste Wort sein, damit die Ausgabe variiert
plexere Merkmale und Muster in den Daten zu erkennen. wird und nicht roboterhaft klingt. Die jeweils neue Ein-
In Sprachmodellen ermöglicht Deep Learning die Verar- gabe durchläuft dann wieder einen kompletten
beitung und das Verständnis von natürlicher Sprache auf Decoder-Zyklus, bis derjenige Token die höchste Wahr-
einer tieferen Ebene, indem es beispielsweise Textstruktu- scheinlichkeit aufzeigt, der das Ende einer Ausgabe
ren, Bedeutungen und sogar kulturelle Nuancen erfasst 31. kennzeichnet.
20
ERGO Innovation Lab | Whitepaper Mai 2023
Menschliches Feedback – Der Weg zu besseren Texten Sprachmodelle werden immer leistungsfähiger
OpenAI nutzt nach dem unsupervised Pre-Training zusätz- Die Kombination von Transformer-Architekturen mit neu-
lich menschliches Feedback beim Training seiner Sprach- ronalen Netzwerken, Deep Learning und Reinforcement
modelle durch ein Fine-Tuning und ein sogenanntes Rein- Learning mit menschlichem Feedback hat dazu geführt,
forcement Learning with Human Feedback (RLHF) 35, 36. dass Sprachmodelle immer leistungsfähiger, vielseitiger
und sprachgewandter werden. GPT-3, welches als Basis
Beim Fine-Tuning werden zufällig Prompts aus einem für ChatGPT dient, verfügt beispielsweise über 175 Milliar-
Datensatz ausgewählt und durch einen Menschen beant- den Parameter – das sind die Werte, die dem Model zur
wortet. Diese Eingabe-Ausgabe-Kombination wird zum Verfügung stehen, um die Vorhersage des nächsten Wor-
Training des Sprachmodelles über ein überwachtes Lernen tes in einem Text zu machen. Das GPT-3-Modell besteht
(supervised learning) genutzt, welches wieder zur Anpas- aus 96 Schichten von neuronalen Netzen, d. h. hinterein-
sung der Gewichte im tiefen neuronalen Netz führt. ander geschalteten Decoder-Blöcken 14, 27. Für das Training
kamen ca. 499 Milliarden Tokens und 570 GB an Textda-
Beim RLHF beurteilen Menschen verschiedene Ausgaben ten zum Einsatz 26. Allein die Möglichkeit, solche großen
zu einem Prompt. Diese können von verschiedenen Textmengen zu verarbeiten, hat in den letzten Jahren für
Sprachmodellvarianten stammen. Üblicherweise werden eine Verbesserung der Performance von Sprachmodellen
die Antworten von Labelern in eine Rangfolge gebracht, gesorgt. Mittlerweile gibt es schon Schwierigkeiten, geeig-
welche die menschlichen Präferenzen abbilden. Basierend nete Daten für das Training von großen Sprachmodellen
auf diesem Feedback wird ein weiteres KI-Modell zu finden 38. OpenAI hat durch die Veröffentlichung von
(Reward-Modell) trainiert, welches jeweils Belohnungen ChatGPT jedoch Zugang zu einem einzigartigen Daten-
oder Bestrafungen für eine große Anzahl an Ausgaben schatz erhalten, der durch die Nutzerprompts offenbart,
des Sprachmodells vergibt. Hier trainiert also eine KI eine was Nutzer interessiert und durch Beurteilungen der Aus-
andere KI. Das Sprachmodell bzw. die neuronalen Netze gabe weitere Trainingsdaten erzeugt. Die Zukunft der
passen daraufhin ihre Gewichte an, um die Belohnungen Sprachmodelle liegt in ihrer weiteren Verbesserung und
zu maximieren. Dadurch wird der Output von Sprachmo- der Minimierung der Grenzen und Risiken.
dellen stärker an menschliche Präferenzen, Kommunika-
tion und Entscheidungsfindung angepasst 36, 37.
21
ERGO Innovation Lab | Whitepaper Mai 2023
Eine wichtige Erkenntnis lautet – Sprachmodelle sind ein Dem Umstand dieser möglichen Verzerrungen muss man
Abbild Ihrer zugrundeliegenden Daten und Methodik. Aus sich bewusst sein. Sprachmodelle sind nicht objektiv und
der Art und Weise wie Sprachmodelle trainiert wurden nicht neutral. Sie können – wie jedes Werkzeug – auch
und wie sie funktionieren, ergeben sich einige Implikatio- missbräuchlich eingesetzt werden. Im Versicherungskon-
nen für deren Nutzung. text wurde bereits diskutiert, ob der Einsatz von ChatGPT
zu mehr Versicherungsbetrug führen kann 45. Dem ist ent-
Sprachmodelle verstehen Sprache nicht im gegenzustellen, das Sprachmodelle und andere KI-Algo-
menschlichen Sinne rithmen ebenso zur Erkennung von Betrugsversuchen ein-
gesetzt werden können.
Sprachmodelle verstehen Sprache nur in der Art, dass sie
über das Training Massen an Daten verarbeitet und Mus- OpenAI ist darum bemüht, mittels vorgeschalteter Filter
ter gelernt haben. Ein kausales oder temporales Verständ- eine Reihe von Verzerrungen zu mindern und die miss-
nis haben sie nicht, wie auch keine eigenen Ziele oder bräuchliche Verwendung von ChatGPT zu verhindern 22.
Intentionen 40. In diesem Zusammenhang wird auch öfter Die ChatGPT-Antworten werden dann entweder verwei-
von stochastischen Papageien (Stochastic Parrots) gespro- gert oder bewusst ausgewogen dargestellt. Welche
chen, die das Gelernte ohne ein Verständnis nachplap- Inhalte das in welcher Form betrifft, liegt in der Hand der
pern 41. Erstellen Sprachmodelle also Texte, hängen die Entwickler selbst. Hier werden auch kritische Stimmen
Worte mit einer gewissen Wahrscheinlichkeit zusammen. laut, die die Meinungsfreiheit beschnitten sehen und
Das heißt jedoch nicht, dass sie logisch schlüssig und rich- alternative Angebote schaffen wollen 46. Andere sehen
tig sein müssen. Deshalb ist die menschliche Kontrolle z. B. eine politische Neutralität als einen Schritt hin zu
von Inhalten unerlässlich. einer verantwortungsvollen KI 47.
Die Daten sind nicht frei von Verzerrungen Einmal Gelerntes abzutrainieren ist fast unmöglich
und potenziell schädlichen Inhalten
Sprachmodelle erhalten ihr gesammeltes Wissen durch
Die Daten für das Sprachmodell stammen zum großen den Trainingsprozess, auf dessen Grundlage sich die
Teil aus dem Internet, wo bekanntlich jede Meinung ihren Gewichte (Verbindungen zwischen Neuronen) im tiefen
Platz findet. Zwar wurden die Daten einer Filterung unter- neuronalen Netzwerk bestimmen. Es ist nicht (vollständig)
zogen, um qualitativ hochwertige Ausgangsdaten zu nachvollziehbar, wie einzelne Trainingsinhalte auf die
erhalten. Dies verhindert jedoch nicht, dass die Sprach- Gewichte und damit Zustände der Neuronen bei der Ver-
modelle mit Daten trainiert wurden, die beispielweise Fal- arbeitung von Texten wirken. Deshalb können einmal
schinformationen (z. B. Fake News), implizite Stereotypen angelernte Inhalte nicht einfach aus dem Modell entfernt
(z. B. Geschlechter- oder Arbeitsrollen) und Diskriminie- werden. Dieser Umstand stellt eine große Herausforde-
rungen (z. B. Rassismus) enthalten 42. Das Sprachmodel ist rung in Bezug auf die eben diskutierten Falschinformatio-
und bleibt ein Spiegel der Gesellschaft und ihrer veröffent- nen, Verzerrungen sowie potenziell schädlichen Inhalte in
lichten Inhalte. Das bedeutet auch, dass die Trainingsda- den Trainingsdaten dar.
ten Beschreibungen in Bezug auf kriminelle und unethi-
sche Handlungen enthalten können. In der Presse wurde Wurde ein Sprachmodell zusätzlich mit unternehmensin-
zum Beispiel berichtet, dass die Attribute männlich, weiß ternen, produktspezifischen Daten trainiert, z. B. durch ein
einen erfolgreichen Wissenschaftler ausmachen oder Fine-Tuning, ergibt sich eine weitere Herausforderung:
ChatGPT Anleitungen zur Programmierung von Schadsoft- Veraltete Daten. Was passiert, wenn beispielsweise Pro-
ware ausgibt 43, 44. duktinformationen in Form von Versicherungsbedingun-
22
ERGO Innovation Lab | Whitepaper Mai 2023
gen zum Training eines Sprachmodells benutzt wurden, Suchmaschine Bing von Microsoft greift schon auf aktu-
das Produkt nun aber aus dem Produktportfolio entfernt elle Daten aus dem Internet zu 48. Ein weiterer Schritt sind
wurde? Die alten Produktinformationen haben sich im die im März 2023 vorgestellten Plug-ins von ChatGPT, die
Trainingsprozess auf die Gewichte im Sprachmodell aus- es erlauben, auf aktuelle Daten und externe Services von
gewirkt und können nicht einfach angepasst werden. Viel- Dritten zuzugreifen 49.
mehr muss das Sprachmodell dann mit angepassten Trai-
ningsdaten erneut trainiert werden. Erfundene Inhalte werden mit großem
Selbstbewusstsein kommuniziert
Will man die Anpassung von Gewichten im Modell verhin-
dern, lohnt sich die Arbeit mit Embeddings 19. Diese erlau- Wie eben beschrieben, sind Sprachmodelle keine Fakten-
ben den Zugriff auf Daten, die außerhalb des Sprachmo- maschinen. Das bedeutet, dass die Inhalte, die ChatGPT
dells liegen, wobei die Gewichte jedoch nicht verändert erstellt, Unwahrheiten enthalten und vollständig erdacht
werden. Dies funktioniert ähnlich wie in einem der sein können. Dieses Phänomen ist bei Sprachmodellen
gewählten Beispiele, wo die Versicherungsbedingungen unter dem Begriff Halluzinieren bekannt. Das Sprachmo-
als Bezugsrahmen für die Antworten des Sprachmodells dell basiert sein Sprachverständnis rein auf Wahrschein-
dienten. Bei Embeddings kopiert man jedoch keine voll- lichkeiten. Das bedeutet allerdings, dass noch so kleine,
ständigen Texte, sondern übergibt die modellexternen eigentlich bedeutungslose oder zufallsgetriebene Zusam-
Daten als mathematische Vektor-Repräsentation. Damit menhänge zwischen Wörtern existieren und für Ausgaben
lassen sich große Datenmengen auch sehr effizient an des Sprachmodells herangezogen werden. Problematisch
das Sprachmodell übergeben. Im Grunde genommen, hat ist neben dem Halluzinieren an sich auch die Art und
das Sprachmodell über das Standard-Training gelernt, mit Weise der Darbietung. Zweifel gibt es nicht. Jeder Inhalt
Sprache umzugehen und wendet dieses Wissen auf den wird plausibel, selbstbewusst und sprachlich schlüssig
Prompt und die externen Daten an. präsentiert. Der uninformierte Nutzer wird dadurch leicht
in einer trügerischen Sicherheit gewogen. Wieder gilt: Ver-
ChatGPT ist keine Such- oder Faktenmaschinen trauen ist gut, Kontrolle ist besser.
Sprachmodelle sind wie ein kollektives Gedächtnis, das Die Abminderung von Halluzinationen ist ein wichtiges
sich alles „Gelesene“ gemerkt hat und die Informationen Forschungsfeld im Bereich der Sprachmodelle. Mit der Ver-
jederzeit abrufen kann. Das Sprachmodell kann aber kei- öffentlichung von GPT-4 verkündete OpenAI, dass Halluzi-
neswegs sagen, woher die ausgegebenen Informationen nationen noch immer eine Herausforderung darstellen.
genau stammen. Dies verdeutlicht vor allem eine Sache: Die Wahrscheinlichkeit der Ausgabe sachlicher bzw. fak-
ChatGPT ist keine Suchmaschine. Sie kann (noch) nicht tenbasierter Antworten ist jedoch um 40% höher als bei
auf indizierte Quellen oder Referenzen verweisen. der ursprünglichen Variante von GPT-3.5 14. Trotzdem zei-
gen interne Benchmarks zur Faktenevaluation von
Je häufiger und ähnlicher die Trainingsdaten einen Sach- OpenAI, dass die Antworten von ChatGPT über verschie-
verhalt widerspiegeln, desto klarer ausgeprägte Wort- denen Kategorien nur zu ca. 75–85% an den von Men-
wahrscheinlichkeiten wird es im Sprachmodell geben. Im schen als ideal wahrgenommenen Antworten liegen 14. Es
Ergebnis werden die ChatGPT-Ausgaben also bei homoge- gibt jedoch weitere Versuche, die Antworten von Sprach-
nen und oft beschriebenen Themen nah an den Trainings- modellen anhand von externen Quellen zu verifizieren.
daten und einer Art objektiver Wahrheit liegen. Einschrän- Man spricht in diesem Zusammenhang auch von Groun-
kend muss jedoch festgestellt werden, dass auch zu ver- ding oder Groundedness (Fundierung/Fundierheit). Diese
meintlichen Fakten wie der Mondlandung oder dem Kli- gibt an, inwieweit die Antworten durch maßgebliche
mawandel sehr kontroverse Meinungen existieren. Diese externe Quellen gestützt werden 50, 51.
Meinungen haben sehr wahrscheinlich einen Platz in den
Trainingsdaten gefunden und können sich in den Ausga- Das Urheberrecht liegt (noch) beim Nutzer –
ben der Sprachmodelle widerspiegeln. Da ChatGPT nicht oder doch Dritten?
berichten kann, woher die Informationen stammen, müs-
sen Ausgaben immer mit kritischem Blick überprüft und Laut den Nutzungsbedingungen von OpenAI (Stand:
einem sogenannten Fact-Checking unterzogen werden. 20.04.2023) überträgt das Unternehmen den Nutzern alle
Rechte, Titel und Interessen an und in Bezug auf den Out-
Des Weiteren wurden für das Training nur Daten bis zu put 17. Der Nutzer darf die Inhalte für alle Zwecke verwen-
einem Stichtag berücksichtigt. Bei GPT-3.5 liegt dieser im den. Das schließt auch kommerzielle Zwecke wie den Ver-
September 2021 27. Auf aktuelle Daten kann ChatGPT kauf und Veröffentlichungen ein. Das heißt allerdings
standardmäßig nicht zugreifen. Hier sind allerdings auch nicht, dass der Output von ChatGPT nicht auch das Urhe-
Neuerungen zu erwarten: Die GPT-4 Integration in die berrecht Dritter betreffen kann.
23
ERGO Innovation Lab | Whitepaper Mai 2023
24
ERGO Innovation Lab | Whitepaper Mai 2023
Auch dieses Verhalten lässt sich sehr gut mit den Eigen- Interessanterweise gibt es auch mahnende Worte aus
heiten eines Sprachmodells erklären – ChatGPT führt keine den Kreisen der Entwickler von KI-Systemen selbst. So for-
Berechnung durch. In den Trainingsdaten hat das zugrun- derte im März 2023 eine Petition mit namenhaften Unter-
deliegende Sprachmodells eine Vielzahl von mathemati- stützern wie Elon Musk – übrigens Mitgründer von OpenAI
schen Operationen gesehen und die Wahrscheinlichkeiten – und Steve Wozniak eine sechsmonatige KI-Trainings-
zwischen Ziffern und Operanden gelernt. Das Einmaleins pause 58. Hintergrund ist das aktuelle, ungezügelte Wett-
und leichtere Rechenaufgaben kommen wahrscheinlich rennen um die beste Künstliche Intelligenz. Die Unter-
häufig in den Testdaten vor und sind mit hoher Sicherheit zeichner warnen explizit vor den Risiken einer KI, die
replizierbar. Aufgaben, die für das Sprachmodell neu sind, menschliche Intelligenz erreicht oder gar übertrifft. Denn
werden wieder nur über Wahrscheinlichkeiten von Ziffern- bei GPT-4 zeigen sich schon erste Anzeichen einer Artifi-
und Operanden-Kombinationen bestimmt, aber eben cial General Intelligence, weshalb man für die Entwick-
nicht berechnet. lung darüberhinausgehender Systeme Regeln schaffen
sollte 59. Die Entwicklung solcher Systeme sollte sorgfältig
Es wird allerdings nur eine Frage der Zeit sein, bis das geplant und überwacht werden, damit die Menschheit
Sprachmodell erkennt, das eine mathematische Verarbei- von den Potenzialen solcher KI-Systeme profitieren kann.
tung erforderlich ist und auf andere Rechenprogramme Die KI-Trainingspause soll dazu genutzt werden, in
oder spezialisierte Mathematik-KIs zugreifen wird. Trotz- Zusammenarbeit mit politischen Entscheidungsträgern,
dem ist es erstaunlich, dass man mit Hilfe von ChatGPT die notwendigen Sicherheitsprotokolle, Prüfverfahren und
komplexe Aufgaben und Fallstudien lösen kann, aber sim- robuste Steuerungssysteme zu entwickeln.
ple mathematische Berechnungen die Grenzen des
Modells aufzeigen. In Anbetracht der möglichen Auswirkungen der KI-Ent-
wicklung auf eine Vielzahl von Lebens- und Arbeitsberei-
Ethik – Was darf und soll KI tun? chen wird es zukünftig zur Ausarbeitung eines Gestal-
tungsrahmens für die Entwicklung und die Anwendung
Mit der zunehmenden Verbreitung von KI-Systemen in von KI-Systemen kommen. Es gibt bereits erste Prinzipien,
alle Lebensbereiche müssen auch grundsätzliche ethische die für die Entwicklung einer „responsible/trusted/ethical
Fragestellungen beleuchtet werden. Der Deutsche Ethikrat AI“ gelten. Dazu gehören z. B. bei Microsoft als einen der
hat sich als unabhängiges Sachverständigengremium aktuellen Treiber von ChatGPT 60: Verantwortlichkeit, Einbe-
kürzlich intensiv damit beschäftigt, welche Regeln beim ziehung aller, Zuverlässigkeit und Sicherheit, Fairness,
Einsatz von KI gelten sollen. Im März 2023 wurde ein 290 Transparenz sowie Datenschutz und Sicherheit. Auch
Seiten starker Bericht unter dem Titel „Mensch und ERGO agiert im Rahmen selbst auferlegter Leitplanken
Maschine – Herausforderungen durch Künstliche Intelli- zum Umgang mit Künstlicher Intelligenz.
genz“ veröffentlicht, der Chancen und Risiken der KI-Ent-
wicklung beleuchtet 57. Der Ethikrat diskutiert das Thema Der Schutz persönlicher Daten und von
ausgehend von den Kernthemen Intelligenz, Vernunft und Geschäftsgeheimnissen ist ein hohes Gut
Verantwortung. Er sieht Chancen beim Einsatz von Künst-
lichen Intelligenzen in den hauptsächlich untersuchten Wer heute Daten in ChatGPT eingibt, erlaubt OpenAI die
Feldern Medizin, Bildung, öffentliche Kommunikation und Daten für das Training weiterer Sprachmodelle heranzie-
Meinungsbildung sowie der öffentlichen Verwaltung. Die hen zu dürfen 17. Das gilt sowohl für die kostenlose als
Rolle von KI sollte aber auf die eines Erfüllungsgehilfen auch für die ChatGPT Plus Version. Daraus ergeben sich
und Assistenten beschränkt werden. Die ethische, morali- selbstverständlich Fragen des Datenschutzes und der
sche Verantwortung und Bewertung des Handelns von Geheimhaltung. Denn die eingegebenen Daten könnten
KI-Systeme sollten jedoch beim Menschen selbst verblei- theoretisch in einer neuen Sprachmodellvariante extra-
ben. Die Maschine darf den Menschen nicht ersetzen, son- hierbar werden, d. h. Nutzer zukünftiger Sprachmodelle
dern soll die menschliche Entfaltung erweitern. könnten auf die personenbezogenen Daten zugreifen. Die
Eingabe personenbezogene Daten der Nutzer selbst und
Der Ethikrat mahnt Transparenz und die Berücksichtigung von Dritten sollte deshalb absolut vermieden werden. Das
sozialer Gerechtigkeit, von Machtverhältnissen, Pluralis- betrifft beispielsweise die Eingabe von Namen, E-Mails,
mus und freier Meinungsbildung an. Auch müssen Adressen, Zahlungsdaten und besonders schützenswerter
Schwachstellen und negative Konsequenzen vom KI-Ein- Daten wie Gesundheitsdaten, in ChatGPT. Dasselbe gilt für
satz erkannt und beseitigt werden. Auch Regulierung hält Daten, die der Geheimhaltung unterliegen. Dieser Aspekt
der Ethikrat für denkbar, setzt aber ausdrücklich auch auf ist gerade im Kontext der beruflichen Nutzung bei
Selbstregulierung durch die Industrie, wobei freiwillig Geschäftsgeheimnissen zu berücksichtigen. Zwei aktuelle
erlassene Codizes oder Leitlinien zum ethischen Umgang Beispiele verdeutlichen eindringlich, wie wichtig die Ein-
mit KI herangezogen werden. haltung dieser Regeln ist:
25
ERGO Innovation Lab | Whitepaper Mai 2023
(1) Mitarbeiter von Samsung hatten ChatGPT unter ande- Eine klare Empfehlung: Der Mensch bleibt in der
rem dafür eingesetzt, Gesprächsnotizen in Texte für Prä- Verantwortung
sentation umzuwandeln und Testsequenzen für die Iden-
tifizierung von Fehlern in einem neuen Chip zu optimieren. Noch im Dezember 2021 schrieb Sam Altman der OpenAI
Dabei wurden unternehmensinterne, geheime Daten auf CEO auf Twitter 65:
Server von OpenAI übertragen, die diese Informationen „ChatGPT ist unglaublich begrenzt, aber gut genug in
gemäß ihrer Nutzungsbedingungen nun verwenden einigen Dingen, um einen irreführenden Eindruck von
dürfen 61. Größe zu vermitteln. Es ist ein Fehler, sich im Moment
für irgendetwas Wichtiges darauf zu verlassen. Es ist
(2) Datenschützer haben im April 2023 ein Verbot von eine Vorschau auf den Fortschritt; wir müssen noch viel
ChatGPT in Italien erwirkt 62. Hintergrund ist ein Sicher- an der Robustheit und Wahrhaftigkeit arbeiten.“
heitsleck bei OpenAI, welches den Zugriff auf Nutzer-
prompts und Zahlungsdaten ermöglichte. Neben dem Daraus ergibt sich die Notwendigkeit über die Chancen
konkreten Anlass bemängelte man grundlegende Ver- und Risiken von Sprachmodellen und Anwendungen wie
stöße gegen die europäische Datenschutz-Grundverord- ChatGPT aufzuklären. Auch im April 2023 gilt, dass
nung (DSGVO, englisch: GDPR, General Data Protection Sprachmodelle noch nicht ohne die notwendige mensch-
Regulation) 63. Die Datenschützer sehen keine Grundlage liche Kontrolle verantwortungsbewusst eingesetzt werden
für die massenhafte Erhebung und Speicherung von per- können. Im Zuge der GPT-4 Einführung schiebt der
sönlichen Daten, welche für das Training der Sprachmo- OpenAI CEO 66:
dell herangezogen werden. Das Einsammeln von Trai- „[ChatGPT] ist immer noch fehlerhaft, immer noch
ningsdaten sei für den Betrieb der ChatGPT-Plattform begrenzt, und es scheint immer noch beeindruckender
nicht notwendig und damit unzulässig (Stichwort: Erfor- zu sein, wenn man es zum ersten Mal benutzt, als es
derlichkeitsprinzip). Zudem wird das Alter der Nutzer bei ist, wenn man mehr Zeit damit verbringt“
der Registrierung nicht erfasst, welches Minderjährigen
potenziell Zugriff zu ungeeigneten Inhalten ermöglicht. Dementsprechend sollte man sich an folgende Anweisun-
Dazu steht auch eine Übermittlung der erhobenen Daten gen halten, die OpenAI seinen Verwendern in den Nut-
in ein Drittland im Raum, da OpenAI ein US-amerikani- zungsbedingungen mitteilt 17:
sches Unternehmen ist. „Aufgrund des probabilistischen Charakters des
maschinellen Lernens kann die Nutzung unserer
OpenAI ist der Überzeugung, dass sie den Anforderungen Dienste in manchen Situationen zu fehlerhaften Ergeb-
der DSGVO entsprechen und hofft, dass ChatGPT bald nissen führen, die reale Personen, Orte oder Fakten
wieder in Italien verfügbar ist 64. Wer seine Daten heute nicht korrekt wiedergeben. Sie sollten die Genauigkeit
schon besser geschützt sehen will, kann z. B. über die der Ergebnisse je nach Ihrem Anwendungsfall bewer-
technische Schnittstelle (API) auf die Sprachmodelle ten, auch durch eine menschliche Überprüfung der
zugreifen 3. Hier wird die Nutzung der Daten für das Trai- Ergebnisse.“
ning schon ausgeschlossen. Wer einen Schritt weiter geht,
kann die Sprachmodelle auch komplett selbst auf einer
unternehmenseigenen bzw. den DSGVO- und IT-Sicher-
heits-Anforderungen entsprechenden IT-Infrastruktur
betreiben 23.
26
ERGO Innovation Lab | Whitepaper Mai 2023
Voraussetzungen für den Einsatz (4) Sprachmodelle müssen regulatorische Vorgaben wie
die Dokumentationspflichten erfüllen, die z. B. bei einer
Bei ERGO ist man sich der zahlreichen Vorteile großer Versicherungsberatung erforderlich sind (Stichworte: Bera-
Sprachmodelle wie GPT-4 als auch der allgemeinen Her- tungsprotokoll, Falschberatung) 21. Hier müssen die Mög-
ausforderungen bewusst. Es gibt jedoch auch eine Reihe lichkeiten und Grenzen des Einsatzes von Sprachmodellen
unternehmensspezifischer Herausforderungen, die beim eruiert werden.
Einsatz von Sprachmodellen zu beachten sind. Nachfol-
gend diskutieren wir die Herausforderungen im Hinblick Datenschutz und Datensicherheit
auf den Einsatz innerhalb einer Versicherung. Diese wer-
den in ähnlicher Form auch in anderen Branchen Die Einhaltung von gesetzlichen Vorschriften zum Daten-
auftreten. schutz und der IT-Sicherheit sind von entscheidender
Bedeutung. Große Sprachmodelle erfordern große Daten-
Anpassung an branchenspezifische Anforderungen mengen zum Training, die zum Teil sensible Daten enthal-
ten können. In der Versicherungsbranche sind diese Daten
Die GPT-Sprachmodelle sind auf allgemeinen Daten trai- oft vertraulich und sicherheitskritisch (z. B. Geo-Lokalisa-
niert und für den Einsatz bei einer Vielzahl von Aufgaben tion oder Gesundheitsdaten zur Risikobestimmung). Es ist
geeignet. Trotzdem müssen die Sprachmodelle an die zu prüfen, welche Daten aus dem Versicherungskontext
spezifischen Anforderungen der Versicherungsbranche überhaupt zum Training von Sprachmodellen eingesetzt
und die Versicherungsunternehmen angepasst werden. werden dürfen. Hier muss beispielsweise der Zweck der
Hierbei sind vier Aspekte zu berücksichtigen: Datenerhebung beachtet werden. Insgesamt muss
sichergestellt werden, dass die Modelle die geltenden
(1) Sprachmodelle müssen die Eigenheiten einer Versiche- Datenschutzgesetze und -vorschriften strikt einhalten. Die
rungssprache lernen 67. Die Versicherung verwendet z. B. Daten müssen gemäß der Vor- und Freigaben genutzt
den Begriff der Prämie anders als im üblichen Sprachge- werden, angemessen geschützt sein und das Risiko von
brauch. Auch gibt es Wortschöpfungen wie die Totalent- Datenlecks minimiert werden. Dies gilt insbesondere
wendung und die naturbedingten Luftbewegungen, die in dann, wenn die Integration in die IT-Infrastruktur vorge-
Zusammenhang mit den von Kunden verwendeten nommen wird und Prozesse unter Zugriff auf Kundenda-
Begriffen (Autodiebstahl, Sturm), z. B. bei der Schadens- ten (teil)automatisiert werden.
meldung, gebracht werden müssen.
Skalierbarkeit und Infrastruktur
(2) Sprachmodelle benötigen Zugriff auf unternehmensin-
ternes Wissen. Dieses Wissen muss in geordneter Form Um große Sprachmodelle wie GPT-4 betreiben zu können,
und geeigneter Qualität vorliegen, um über das Training sind eine erhebliche Rechenleistung und Speicherkapazi-
in Sprachmodelle einfließen zu können. tät erforderlich. Die Implementierung von Sprachmodel-
len bei gleichzeitiger Integration in bestehende IT-Sys-
(3) Sprachmodelle sollten unternehmensinterne Anforde- teme kann eine Herausforderung darstellen. Gleiches gilt
rungen an Formulierungen und Sprachstile (Stichwort: für die Skalierung. Dies erfordert eine sorgfältige Planung
Corporate Identity) erlernen und bei der Ausgabe berück- und geeignete Investitionen in die IT-Infrastruktur.
sichtigen. Dies ist vor allem im Hinblick auf eine konsis-
tente Kommunikation ein wichtiger Aspekt, um einen Kosten-Nutzen-Abwägung
effektiven und effizienten Einsatz zu gewährleisten. Dazu
müssen bei der Entwicklung und Implementierung von Die Entwicklung, Anpassung und Implementierung großer
Modellen weitere Anstrengungen unternommen werden. Sprachmodelle kann hohe Kosten verursachen, insbeson-
27
ERGO Innovation Lab | Whitepaper Mai 2023
dere wenn ein kontinuierliches Monitoring, eine regelmä- Verantwortlichkeit und Interpretierbarkeit
ßige Aktualisierung und die Wartung erforderlich sind.
Gleiches gilt für Lizenzkosten bei der Nutzung externer Die Empfehlungen von großen Sprachmodellen sind zum
Anbieter. Schwer einschätzbaren Kosten stehen schwer Teil schwer nachvollziehbar, insbesondere bei komplexen
einschätzbare positive Effekte gegenüber. Das Kos- Modellen wie GPT-4. Transparenz und nachvollziehbare
ten-Nutzenverhältnis ist ein wichtiger zu berücksichtigen- Entscheidungskriterien sind z. B. bei der Risikobewertung
der Aspekt, denn mit der Implementierung von Sprach- und Preisgestaltung enorm wichtig. Hier müssen Anstren-
modellen sollte auch ein positiver Return-on-Investment gungen unternommen werden, um den Anforderungen
(ROI) einhergehen. unserer Branche gerecht zu werden. In vielen Fällen wird
der Mensch die Vorschläge der Sprachmodelle kritisch
Bedienoberflächen und Nutzerschnittstellen beurteilen, adaptieren und final bestätigen müssen. Dies
gilt insbesondere im direkten Kundendialog, wo eine
Die effektive Einbindung von Sprachmodellen in die Falschberatung durch ein Sprachmodell vermieden wer-
Arbeitsabläufe von Versicherungsmitarbeitern ist unab- den muss.
dingbar für den Erfolg und gleichzeitig eine große Heraus-
forderung. Die Modelle müssen die Arbeitsweise der Mit- Verzerrungen, Fairness und ethische Fragestellungen
arbeiter bei der Nutzung einer Vielzahl diverser Aufgaben
unter Zuhilfenahme verschiedenster fachabteilungsspezi- Wie beschrieben, spiegeln Sprachmodelle mögliche Ver-
fischer Tools unterstützen. zerrungen aus ihren Trainingsdaten wider. In der Versi-
cherungsbranche könnte dies beispielsweise zu diskrimi-
Aufklärung und Akzeptanz nierenden Entscheidungen bei der Risikobewertung, Preis-
gestaltung, Schadenbearbeitung, Betrugserkennung oder
Sprachmodelle können die Arbeitsaufgaben und -abläufe Kundenansprache führen. Die Modelle müssen kontinuier-
von Mitarbeiterinnen und Mitarbeitern maßgeblich verän- lich auf Verzerrungen überprüft und entsprechende
dern. Es ist zu vermuten, dass durch Sprachmodelle eine Datenbereinigungen oder Korrekturen vorgenommen wer-
Reihe von Arbeitsabläufen teilautomatisiert werden. Hier den. Der Einsatz von großen Sprachmodellen kann also
muss die notwendige Aufklärungsarbeit geleistet werden, ethische Fragen im Zusammenhang mit Urheberrechten,
um das Verständnis für und die Akzeptanz von neuen geistigem Eigentum oder moralischen Verpflichtungen
Tools zu fördern. Beim Einsatz von Robotic Process Auto- gegenüber Kunden aufwerfen. Es ist wichtig, diese Fragen
mation (RPA) und Phonebots zeigt sich bereits, dass Mitar- sorgfältig zu prüfen und entsprechende Richtlinien und
beiterinnen und Mitarbeiter den Einsatz von Robotern und Verfahren zu entwickeln, um potenzielle Risiken zu
Algorithmen sehr wertschätzen 68. Grundbedingung ist, minimieren.
dass sie transparent und frühzeitig in die Entwicklung ein-
gebunden werden. Die Maschine wird dann als Unterstüt- Um die Herausforderungen erfolgreich zu bewältigen, ist
zerin wahrgenommen, die dabei hilft, repetitive Aufgaben es wichtig, ein umfassendes Verständnis der technologi-
zu übernehmen und Platz für das Erledigen von Aufgaben schen, organisatorischen und regulatorischen Aspekte des
schafft, die menschliches Wissen, Kreativität und Empa- Einsatzes großer Sprachmodelle innerhalb von Versiche-
thie erfordern. rungsunternehmen zu entwickeln. Eine proaktive und vor-
ausschauende Herangehensweise ist entscheidend, um
Ausbildung und Fachkompetenz sicherzustellen, dass die Modelle einen positiven Einfluss
auf das Versicherungsunternehmen, seine Mitarbeiter und
Sowohl die Arbeit an und mit Sprachmodellen erfordert Kunden haben wird und ihre potenziellen Risiken gemin-
spezielle Kenntnisse und Fähigkeiten. Es wird notwendig dert werden. Hierbei wird es kurzfristig zu einem schritt-
sein, geeignetes Fachpersonal (z. B. Data Engineers, Data weisen Lernprozess über einzelne Pilotprojekte kommen.
Scientists, Machine-Learning-, NLP- oder KI-Experten) ein-
zustellen und zu entwickeln, um die wachsenden Anfor- Wo Sprachmodelle bei ERGO heute schon im Einsatz
derungen an die Implementierung von Sprachmodellen sind und erprobt werden
zu bewältigen. Des Weiteren müssen Mitarbeiter ausgebil-
det und befähigt werden, die Sprachmodelle optimal nut- ERGO strebt an, bis 2025 digital führend in Deutschland
zen zu können. Die erforderlichen Fach- und Anwen- und den internationalen Kernmärkten zu sein. Dem
dungskompetenzen sind kurzfristig aufzubauen. Gerade Anspruch entsprechend beschäftigt sich ERGO intensiv
bei den Fachkompetenzen ist zukünftig, mit steigender mit neusten technologischen Entwicklungen, wie bei
Nachfrage über alle Branchen hinweg, ein Wettbewerb, großen Sprachmodellen und darauf basierenden
um die besten Talente zu erwarten. Anwendungen.
28
ERGO Innovation Lab | Whitepaper Mai 2023
ERGO verfügt über eine große Expertise im Einsatz von KI nen. Auch wird die Rolle von Startups, welche Sprachmo-
im Allgemeinen und von Sprachtechnologien im Speziel- dell-basierte Lösungen für bestimmte Use-Cases anbieten
len. So werden in der ERGO Advanced-Analytics- und werden, noch zu bestimmen sein.
KI-Einheit bereits Sprachmodelle in diversen Use Cases
genutzt. Beispielhaft sei hier die Dokumentenklassifikation Bei einem offensichtlichen Einsatzbereich im Kundendia-
im Eingangsmanagement genannt. log ist nach Einschätzung der ERGO-Experten Vorsicht
geboten. Im direkten Kundenkontakt erscheint ein auto-
Die ERGO Voice Unit gestaltet bereits seit 2018 Sprachas- nomer Einsatz von Sprachmodellen aufgrund der
sistenten auf Basis von Conversational AI für den Kunden- beschriebenen Herausforderungen wie Halluzinationen
service. Die Voice Unit arbeitet zudem gerade an dedizier- aktuell nur begrenzt möglich 67. Hier wären kurzfristig zwei
ten Projekten, um GPT-Sprachmodelle in Phonebots einzu- Ansätze zu präferieren:
binden und den Einsatz von großen Sprachmodellen
innerhalb von ERGO voranzutreiben. Bei Phonebots erge- (1) Die Kombination von Sprachmodellen mit regelbasier-
ben sich beispielsweise Potenziale bei der Generierung ten Sprachassistenten, wie er von der ERGO Voice Unit
von Trainingsdaten oder der Generierung von alternativen erforscht wird. Sprachmodelle erkennen z. B. die Intention
Bot-Antworten. Im Bereich der regelbasierten Chatbots von Kunden im Dialog, geben diese Information aber an
ändern große Sprachmodelle künftig die Art und Weise, einen regelbasierten Sprachassistenten/Chatbot wieder,
wie Kunden generische Informationen beziehen. Auf der die Beantwortung der Antworten in einem vorgegebe-
Sprachmodellen basierende Anwendungen können hier nen Rahmen übernimmt. Hier liegen die Grenzen jedoch
beispielsweise aus unterschiedlichen Quellen Antworten weiterhin in den definierten Regeln und Antwortoptionen.
aggregieren, die sie Nutzern schnell und unkompliziert auf Es ist zu erwarten, dass eine solche Anwendung bei feh-
einen Blick zur Verfügung stellen. Es wird kein Suchen lenden Informationen häufig keine zufriedenstellende
mehr auf mehreren Webseiten nötig sein und auch die Antwort geben können wird.
Fragen müssen dem Chatbot nicht mehr vorher mittels
Baumdiagramm vordefiniert und beantwortet werden. (2) Ein Vorschlagswesen durch die KI, bei der Mitarbeite-
rinnen und Mitarbeiter die Textvorschläge von Sprachas-
Neue Technologien wie ChatGPT werden des Weiteren im sistenten prüfen, ändern und absenden können 67. Die
ERGO Innovation Lab auf ihre Potenziale und Risiken hin sogenannten „Human-in-the-Loop“-Ansätze kommen
geprüft. Ein Arbeitsergebnis dieser Bestrebungen ist das auch bei klassischen Chatbots bei ERGO zum Einsatz und
vorliegende Whitepaper. stellen sicher, dass die Antworten immer plausibel und
korrekt gewählt sind. Zudem sammelt man über diesen
Vorteile durch große Sprachmodelle für die Versicherungs- Ansatz potenziell Daten für das Training zukünftiger
wirtschaft werden vor allem in folgenden Anwendungs- Sprachmodelle mit Versicherungsbezug.
fällen gesehen:
29
ERGO Innovation Lab | Whitepaper Mai 2023
Ist ChatGPT der iPhone Moment für KI? Zeichnungen erstellen kann. Dies erweitert die Anwend-
barkeit von Sprachmodellen enorm 14. Seit dem 23. März
In Fachkreisen wird gemunkelt, dass OpenAI von dem 2023 gibt es die experimentelle Unterstützung von KI-Plu-
starken Nutzerinteresse und Erfolg von ChatGPT über- gins in ChatGPT für eine kleine Nutzer- und Entwickler-
rascht wurde. Zumindest die Data-Analytics-Experten der gruppe 49. Die Plugins erlauben ChatGPT auf aktuelle
ERGO waren über die Nutzer- und Pressereaktionen ver- Daten zuzugreifen und Services von Drittanbietern zu nut-
wundert, denn die Fähigkeiten von ChatGPT kannten sie zen. Erste Plugins sind zum Beispiel für Expedia, Shopify,
bereits seit über einem Jahr vom Sprachmodell GPT-3. Slack und Wolfram verfügbar.
Seitdem sich der Interessentenkreis erweitert hat, hört
man immer wieder, dass wir mit ChatGPT den nächsten Microsoft nutzt die Chance zum Innovieren
iPhone-Moment erleben 18, 72. Damals macht das erste
iPhone von Apple das Smartphone alltagstauglich und Microsoft kündigte als strategischer Partner und Investor
einer breiten Masse an Endnutzern zugänglich. Zugleich von OpenAI eine Reihe von KI-Anwendungen für das Jahr
entstand ein Wettbewerb um die beste Hardware, die 2023 an. Nachdem bereits 2019 eine Milliarde US-Dollar
besten Applikationen und die beste Nutzerfreundlichkeit. investiert wurde, schoss Microsoft dieses Jahr weitere
Ähnliches erleben wir heute mit generativer KI und zehn Mrd. US-Dollar nach und sicherte sich im Gegenzug
Sprachmodellen. Verwertungsrechte an den KI-Produkten 70. GPT-Sprach-
modelle findet man seitdem in der Suchmaschine Bing
OpenAI macht große Fortschritte und in den Office-Anwendungen wie Powerpoint, Excel,
Word und Teams 48. Unter dem Label Microsoft CoPilot
Seitdem OpenAI im November 2022 ChatGPT veröffent- werden zukünftig Büroabläufe automatisiert 70, 71. Auch
licht hat, kam es zu einer Reihe von Updates von ChatGPT das DSGVO-konforme Betreiben von Sprachmodellen auf
und den verwendeten GPT-Sprachprogrammen. Diese der Microsoft Azure-Cloud ist bereits möglich 23.
Updates beinhalteten von Dezember 2022 bis zum Feb-
ruar 2023 allgemeinen Leistungsverbesserungen der Ser- Google reagiert bei KI noch zögerlich
ver, Modellverbesserungen mit erhöhter Faktentreue, ver-
besserten mathematischen Fähigkeiten sowie die erhöhte Bei Google lösten ChatGPT und die Microsoft-Bing-Integ-
Geschwindigkeit bei der Ausgabe 73. ration einen „roten Alarm“ aus 74. Man sah die Google-Su-
che als Einstiegspunkt für das Internet in Gefahr und
Mit dem Release von GPT-4 am 14. März 2023 kam es zu fragte sich, warum Internetnutzer noch nach Antworten
verbesserten Fähigkeiten beim logischen Denken, der Ver- googlen und sich durch die verlinken Seiten klicken soll-
arbeitung komplexerer Anweisungen und der Kreativität. ten, wenn ChatGPT doch oft direkt eine zufriedenstellende
GPT-4 übertrifft sein Vorgängermodell bei einer Reihe von Antwort liefert. Damit wäre das Geschäftsmodell von
standardisierten Tests, welche für Menschen und Machi- Google ernsthaft bedroht.
ne-Learning-Modellen erdacht worden sind. Gleichzeitig
wurde das Sprachmodell im Vergleich mit GPT-3.5 siche- Die erste Vorstellung des ChatGPT-Gegenstücks namens
rer: Die Wahrscheinlichkeit, auf unzulässige Anfragen zu Bard im Februar 2023 enttäuschte, auch weil Bard kleine
antworten, sank um 82%, während die Wahrscheinlich- Fehler unterliefen und Google eher vage bei den Ankündi-
keit, sachliche Antworten zu geben, um 40% erhöht wur- gungen blieb 10. Google-Mitarbeiter kritisierten die hektisch
den. Eine wichtige Neuerung in GPT-4 ist die Möglichkeit, herbeigeführte Vorstellung vom Chatbot, welcher auf
Bilder zu verarbeiten, d. h. neben reinem Text akzeptiert einer abgespeckten Version des Sprachmodells „LaMDA“
das Modell nun auch Bilder in der Eingabe. GPT-4 ist (Language Model für Dialogue Application) basiert 75. Goo-
damit multimodal. Die Funktion ist bis dato eingeschränkt gle scheint insgesamt eine höhere Zurückhaltung zu zei-
testbar, aber die Vorführungen zeigen, dass GPT-4 Bildin- gen und legt nach eigenen Aussagen viel Wert auf quali-
halte beschreiben kann und Website-Code auf Basis von tativ hochwertige sowie bodenständige Antworten und
30
ERGO Innovation Lab | Whitepaper Mai 2023
Autoren
Jens Sievert
Innovation Manager, ERGO Innovation Lab,
ERGO Digital Ventures AG
Nicolas Konnerth
Head of Conversational AI,
ERGO Digital Ventures AG
31
ERGO Innovation Lab | Whitepaper Mai 2023
Quellenverzeichnis
1 OpenAI, „OpenAI About“. https://openai.com/about (zugegriffen 22 OpenAI, „OpenAI Usage policies“, 23. März 2023. https://openai.
20. April 2023). com/policies/usage-policies (zugegriffen 20. April 2023).
2 OpenAI, „OpenAI Research“. https://openai.com/research (zuge- 23 Microsoft Learn, „Dokumentation zu Azure OpenAI Service“, 2023.
griffen 20. April 2023). https://learn.microsoft.com/de-de/azure/cognitive-services/
3 OpenAI, „OpenAI Platform“. https://platform.openai.com/ (zuge- openai/ (zugegriffen 20. April 2023).
griffen 20. April 2023). 24 J. R. Firth, „A Synopsis of Linguistic Theory 1930-55.“, Studies in
4 OpenAI, „OpenAI ChatGPT“. chat.openai.com (zugegriffen 20. April Linguistic Analysis: Special Volume of the Philological Society,
2023). 1957.
5 K. Hu, „ChatGPT sets record for fastest-growing user base – analyst 25 E. Roberts, „Natural Language Processing“, 2004. https://cs.stan-
note“, Reuters, 2. Februar 2023. https://www.reuters.com/techno- ford.edu/people/eroberts/courses/soco/projects/2004-05/nlp/over-
logy/chatgpt-sets-record-fastest-growing-user-base-analyst-no- view_history.html (zugegriffen 24. April 2023).
te-2023-02-01/ (zugegriffen 20. April 2023). 26 C. Li, „OpenAI’s GPT-3 Language Model: A Technical Overview“,
6 D. F. Carr, „ChatGPT Grew Another 55.8% in March, Overtaking Bing Lambda, 3. Juni 2020. https://lambdalabs.com/blog/demys-
and DuckDuckGo“, Similarweb, 3. April 2023. www.similarweb. tifying-gpt-3 (zugegriffen 20. April 2023).
com/blog/insights/ai-news/chatgpt-bing-duckduckgo/ (zugegriffen 27 T. B. Brown u. a., „Language models are few-shot learners“, in Ad-
20. April 2023). vances in Neural Information Processing Systems, 2020.
7 F. K. Akın, „Awesome ChatGPT Prompts“, GitHub, 10. Dezember 28 J. Langston, „Microsoft announces new supercomputer, lays out
2022. https://github.com/f/awesome-chatgpt-prompts/ (zugegrif- vision for future AI work – Source“, Microsoft News, 19. Mai 2020.
fen 20. April 2023). https://news.microsoft.com/source/features/ai/openai-azure-su-
8 G. Venuto, „LLM failure archive (ChatGPT and beyond)“, GitHub, 3. percomputer (zugegriffen 20. April 2023).
Januar 2023. https://github.com/giuven95/chatgpt-failures (zuge- 29 C. Köver, „10 Milliarden für Start-up: Wofür braucht OpenAI so viel
griffen 20. April 2023). Geld?“, Netzpolitik.org, 25. Januar 2023. https://netzpolitik.or-
9 J. Zhang und S. Rai, „AI Presents a Nearly Level Playing Field for g/2023/10-milliarden-fuer-start-up-wofuer-braucht-openai-so-
Startups and Big Tech in Asia“, Bloomberg, 1. März 2023. https:// viel-geld/ (zugegriffen 20. April 2023).
www.bloomberg.com/news/newsletters/2023-03-01/ai-chatbot- 30 „What Is ChatGPT Doing … and Why Does It Work?“, Stephen
race-startups-and-big-tech-giants-compete-for-the-best (zu- Wolfram Writings, 14. Februar 2023. https://writings.stephen-
ge-griffen 20. April 2023). wolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-
10 J. Heinrich, „Google: KI-Fehlstart, Aktie stürzt um 100 Milliarden work/ (zugegriffen 24. April 2023).
Dollar ab“, W&V, 9. Februar 2023. https://www.wuv.de/Themen/ 31 „What are Neural Networks? “, IBM. https://www.ibm.com/topics/
Performance-Analytics/Google-KI-Fehlstart-Aktie-stu- neural-networks (zugegriffen 24. April 2023).
erzt-um-100-Milliarden-Dollar-ab (zugegriffen 24. April 2023). 32 M. Bischoff, „Wie man einem Computer das Sprechen beibringt“,
11 C. Terwiesch, „Would Chat GPT3 Get a Wharton MBA? A Prediction Spektrum.de, 9. März 2023. https://www.spektrum.de/news/
Based on Its Performance in the Operations Management Course,“ wie-funktionieren-sprachmodelle-wie-chatgpt/2115924 (zugegrif-
Mack Institute for Innovation Management at the Wharton School, fen 24. April 2023).
University of Pennsylvania“, 2023. Zugegriffen: 20. April 2023. [On- 33 A. Vaswani u. a., „Attention is all you need“, in Advances in Neural
line]. Verfügbar unter: https://mackinstitute.wharton.upenn.edu/ Information Processing Systems, 2017.
wp-content/uploads/2023/01/Christian-Terwiesch-Chat-GTP.pdf 34 „How do Transformers work?“, Hugging Face – NLP Course. https://
12 T. H. Kung u. a., „Performance of ChatGPT on USMLE: Potential for huggingface.co/learn/nlp-course/chapter1/4?fw=pt (zugegriffen
AI-assisted medical education using large language models“, PLOS 23. April 2023).
Digital Health, Bd. 2, Nr. 2, S. e0000198, Feb. 2023, doi: 10.1371/ 35 A. Tamkin und D. Ganguli, „How Large Language Models Will Trans-
JOURNAL.PDIG.0000198. form Science, Society, and AI“, Stanford University, Human-Cente-
13 J. H. Choi, K. E. Hickman, A. Monahan, und D. B. Schwarcz, red Artificial Intelligence , 5. Februar 2021. https://hai.stanford.
„ChatGPT Goes to Law School“, SSRN Electronic Journal, Jan. 2023, edu/news/how-large-language-models-will-transform-science-so-
doi: 10.2139/SSRN.4335905. ciety-and-ai (zugegriffen 20. April 2023).
14 OpenAI, „OpenAI GPT-4“. https://openai.com/research/gpt-4 (zu- 36 OpenAI, „Aligning language models to follow instructions“. https://
gegriffen 20. April 2023). openai.com/research/instruction-following (zugegriffen 20. April
15 S. Noy und W. Zhang, „Experimental Evidence on the Productivity 2023).
Effects of Generative Artificial Intelligence“, März 2023. 37 OpenAI, „Learning from human preferences“. https://openai.com/
16 N. Popli, „How to Get a Six-Figure Job as an AI Prompt Engineer “, research/learning-from-human-preferences (zugegriffen 20. April
Time, 14. April 2023. https://time.com/6272103/ai-prompt-en- 2023).
gineer-job/ (zugegriffen 20. April 2023). 38 T. Xu, „KI-Modelle: Es droht ein Mangel an Trainingsdaten “, heise
17 OpenAI, „OpenAI Terms of use“. https://openai.com/policies/ online, 28. November 2022. https://www.heise.de/hintergrund/
terms-of-use (zugegriffen 20. April 2023). KI-Modelle-Es-droht-ein-Mangel-an-Trainingsdaten-meinen-Ex-
18 F. Hegemann, „Generative KI: ChatGPT & Co. erleben ihren iPho- perten-7357898.html (zugegriffen 24. April 2023).
ne-Moment“, //next by ERGO, 2023. https://next.ergo.com/de/ 39 J. D’Souza, „A Catalog of Transformer Models“, ORKG, März 2023.
KI-Robotics/2023/Was-ist-Generative-KI-AI-ChatGPT-Hype-Tech- https://orkg.org/comparison/R385006/ (zugegriffen 25. April 2023).
nologie-Trend.html (zugegriffen 20. April 2023). 40 A. Tamkin, M. Brundage, J. C. †3, und D. Ganguli, „Understanding
19 OpenAI, „OpenAI API – Embeddings“. https://platform.openai. the Capabilities, Limitations, and Societal Impact of Large Langua-
com/docs/guides/embeddings/what-are-embeddings (zugegriffen ge Models“, Feb. 2021, Zugegriffen: 20. April 2023. [Online]. Ver-
20. April 2023). fügbar unter: https://arxiv.org/abs/2102.02503v1
20 OpenAI, „OpenAI API-Fine-tuning“. https://platform.openai.com/ 41 E. M. Bender, T. Gebru, A. McMillan-Major, und S. Shmitchell, „On
docs/guides/fine-tuning (zugegriffen 20. April 2023). the dangers of stochastic parrots: Can language models be too
21 „Welche Beratungspflichten hat der Versicherer gegenüber dem big?“, in FAccT 2021 – Proceedings of the 2021 ACM Conference on
Versicherungsnehmer bei Vertragsabschluss und während der Fairness, Accountability, and Transparency, 2021. doi:
Laufzeit des Versicherungsvertrags? “, BaFin, 8. September 2021. 10.1145/3442188.3445922.
https://www.bafin.de/SharedDocs/FAQs/DE/Verbraucher/Versiche- 42 E. Ferrara, „Should ChatGPT be Biased? Challenges and Risks of Bias
rung/VertraegeAbschliessen/04_beratung_grundsatz.html (zuge- in Large Language Models“, Apr. 2023, Zugegriffen: 20. April 2023.
griffen 20. April 2023). [Online]. Verfügbar unter: https://arxiv.org/abs/2304.03738v2
32
ERGO Innovation Lab | Whitepaper Mai 2023
43 S. Grüner, „Phishing und Malware: Europol warnt vor Missbrauch 62 S. Lohmeier, „Datenschutzrisiken: Verbot von ChatGPT in Italien“,
von ChatGPT “, Golem.de, 28. März 2023. https://www.golem.de/ bakertilly, 4. April 2023. https://www.bakertilly.de/news/detail/
news/phishing-und-malware-europol-warnt-vor-missbrauch-von- verbot-von-chatgpt-in-italien-zeigt-datenschutzrisiken-auf.html
chatgpt-2303-172998.html (zugegriffen 25. April 2023). (zugegriffen 20. April 2023).
44 D. Alba, „ChatGPT, Open AI’s Chatbot, Is Spitting Out Biased, Sexist 63 intersoft consulting, „Datenschutz-Grundverordnung (DSGVO) – Fi-
Results“, Bloomberg, 8. Dezember 2022. https://www.bloomberg. naler Text der DSGVO inklusive Erwägungsgründe“. https://dsg-
com/news/newsletters/2022-12-08/chatgpt-open-ai-s-chatbot-is- vo-gesetz.de/ (zugegriffen 20. April 2023).
spitting-out-biased-sexist-results (zugegriffen 25. April 2023). 64 S. Altman, „Tweet“, Twitter, 31. März 2023. https://twitter.com/
45 S. Schier, „ChatGPT könnte zu mehr Versicherungsbetrug führen“, sama/status/1641897800236687360 (zugegriffen 20. April 2023).
Handelsblatt, 20. Februar 2023. https://www.handelsblatt.com/ 65 S. Altman, „Sam Altman auf Twitter: „ChatGPT is incredibly limited
finanzen/banken-versicherungen/versicherer/kuenstliche-intelli- ...“, Twitter, 11. Dezember 2022. https://twitter.com/sama/sta-
genz-chatgpt-koennte-zu-mehr-versicherungsbetrug-fueh- tus/1601731295792414720?lang=de (zugegriffen 20. April 2023).
ren/28987726.html (zugegriffen 20. April 2023). 66 S. Altman, „Sam Altman auf Twitter: „here is GPT-4, our most ca-
46 I. Mehta, „Elon Musk wants to develop TruthGPT, ‘a maximum pable ...“, Twitter. https://twitter.com/sama/sta-
truth-seeking AI’ “, TechCrunch, 18. April 2023. https://techcrunch. tus/1635687853324902401 (zugegriffen 20. April 2023).
com/2023/04/18/elon-musk-wants-to-develop-truthgpt-a-maxi- 67 C.-A. Wallaert, R. Fehling, I. Karimi, und A. Gupta, „How Can
mum-truth-seeking-ai/ (zugegriffen 20. April 2023). ChatGPT Be Used in Insurance?“, LinkedIn, BCG on Insurance, 20.
47 N. Reip, „KI: Künstliche Intelligenz – Eine Gefahr für die Medien- Februar 2023. https://www.linkedin.com/pulse/how-can-chatgpt-
kompetenz?“, Medienkompass.de, 30. Januar 2023. https://medi- used-insurance-bcg-on-insurance/ (zugegriffen 20. April 2023).
enkompass.de/ki-eine-gefahr-fuer-die-medienkompetenz/ (zuge- 68 „Whitepaper: So wird Robotic Process Automation (RPA) erfolg-
griffen 20. April 2023). reich“, ERGO Group AG, 1. März 2023. https://next.ergo.com/de/
48 Y. Medhi, „Reinventing search with a new AI-powered Microsoft KI-Robotics/2022/Whitepaper-Robot-Process-Automatisati-
Bing and Edge, your copilot for the web“, Official Microsoft Blog, 7. on-RPA-Robotics-Expertise-Unternehmenskultur-Kulturwandel-Er-
Februar 2023. https://blogs.microsoft.com/blog/2023/02/07/rein- folgsfaktoren-Digitalisierung-Mark-Klein (zugegriffen 24. April
venting-search-with-a-new-ai-powered-microsoft-bing-and-edge- 2023).
your-copilot-for-the-web/ (zugegriffen 20. April 2023). 69 T. Kurian, „New AI features and tools for Google Workspace, Cloud
49 OpenAI, „OpenAI API – Chat Plugins“. https://platform.openai.com/ and developers“, Google Blog, 14. März 2023. https://blog.google/
docs/plugins/introduction (zugegriffen 20. April 2023). technology/ai/ai-developers-google-cloud-workspace/ (zugegrif-
50 H.-T. Cheng, „LaMDA: Towards Safe, Grounded, and High-Quality fen 24. April 2023).
Dialog Models for Everything“, Google AI Blog, 21. Januar 2022. 70 „Introducing Microsoft 365 Copilot“, Microsoft 365 Blog, 16. März
https://ai.googleblog.com/2022/01/lamda-towards-safe-groun- 2023. https://www.microsoft.com/en-us/microsoft-365/
ded-and-high.html (zugegriffen 24. April 2023). blog/2023/03/16/introducing-microsoft-365-copilot-a-whole-new-
51 „Check Your Facts and Try Again: Improving Large Language Mo- way-to-work/ (zugegriffen 20. April 2023).
dels with External Knowledge and Automated Feedback“, Micro- 71 „Microsoft Teams Premium mit KI-basierten Features ab sofort
soft Research, Deep Learning Group, 7. März 2023. https://www. verfügbar“, Microsoft News, 6. Februar 2023. https://news.micro-
microsoft.com/en-us/research/group/deep-learning-group/ar- soft.com/de-at/microsoft-teams-premium-mit-ki-basierten-featu-
ticles/check-your-facts-and-try-again-improving-large-langua- res-ab-sofort-verfugbar/ (zugegriffen 20. April 2023).
ge-models-with-external-knowledge-and-automated-feedback/ 72 S. Scheuer, „Neuer iPhone-Moment: Chat-GPT und die Tech-Revo-
(zugegriffen 24. April 2023). lution“, Handelsblatt, 10. Februar 2023. https://www.handelsblatt.
52 „Originality.AI – Most Accurate AI Content Detector and Plagiarism com/meinung/kommentare/kommentar-der-neue-iphone-mo-
Checker“. https://originality.ai/ (zugegriffen 20. April 2023). ment-chatgpt-und-die-tech-revolution/28969310.html (zugegrif-
53 „§ 2 UrhG – Einzelnorm“. https://www.gesetze-im-internet.de/ fen 20. April 2023).
urhg/__2.html (zugegriffen 20. April 2023). 73 OpenAI, „ChatGPT – Release Notes“. https://help.openai.com/en/
54 V. PAPAKONSTANTINOU und P. DE HERT, „Refusing to award legal articles/6825453-chatgpt-release-notes (zugegriffen 20. April
personality to AI: Why the European Parliament got it wrong – Eu- 2023).
ropean Law Blog“, European Law Blog, 25. November 2020. https:// 74 N. Grant und C. Metz, „ChatGPT and Other Chat Bots Are a ‘Code
europeanlawblog.eu/2020/11/25/refusing-to-award-legal-perso- Red’ for Google Search“, The New York Times, 21. Dezember 2022.
nality-to-ai-why-the-european-parliament-got-it-wrong/ (zuge- https://www.nytimes.com/2022/12/21/technology/
griffen 20. April 2023). ai-chatgpt-google-search.html (zugegriffen 24. April 2023).
55 „Copyright, Designs and Patents Act 1988“. https://www.legislati- 75 J. von Lindern und M. Laaff, „Chatbot Bard: So will Google zurück-
on.gov.uk/ukpga/1988/48/section/9 (zugegriffen 20. April 2023). chatten“, ZEIT ONLINE. https://www.zeit.de/digital/2023-02/bard-
56 S. Bordow, „Do the math: ChatGPT sometimes can’t, expert says“, google-chatbot-chat-gpt?utm_referrer=https%3A%2F%2Fwww.
ASU, Arizona State University News, 21. Februar 2023. https:// google.com%2F (zugegriffen 24. April 2023).
news.asu.edu/20230221-discoveries-do-math-chatgpt-so- 76 S. Pichai, „Ein wichtiger nächster Schritt auf unserer KI-Reise“, Goo-
metimes-cant-expert-says (zugegriffen 20. April 2023). gle Blog, 6. Februar 2023. https://blog.google/intl/de-de/unterneh-
57 „Mensch und Maschine – Herausforderungen durch Künstliche In- men/technologie/ein-wichtiger-naechster-schritt-auf-unserer-ki-
telligenz“, März 2023. Zugegriffen: 20. April 2023. [Online]. Verfüg- reise/ (zugegriffen 24. April 2023).
bar unter: https://www.ethikrat.org/fileadmin/Publikationen/Stel- 77 J. Elias, „Google opens Bard A.I. for testing by users in U.S. and UK“,
lungnahmen/deutsch/stellungnahme-mensch-und-maschine.pdf CNBC, 21. März 2023. https://www.cnbc.com/2023/03/21/google-
58 „Pause Giant AI Experiments: An Open Letter – Future of Life Insti- opens-bard-ai-for-testing-by-users-in-us-and-uk.html (zugegriffen
tute“, 22. März 2023. https://futureoflife.org/open-letter/pause-gi- 24. April 2023).
ant-ai-experiments/ (zugegriffen 20. April 2023). 78 M. Krenn u. a., „Predicting the Future of AI with AI: High-quality link
59 S. Bubeck u. a., „Sparks of Artificial General Intelligence: Early ex- prediction in an exponentially growing knowledge network“, Sep.
periments with GPT-4“. 22. März 2023. Zugegriffen: 20. April 2023. 2022, Zugegriffen: 24. April 2023. [Online]. Verfügbar unter: http://
[Online]. Verfügbar unter: https://www.microsoft.com/en-us/rese- arxiv.org/abs/2210.00881
arch/publication/sparks-of-artificial-general-intelligence-early-ex- 79 „Introducing LLaMA: A foundational, 65-billion-parameter langua-
periments-with-gpt-4/ ge model“, Meta AI, 24. Februar 2023. https://ai.facebook.com/
60 „Responsible and trusted AI “, Microsoft Learn, 20. April 2023. htt- blog/large-language-model-llama-meta-ai/ (zugegriffen 24. April
ps://learn.microsoft.com/en-us/azure/cloud-adoption-framework/ 2023).
innovate/best-practices/trusted-ai (zugegriffen 20. April 2023).
61 K. Nordenbrock, „Datenleck bei Samsung: Ingenieure schicken ver-
trauliche Daten an ChatGPT“, t3n, 8. April 2023. https://t3n.de/
news/samsung-semiconductor-daten-chatgpt-daten-
leck-1545913/ (zugegriffen 20. April 2023).
33