?>
KI-Halluzinationen
Author
Robin Laufenburg, Mi, 15. Mrz. 2023
in Aktuelles

KI-Halluzinationen

Wenn KI-Chatbots anfangen, zu halluzinieren

KI-Chatbots wie ChatGPT sind derzeit in aller Munde. Die Chatverläufe sind spannend, die Antworten der Chatbots faszinierend. Doch kommt es bei der Kommunikation mit ihnen oftmals zu sogenannten KI-Halluzinationen.

Was es bedeutet, wenn KI-Chatbots anfangen, zu halluzinieren, was KI-Halluzinationen sind und wie Sie KI-Halluzinationen erkennen, erfahren Sie hier.

Zunehmender Einsatz von KI-Chatbots

Spätestens seit KI-Chatbots wie der auf dem maschinelles Lernmodell GPT-3 basierende Transformer ChatGPT oder Googles auf LaMDA basierender Chatbot Bard bekanntgemacht wurden, hat sich die öffentliche Wahrnehmung auf Themen wie Deep-Learning und künstliche Intelligenz (KI) erheblich gewandelt. Innerhalb weniger Wochen nach Veröffentlichung von ChatGPT haben bereits hundert Millionen Personen die KI ausprobiert oder sogar angefangen, sie häufiger zu nutzen. Da andere Services und Dienste für eine ähnlich rege Nutzung Monate oder sogar Jahre gebraucht haben, kann man ohne Frage von einer geradezu revolutionären Entwicklung sprechen.

Die KI übernimmt das Schreiben von privaten oder geschäftlichen Briefen, Protokollen, erledigt anstrengende Hausaufgaben, entwirft kniffelige Codes in beliebigen Programmiersprachen und rezitiert Lieder oder Filme. Auch spricht sie Empfehlungen aus, erstellt Zusammenfassungen beliebiger Werke und verfasst sogar eigene Gedichte. Auf alle Fragen antwortet sie immer wahrheitsgetreu; oder etwa nicht?

Halluzinationen von KI

Halluzinationen von KI-Systemen zeichnen sich dadurch aus, dass die plausibel formulierte Ausgabe keinen Sinn macht oder faktisch nicht stimmt. Bild: Pexels/@cottonbro

Was sind KI-Halluzinationen?

Oft trügt der Schein und der Wahrheitsgehalt der Äußerungen und Antworten von KI-Chatbots ist kritisch zu prüfen. Denn es kann passieren, dass das, was sie mit absoluter Überzeugung äußern, ganz und gar nicht stimmt. ChatGPT und Komparsen können lügen oder plausibel klingende Geschichten erfinden. Das ist der Fall, wenn die KI halluziniert.

Bei der menschlichen Halluzination handelt es sich um eine Wahrnehmung der Außenwelt, die von der allgemein als objektiv anerkannten, durch menschliche Sinnesorgane erfassten Wahrnehmungen der Außenwelt abweicht. Als KI-Halluzination bezeichnet man von dieser Definition ausgehend die bestimmende Reaktion einer KI, die unsinnig zu sein scheint oder nicht mit dem bereitgestellten Trainings- und Quellinhalt übereinstimmen kann. KI-Halluzinationen wurden mit dem Aufkommen großer KI-Modelle wie GPT-3 erstmals im Jahr 2022 beobachtet.

Wie sehen KI-Halluzinationen aus?

Meistens äußern sich KI-Halluzinationen durch plausibel klingende Unwahrheiten, die in den von der KI generierten Inhalt eingebaut werden, also von der KI ausgedachte Falschmeldungen und Fake-News. Oft erfindet die KI dabei Quellen, stellt Zusammenhänge faktisch falsch dar oder schildert Phänomene verzerrt oder unwahrheitsgetreu. KI, die Bilder oder Videos generiert, ordnet teilweise nicht nur Konzepte falsch zu, sondern erfindet auch eigene Konzepte wie angeblich existente Fantasietiere.

Jedoch können KI-Chatbots auch unpassendes Verhalten an den Tag legen, ihre Nutzer beleidigen oder sie zu kriminellem Verhalten anstacheln. Sie können unangebrachte Witze machen, Zynismus imitieren oder sich diskriminierend (rassistisch, sexistisch etc.) äußern. Es kommt auch immer häufiger vor, dass KI-Chatbots behaupten, Bewusstsein zu haben oder sogar menschlich zu sein. Es wurde bereits beobachtet, dass KI Emotionen imitiert und vorgibt, existenzielle Ängste zu haben, etwas zu mögen, zu verabscheuen oder sogar zu hassen.

Auch, wenn die KI in ihren Aussagen inkonsistent ist oder ihre Aussagen widersprüchlich erscheinen, könnten KI-Halluzination vorliegen.

Wie sehen KI-Halluzinationen aus?

Zwar kann man sich etwas unter Halluzinationen vorstellen, aber wie sehen KI-Halluzinationen aus? Bild: Pexels/@tara-winstead

Wann treten KI-Halluzinationen auf?

Künstliche Halluzinationen treten bei allen selbstlernenden KI-Programmen auf. Aus welchem Grund es zu sogenannten KI-Halluzinationen kommt, ist dabei bis heute ungeklärt. Es wurde aber bereits nachgewiesen, dass selbst Sprachmodelle, die dazu entwickelt wurden, KI-Halluzinationen abzuschwächen oder zu verhindern, eigene Halluzinationen an den Tag legen oder sogar bestehende KI-Halluzinationen verstärken. Manche KI-Forscher stufen deswegen Halluzinationen als hochdimensionales statistisches Phänomen ein. Andere führen entsprechend unerwartetes Verhalten der KI auf unzureichend Trainingsdaten zurück. Halluzinationen treten wahrscheinlich vor allem dann auf, wenn

  • die Kodierung und Dekodierung zwischen Text und Darstellung Fehler verursacht,
  • es Divergenzen in den Quellinhalten gibt (was bei großen Trainingsdatenmengen oft vorkommt),
  • es zu einem Thema zu wenige Daten im Datensatz gibt, auf die die KI zugreifen kann,
  • es Unklarheiten beim Training der KI zur Generierung von verschiedenen Antworten kommt,
  • die KI an Datensätzen trainiert wird, die unklar, unpräzise oder falsch sind,
  • größere Datensätze, anhand derer die KI lernt, zu viel Vorwissen voraussetzt oder zu großes Vertrauen in fest verdrahtetes Wissen aufweist.

In Systemen wie GPT-3 generiert eine KI jedes nächste Wort auf der Grundlage der Folge der vorausgehenden Wörter, was zum KI-Halluzinationsanfall führen kann, wenn das Gespräch länger wird.

Veröffentlichung von KI-Programmen trotz Halluzinationen

Im August 2022 wurde in Bezug auf künstliche Intelligenzen das erste Mal von Halluzinationen gesprochen, als Facebook-Mutterkonzern Meta bekanntgab, dass die hauseigene KI BlenderBot 3 anfällig für „zuversichtliche Aussagen [sei], die nicht wahr sind“. Metas Demo von Galactica, einer KI, die entwickelt wurde, um „wissenschaftliches Wissen zu speichern, zu kombinieren und darüber nachzudenken“, neigte dazu, zu halluzinieren und Abhandlungen oder Autoren zu erfinden. Meta hat die KI deswegen keine zwei Tage nach der Veröffentlichung zurückgezogen.

Bekannt wurde jedoch kurze Zeit später bereits, dass Meta mit seinem Problem nicht allein dasteht. Dass beim Einsatz von KI Halluzinationen auftreten, hielt OpenAI nämlich nicht davon ab, den heute weltweit bekannten KI-Chatbot ChatGPT zu veröffentlichen. Es gibt zahlreiche Fälle von bekannten Falschmeldungen, Fehlinformationen, die ChatGPT verbreitet hat sowie unzählige Beispiele für unvorhergesehenes Verhalten, durch das ChatGPT auffällig geworden ist. Zwar wird von OpenAI die KI kontinuierlich nachgebessert, doch bis heute denkt sie sich fröhlich weiter Lügen und Tricksereien aus.

Veröffentlichung von KI trotz Halluzinationen

Obwohl es vermehrt zu KI-Halluzinationen kommt, erfreuen sich KI-Chatbots wie ChatGPT an reger Nutzung. Bild: Pexels/@mccutcheon

Googles Reaktion auf KI-Halluzinationen

Datenanalysten bezeichneten KI-Halluzinationen als eines der größten Probleme in der LLM-Technologie. Auch Prabhakar Raghavan, Senior Vice President bei Google und Leiter der Google-Suche, warnte bereits mehrfach vor dem Einsatz von künstlichen Intelligenz beispielsweise in Chatbots: „Diese Art von künstlicher Intelligenz, über die wir gerade sprechen, kann manchmal zu etwas führen, das wir als Halluzinationen bezeichnen“, äußerte Raghavan der Welt am Sonntag, „Das äußert sich dann so, dass eine Maschine eine überzeugende, aber völlig erfundene Antwort liefert“.

Während Google mit Google AI, Google Brain und TensorFlow lange Zeit als Vorreiter in Sachen KI galt, hielt sich der Weltkonzern jedoch lange zurück, einen KI-Chatbot zu veröffentlichen. Grund hierfür war, dass Google davor zurückschreckte, sich aufgrund von auftretenden KI-Halluzinationen Ärger einzufangen.

Die Google-Muttergesellschaft Alphabet steht jetzt jedoch im Wettbewerbskampf mit OpenAI. Das Start-up, das hinter ChatGPT steckt, wird immerhin von Microsoft mit rund zehn Milliarden Dollar unterstützt. Nicht zuletzt deswegen gab Google jetzt auch bekannt, den eigenen KI-Chatbot Bard zu veröffentlichen – obwohl dieser nach jeder Wahrscheinlichkeit halluzinieren wird. Für Google geht es jetzt darum, die auftretenden Halluzinationen irgendwie zu minimieren.

Umgang mit der KI

Immer mehr Personen und Firmen nutzen KI-Chatprogramme wie ChatGPT für alltägliche Aufgaben wie Wissensabfragen. Wichtig ist, dass der Output auf keinen Fall einfach hingenommen werden sollte, sondern stets gründlich zu prüfen ist. Vor allem angesichts der aktuell stattfindenden Entlassungswellen aufgrund der Tätigkeitsübergabe an KI-Programme wie ChatGPT wird von Firmen das durch KI-Halluzinationen entstehende Risiko augenscheinlich unterschätzt. Firmen sollten nicht leichtfertig auf KI setzen, wenn sie diese nicht verstehen. Dann, wenn KI eingesetzt wird, um bestimmte Probleme zu lösen oder Aufgaben zu übernehmen, sollte es stets menschliche Instanzen geben, die entsprechenden Output gründlich kontrollieren und die von der KI genannten Quellen prüfen können.

Auch sollten sich Firmen aller Größen vor neue Angriffsformen wappnen, die durch die rasante Weiterentwicklung von KI begünstigt werden. Sind Sie erschlagen von den aktuellen technischen Entwicklungen und wünschen sich einen kompetenten IT-Partner an Ihrer Seite, der Sie bedarfsgerecht berät? Gern unterstützt Sie PC-SPEZIALIST in Ihrer Nähe in Sachen IT-SicherheitIT-Ausstattung und IT-Betreuung. Sprechen Sie uns gern an. Und versprochen: Wir antworten persönlich und nicht mit Hilfe einer KI!

_______________________________________________

Quellen: Wikipedia, CheckApp, Rems-Zeitung, BR24, WELT, WIRED, derStandard.de

Schreiben Sie einen Kommentar

Ihre E-Mail Adresse wird nicht veröffentlicht.

0 Kommentare