Kontakt aufnehmen

Sie wünschen mehr Informationen oder haben eine Frage? Schreiben Sie uns:

captcha
Datenschutzerklärung.

Sicheres Auftreten bei völliger Ahnungslosigkeit!


Veröffentlicht am 23.06.2023 von ANNA-LENA HOHNBERG
Avatar

Kennt ihr das? Sicheres Auftreten bei völliger Ahnungslosigkeit? Es gibt Menschen, die diese Disziplin ziemlich gut beherrschen. Ich muss zugeben, ich habe das auch schon oft praktiziert. Vor allem in Situationen, in denen es darum ging, Menschen/Kunden ein gutes Gefühl zu geben, Ruhe reinzubringen, Projekte erfolgreich zu steuern und um sich Zeit zu verschaffen für zu lösende Probleme. Diese Methode ist an vielen Stellen sehr erfolgreich, hat aber natürlich ihre Grenzen. Lügen ist zum Beispiel schwierig, nicht erstrebenswert und oftmals auch nicht zielführend. Der Grad ist allerdings oft sehr schmal. Dabei gehören zu „sicherem Auftreten bei völliger Ahnungslosigkeit“ viel mehr Facetten, die auch moralisch stets vertretbar sind.

 

Wie ist das bei Sprachmodellen? Diese haben generell ein sehr sicheres Auftreten. Und das leider auch bei völliger Ahnungslosigkeit. Hat man beim Menschen neben der Stimme weitere Faktoren wie Körpersprache oder Mimik, die Aussagen bestimmte Nuancen verleihen, bietet sich die Möglichkeit bei der KI nicht.

 

Das sichere Auftreten der KI Chatbots kann zum richtigen Problem werden, nämlich dann, wenn sie Informationen ausspuckt, die "ausgedacht" sind. Dieses Phänomen nennt sich „Halluzination“. Denn es kann passieren, dass der Chatbot sehr überzeugend Fakten auswirft, die schlichtweg falsch sind oder anders. Es sind plausibel klingende Unwahrheiten, die von der KI in generierte Inhalte eingebaut werden. Die Gefahr ist, dass die Informationen schnell zu Fake-News werden und in die Welt getragen werden könnten. Oft erfindet die KI sogar Quellen, stellt Zusammenhänge faktisch falsch dar oder schildert Phänomene verzerrt oder unwahrheitsgetreu.

 

Selbst KI-Programme, die speziell entwickelt wurden, um KI-Halluzinationen abzuschwächen/zu unterbinden, haben mit eigenen Halluzinationen zu kämpfen.

 

Warum dieses Phänomen auftritt ist nicht final geklärt, bei bestimmten Voraussetzungen sind aber Häufungen von Halluzinationen zu vermelden:

 

  • Die KI wurde mit falschen Datensätzen oder unzureichend trainiert, die trainierten Daten sind unzureichend geprüft, lassen mehrere Antworten zu
  • Quellenangaben sind stark divergent, was bei großen Datenmengen nicht ungewöhnlich ist 
  • es liegen zu wenig Informationen vor, die der KI bei bestimmtem Fragestellungen zur Verfügung stehen
  • Die KI setzt zu viel Wissen beim User voraus, sorgt so für Missverständnisse
  • die Kodierung/Dekodierung zwischen Text und Darstellung verursacht Fehler 

 

 

Fragt man ChatGPT direkt, wo seine größte Schwäche liege, erhält man folgende Antwort:

 

„Als KI-Modell habe ich keine persönlichen Schwächen im herkömmlichen Sinne, da ich kein eigenes Bewusstsein oder emotionale Empfindungen habe. Meine Funktion besteht darin, Texte zu generieren und Informationen basierend auf meinem Training bereitzustellen. Dennoch gibt es bestimmte Einschränkungen und Herausforderungen, die mit KI-Modellen wie mir verbunden sein können. Zum Beispiel kann ich manchmal fehlerhafte oder ungenaue Informationen liefern, insbesondere wenn die Eingabe unklar oder mehrdeutig ist. Zudem habe ich keinen Zugriff auf Echtzeitinformationen und kann nicht über Ereignisse oder Entwicklungen informiert sein, die nach meinem Trainingszeitpunkt stattgefunden haben. Deshalb ist es immer wichtig, die von mir bereitgestellten Informationen zu überprüfen und gegebenenfalls weitere Quellen zu Rate zu ziehen.“

 

Im Extremfall kann es bei Sprachmodellen sogar zu einem richtigen „Halluzinationsanfall“ kommen. Bei Systemen wie GPT-3 generiert die KI jedes nächste Wort auf der Grundlage der Folge der vorausgehenden Wörter. So bauen die Halluzinationen dann aufeinander auf und Fehlinformationen sind sprichwörtlich vorprogrammiert.

 

Google galt mit Google AI, Google Brain und TensorFlow lange als Vorreiter in der KI. Die Halluzinationen waren hier ein Grund, warum sich Google zurückhielt. Obwohl das Problem der Halluzinationen auch bei ChatGPT bekannt war, brachte man das Modell trotzdem zur freien Verfügung auf den Markt und nahm das mitgebrachte Risiko der Fehlinformationen in Kauf. Mittlerweile werden die Halluzinationen flächendeckend in Kauf genommen, aber an allen Fronten arbeitet man daran, sie bei den Chatbots zu reduzieren.  

 

Für den Moment lässt sich Folgendes festhalten: Nicht alles, was die Sprachmodelle auswerfen, ist einfach so hinzunehmen. Es gilt, alle generierten Inhalte zu prüfen und sich nicht auf alle Informationen zu verlassen. Es gilt: nicht alles zu glauben, was man sieht. Eine wichtige Regel beim Umgang mit der KI. Sprachmodelle sind keine Wissensdatenbanken!