01.03.2026
Die meisten vertrauen der KI zu sehr
LESEZEIT 4 MIN

Jeder kennt es: Man fragt die KI etwas, will ein Bild generieren oder etwas zusammenfassen lassen, aber das Resultat ist offensichtlich falsch. Man versucht es nochmal, es kommt vielleicht etwas näher an das heran was man eigentlich wollte, aber zufrieden ist man nicht. Es ist undurchsichtig warum es manchmal fantastisch funktoniert, und manchmal gar nicht machen will was es soll. Man sieht einfach: Es ist falsch. Aber immerhin sieht man dass es falsch ist und kann einen anderen Weg einschlagen. Viel gefährlicher wird es wenn die Resultate richtig klingen, aber falsche Inhalte beinhalten. Diese sind deshalb nicht einfach als falsch erkennbar. Die KI formattiert ihre Antworten richtig schön und packt sie in Selbstbewusstsein und Komplimente ein, sodass man gerne alles glaubt was als Antwort zurückkommt. Hier liegt das grösste Fehlerpotential, denn glaubt man den Ergebnissen ohne Prüfung können sie zu Problemen führen, sei es "nur" beim Lernen in der Schule, oder wenn man sich auf die Analyse bei der Arbeit verlässt um weitere Entscheidungen treffen zu können.
Halluzinationen sind einfacher erkennbar, aber auch nervig, vor allem wenn man nicht weiss wie diese entstanden sind. Die inneren Prozesse der KI sind undurchsichtig, leider oft auch für die Entwickler der Software, welche sie einsetzen. Deshalb streiten viele Nutzer oft mit der KI die ihnen die Halluzinationen auftischt. Man beschreibt genau was man will aber es will einfach nicht funktionieren. Der Code funktioniert nicht, das Bild zeigt die falschen Personen, die Inhalte der Zusammenfassung sind verwechselt oder die Antwort ist schlicht und einfach falsch. Auch wenn zusätzliche Inhalte wie Dokumentationen oder Webseiten durch "Retrieval Augmented Generation" hinzugezogen werden, hilft das nicht immer. Es gibt unzählige Posts und Witze darüber wie die KI Aussagen falsch versteht und interpretiert.
Aber es ist genau dieses "Streiten" was das Problem darstellt, denn streiten ist menschlich. KI ist nicht menschlich. Die Emotionen entstehen nur auf der Seite der Nutzer. Nur die Nutzer regen sich auf, argumentieren und streiten. Menschen haben die Tendenz alles zu vermenschlichen. Haustiere sind ein gutes Beispiel, aber auch Gegenstände werden oft vermenschlicht. Da KI auch noch wie ein Mensch "redet", ist es einfach eine Person dahinter zu sehen. Deshalb glaubt man gerne schnell dass die KI sich absichtlich mit einem anlegt und Halluzinationen erstellt, aber das ist nicht der Fall.

Wie entstehen Halluzinationen?
Um den Prozess zu verstehen und zu begreifen wie solche Halluzinationen aufkommen können, muss man einen Schritt zurückgehen und zuerst ansehen wie KI überhaupt ihre Inhalte erstellt. KI ist auf eine riesige Anzahl an Beispielen trainiert. Um neue Sätze zu erstellen die diese Inhalte imitieren, kategorisiert die KI die Trainingsinhalte nach rein objektiven Standards. Sehr vereinfacht erklärt nimmt die KI jedes Wort als Baustein und lernt welche anderen Wörter in dessen Nähe gebraucht werden. So wird das "Sonne" wahrscheinlich oft mit dem Wort "scheint" oder das Wort "Katze" vielleicht mit "Schnurren" zusammen geschrieben. Je mehr Trainingsmaterial mit verschiedenen Inhalten es gibt, desto mehr dieser Verbindungen entstehen und es bilden sich Wahrscheinlichkeiten. Wenn das Wort "Bild" für einen neuen Satz genutzt werden soll, so könnte die KI es mit "zeichnen" verbinden falls es sich um einen Künstler handelt. Falls es sich aber zB um Museen dreht, könnte auf "Bild" das Wort "ausstellen" folgen. So gibt es Wahrscheinlichkeiten für Wörter, welche bei bestimmten Themen öfter zusammen auftauchen. So baut sich die KI wie aus einem Satz Legosteine die Sätze zusammen.
Hier beginnt der grosse Fehlschluss der oft gemacht wird wenn KI vermenschlicht wird. Es ist einfach zu sagen dass die KI weiss dass man Bilder in Museen ausstellt, aber das ein Künstler Bilder malt. Das stimmt allerdings nicht. Sie weiss nur das die Reihenfolge der Buchstaben im Wort "Bild" oft mit Buchstaben in der Reihenfolge "zeichnen" oder "ausstellen" verbunden wird. Die KI weiss weder was die Wörter bedeuten, noch warum diese genau in dieser Reihenfolge angeordnet werden. Durch die grosse Menge an Trainingsdaten ist eine Maschine entstanden, welche die menschliche Sprache so gut imitieren kann, dass sie einen glauben lässt sie hätte wirklich nachgedacht.
Wie entstehen also Halluzinationen? Die KI verbindet Wörter nach Wahrscheinlichkeit. Wenn also in den Trainingsdaten Worte oft zusammen benutzt werden, welche mit der Frage des Nutzers nichts zu tun haben, dann wird die KI etwas antworten, was nichts, wenig oder falsch mit der Frage zu tun hat. Die KI macht hierbei technisch keinen Fehler. Sie kann nur ausgeben was eingegeben wurde. Da sie aber vielleicht auf alle anderen Fragen per Zufall richtig geantwortet hat, hat der Nutzer auf einmal das Gefühl die KI halluziniert. Etwas muss nicht stimmen. Man ändert die Frage und bekommt dann vielleicht die richtige Antwort. Das liegt daran dass andere Worte und andere Wahrscheinlichkeiten genutzt werden.
Die meisten Large Language Models heissen so, da sie auf eine riesige Menge an Sprachdaten trainiert worden sind und auf die meisten gängigen Themen grammatikalisch richtig anworten können. Durch die Menge an Daten ist dafür die Wahrscheinlichkeit der richtigen Zuordnung hoch genug. Bei spezialisierten Themen kann man zusätzliche Dokumente bei der Frage hinzuziehen, welche bei der Antwort mit einbezogen werden. Das führt zu höherer Genauigkeit bei spezifischen Fragen zu Themen die in generellen Modellen nicht vorhanden sind, wie zB Dokumentationen von Maschinen. Aber auch hier können Halluzinationen entstehen. In einem zweiten Teil dieses Blogbeitrags sehen wir uns nächste Woche an wie eine Gruppe von Forschern dieses Problem mathematisch lösen wollen.
