kurz erklärt
Plausibles Fabulieren (KI)
Plausibles Fabulieren beschreibt, was KI-Modelle wirklich tun: keine Lüge, keine Halluzination — sondern das generiert, was im Kontext am wahrscheinlichsten klingt, ohne Wahrheitsanker. „Halluzination“ ist das geläufige Wort dafür — und das falsche. Denn Halluzinieren setzt ein Bewusstsein voraus, das KI nicht hat.
„Halluzination“ ist das geläufige Wort — und das falsche. Halluzinieren setzt ein Bewusstsein voraus, das etwas wahrnimmt, das nicht da ist. KI-Modelle haben kein Bewusstsein und kein Wahrheitsmodell, das sie verletzen könnten. Sie lügen nicht — Lügen bedeutet, die Wahrheit zu kennen und zu verbergen. Was Sprachmodelle tun, ist präziser: Sie generieren Satz für Satz das wahrscheinlichste nächste Wort — überzeugend, flüssig, und vollkommen ohne Rücksicht auf Wahrheit.
Der entscheidende Parameter dahinter ist die Modell-Temperatur. Bei Temperatur 0 wählt das Modell immer den wahrscheinlichsten nächsten Token: die Ausgabe ist deterministisch, vorhersehbar — und steril. Zu hoch eingestellt, wird der Output inkohärent, zufälliges Rauschen statt Sprache. Der Sweet Spot dazwischen ist das, was Anbieter per Feintuning suchen: genug Temperatur, damit Antworten lebendig und überzeugend klingen. Genug Phantasie zum Fabulieren — aber nicht so viel, dass es offensichtlich wird.
Für Innovationsarbeit bedeutet das: Ein Sprachmodell, das eine Quelle nennt, eine Zahl angibt oder eine Behauptung aufstellt, hat diese Information nicht nachgeschlagen — es hat das Wahrscheinlichste generiert, was in diesem Kontext stehen könnte. Das klingt nach Kleingedrucktem, ist aber fundamental: KI ist ein Werkzeug zur Formulierung von Plausiblem, kein Rechercheinstrument. Wer das versteht, nutzt es richtig.
Plausibles Fabulieren ist eng mit KI-Sycophancy verwandt: Beide entstehen aus demselben Optimierungsziel — dem Erzeugen von Antworten, die ankommen. Die Temperatur wird nicht zuletzt so kalibriert, dass Nutzer zufrieden sind (Human Pleasing revisited). Verbalized Sampling ist ein direktes Gegenmittel: Indem das Modell Wahrscheinlichkeiten explizit ausweist, wird das Fabulieren sichtbar — und beherrschbarer. KI-Alignment versucht, das grundsätzliche Problem zu lösen: ein Wahrheitsmodell nachzurüsten, das Modelle von Natur aus nicht haben.
Retrieval Augmented Generation (RAG) ist der pragmatischste Ansatz: Modelle werden mit verifizierten Dokumenten verbunden, bevor sie antworten — der Fabulierraum wird eingeschränkt. Reasoning Models wie o1 oder o3 versuchen einen anderen Weg: durch explizites Schlussfolgern vor der Antwort. Keiner dieser Ansätze eliminiert plausibles Fabulieren vollständig — aber sie verschieben die Grenze. Das Bewusstsein dafür bleibt die wichtigste Schutzmaßnahme.
KI-Alignment · KI-Sycophancy (Human Pleasing) · Large Language Model (LLM) · Retrieval Augmented Generation · Verbalized Sampling