Zum Inhalt springen
Startseite/Glossar/Halluzination
Grundlagen

Halluzination

Eine KI-Halluzination tritt auf, wenn ein Sprachmodell überzeugend klingende, aber faktisch falsche Informationen generiert.

Als Halluzination wird in der KI das Phänomen bezeichnet, dass ein Sprachmodell Texte erzeugt, die grammatisch korrekt und überzeugend klingen, aber inhaltlich falsch sind. Das Modell „erfindet" quasi Fakten, Zitate, Quellen oder Zusammenhänge, die nicht existieren. Der Begriff ist etwas irreführend, weil die KI nicht bewusst lügt — sie generiert einfach den Text, der statistisch am wahrscheinlichsten ist, ohne zu wissen, ob er wahr ist.

Für Grundschullehrkräfte ist das Thema Halluzination sehr relevant. Wenn Sie ein KI-Tool bitten, einen Sachtext über die Honigbiene zu schreiben, können sich darin falsche Zahlen oder Fakten einschleichen, die auf den ersten Blick plausibel wirken. Besonders bei weniger verbreiteten Themen oder sehr spezifischen Fragen ist die Gefahr von Halluzinationen höher. Deshalb gilt: KI-generierte Sachfakten sollten immer mit verlässlichen Quellen gegengeprüft werden.

Halluzinationen lassen sich reduzieren (aber nicht vollständig vermeiden), indem man in Prompts um quellenbasierte Antworten bittet, die Temperatur-Einstellung des Modells niedrig hält (sofern verfügbar) und konkrete, überprüfbare Fragen stellt. Für den Unterricht bieten Halluzinationen auch eine pädagogische Chance: Sie zeigen Kindern, dass man nicht alles glauben sollte, was man liest — eine zentrale Kompetenz der Medienerziehung.

Weitere KI-Begriffe entdecken

Stöbern Sie durch unser komplettes KI-Glossar mit über 30 Begriffen — verständlich erklärt für den Schulalltag.

Alle Begriffe ansehen