Bias (Verzerrung) in der KI entsteht, wenn Trainingsdaten oder Algorithmen systematische Einseitigkeiten enthalten, die sich in den Ergebnissen widerspiegeln. Wenn ein Sprachmodell zum Beispiel überwiegend mit Texten trainiert wurde, die Ärzte als männlich und Krankenschwestern als weiblich darstellen, wird es diese Stereotype in seinen generierten Texten reproduzieren.
Für den Grundschulkontext ist Bias-Bewusstsein besonders wichtig, weil Kinder in einem prägenden Alter sind. KI-generierte Materialien können unbewusst Stereotype verstärken — sei es bei Geschlechterrollen, kulturellen Darstellungen oder sozioökonomischen Annahmen. Wenn Sie zum Beispiel einen Bildgenerator bitten, ein Bild von einer „Familie" zu erstellen, wird das Ergebnis möglicherweise nicht die Vielfalt der Familienformen in Ihrer Klasse widerspiegeln.
Lehrkräfte können mit Bias umgehen, indem sie KI-generierte Materialien kritisch auf Einseitigkeiten prüfen und bei Bedarf anpassen. Das ist gleichzeitig eine Chance für die Medienbildung: Mit älteren Grundschulkindern (Klasse 3-4) können Sie über Bias sprechen und gemeinsam untersuchen, welche Annahmen KI-Tools machen. So fördern Sie kritisches Denken und Medienkompetenz — wichtige Kompetenzen für die digitale Welt.