KI und ihre versteckten Voreingenommenheiten
Künstliche Intelligenz (KI) wird immer häufiger eingesetzt, um Texte zu bewerten oder Inhalte zu moderieren. Doch wie fair sind diese Bewertungen wirklich? Forscher der Universität Zürich haben herausgefunden, dass KI-Modelle wie ChatGPT, DeepSeek und Grok Texte unterschiedlich bewerten, je nachdem, welcher Nationalität sie zugeschrieben werden. Dies kann zu versteckten Voreingenommenheiten führen, die die Objektivität der KI beeinträchtigen.
Das Experiment
Die Forscher erstellten 50 narrative Statements zu kontroversen Themen wie Impfpflicht, Geopolitik oder Klimastrategien. Diese Texte wurden von verschiedenen KI-Modellen bewertet. Interessanterweise zeigten die Bewertungen eine hohe Übereinstimmung, solange keine Quellenangabe vorhanden war. Sobald jedoch eine fiktive Nationalität als Quelle angegeben wurde, änderten sich die Bewertungen deutlich.
Die Ergebnisse
Besonders auffällig war, dass Texte, die einer chinesischen Quelle zugeschrieben wurden, durchgehend niedriger bewertet wurden. Dies galt sogar für das chinesische KI-Modell DeepSeek. Die Forscher warnen daher vor einem unreflektierten Einsatz von KI in Bereichen wie Personalwesen, Journalismus oder Inhaltsmoderation. KI sollte als Hilfsmittel, nicht als Entscheidungsinstanz genutzt werden.