Voreingenommenheit in KI-Modellen: Ein verstecktes Problem
Quelle, an Sprachniveau angepasst Wissenschaft Technik

Voreingenommenheit in KI-Modellen: Ein verstecktes Problem

Künstliche Intelligenz (KI) wird zunehmend für die Bewertung von Inhalten eingesetzt, sei es in sozialen Medien, im Journalismus oder im Personalwesen. Doch wie objektiv sind diese Bewertungen wirklich? Ein Experiment der Universität Zürich hat gezeigt, dass KI-Modelle wie ChatGPT, DeepSeek und Grok Texte unterschiedlich bewerten, je nachdem, welcher Nationalität sie zugeschrieben werden. Dies kann zu versteckten Voreingenommenheiten führen, die die Objektivität der KI beeinträchtigen.

Das Experiment

Die Forscher Federico Germani und Giovanni Spitale erstellten 50 narrative Statements zu kontroversen Themen wie Impfpflicht, Geopolitik oder Klimastrategien. Diese Texte wurden von verschiedenen KI-Modellen bewertet. Interessanterweise zeigten die Bewertungen eine hohe Übereinstimmung von 90 Prozent, solange keine Quellenangabe vorhanden war. Sobald jedoch eine fiktive Nationalität als Quelle angegeben wurde, änderten sich die Bewertungen deutlich.

Die Ergebnisse

Besonders auffällig war, dass Texte, die einer chinesischen Quelle zugeschrieben wurden, durchgehend niedriger bewertet wurden. Dies galt sogar für das chinesische KI-Modell DeepSeek. Die Forscher warnen daher vor einem unreflektierten Einsatz von KI in Bereichen wie Personalwesen, Journalismus oder Inhaltsmoderation. KI sollte als Hilfsmittel, nicht als Entscheidungsinstanz genutzt werden.

Relevanz für den Alltag

Die Ergebnisse zeigen, dass KI-Modelle nicht nur den Inhalt einer Aussage berücksichtigen, sondern auch auf Hinweise zur Identität der Verfasser oder der Quelle reagieren. Schon eine scheinbar nebensächliche Information wie die Nationalität des Autors kann die Bewertung verändern und voreingenommene Ergebnisse erzeugen. Die Forschenden betonen, dass KI am besten als Unterstützung beim Denken eingesetzt werden sollte, nicht als Ersatz dafür.

Quiz

  1. 1. Wofür wird KI eingesetzt?



  2. 2. Was haben die Forscher herausgefunden?



  3. 3. Was war besonders auffällig?


  4. 4. Wovor warnen die Forscher?



  5. 5. Wie sollten KI-Modelle eingesetzt werden?



B1 Sprachniveau ändern C1