Die Verantwortungslosigkeit im Umgang mit KI in der Wissenschaft: Eine kritische Analyse
Die Verbreitung von KI in der Wissenschaft
Künstliche Intelligenz (KI) hat sich in der wissenschaftlichen Gemeinschaft schnell etabliert. Eine Umfrage aus dem Jahr 2026 unter mehr als 6000 Forschern in Deutschland zeigt, dass über 25 Prozent der Befragten KI-Tools täglich nutzen. Besonders verbreitet ist der Einsatz bei der Literatursuche und beim Verfassen von Manuskripten. Viele Wissenschaftler betrachten KI nicht mehr als bloßes Hilfsmittel, sondern als gleichwertigen Partner. Die Erwartungen sind hoch: Fast 70 Prozent der Befragten glauben, dass KI ihr Forschungsfeld in den nächsten zehn Jahren revolutionieren wird.
Die Problematik der Fehleranfälligkeit
Doch der unkritische Einsatz von KI birgt erhebliche Risiken. KI-Tools wie ChatGPT machen Fehler, die sich fundamental von menschlichen Fehlern unterscheiden. Ein zentrales Problem ist die Erfindung falscher Quellen. Studien zeigen, dass ChatGPT in bis zu 91 Prozent der Fälle halluzinierte Quellen angibt. Zudem liegt die Erfolgsrate bei der Suche nach relevanten Studien oft unter fünf Prozent. Diese Fehler sind besonders problematisch, da sie hinter einer Fassade von Selbstbewusstsein und scheinbarer Kompetenz versteckt werden. Wissenschaftler, die KI ohne tiefgehendes Verständnis der Technologie nutzen, laufen Gefahr, diese Fehler zu übersehen.
Qualitätseinbußen und Produktivitätsparadox
Seit der Einführung generativer KI hat sich das Volumen wissenschaftlicher Einreichungen deutlich erhöht. Das Preprint-Archiv »arXiv« verzeichnet einen Anstieg der Einreichungen um über 50 Prozent. Gleichzeitig ist die Anzahl der Ablehnungen um das Fünffache gestiegen. Dies deutet auf eine sinkende Qualität der eingereichten Manuskripte hin. Während einzelne Forscher von mehr Publikationen und Zitaten profitieren, leidet die Wissenschaft insgesamt unter der Verschlechterung der Studienberichte. Zudem werden weite Teile des Forschungsfelds ignoriert, was zu einer Verengung der wissenschaftlichen Perspektive führt.
Ethische und ökologische Herausforderungen
Der Einsatz von KI wirft auch ethische und ökologische Fragen auf. KI-Tools verbrauchen enorme Mengen an Energie, was im Widerspruch zu den Nachhaltigkeitszielen der Wissenschaft steht. Zudem reproduzieren KI-Systeme oft Vorurteile aus ihren Trainingsdaten. Eine Studie zeigt, dass KI in Bewerbungsverfahren rassistische und geschlechtsspezifische Vorurteile verstärkt. Auch der Datenschutz ist ein kritisches Thema: Viele KI-Tools laden personenbezogene Daten auf externe Server, was ethische und rechtliche Bedenken aufwirft. Die Frage, ob der Einsatz von KI in der Wissenschaft von Ethikkommissionen geprüft werden sollte, ist daher dringend zu klären.
Transparenz und Vertrauensverlust
Ein weiteres Problem ist der Verlust von Transparenz und Authentizität. Wissenschaftskommunikation erfordert eine unabhängige Einordnung von Methoden und Ergebnissen durch Menschen. KI kann diese Authentizität nicht bieten. Der Einsatz von KI in der Wissenschaftskommunikation birgt daher das Risiko eines Vertrauensverlusts in die Wissenschaft. In einer Zeit, in der wissenschaftliche Erkenntnisse zunehmend infrage gestellt werden, ist dies besonders besorgniserregend. Die Wissenschaft muss daher dringend Regulierungen entwickeln, die von KI-kritischen Experten erstellt werden, um die Grundsäulen der Wissenschaft – Faktentreue, Gründlichkeit und Transparenz – zu schützen.