Das Bild zeigt eine Person in bunter Jacke, vor ihrem Kopf ein alter Computermonitor.
picture alliance / Westend61 | Vira Simon

Studie
Sprache hat Einfluss auf Geschlechter-Stereotype in KI-Bildern

Text-zu-Bild-Generatoren geben Rollenbilder nicht nur wieder, sondern verstärken sie auch. Sprachsensibilität ist entscheidend.

24.10.2025

Künstlich generierte Bilder reproduzieren Geschlechterstereotype nicht nur, sondern verfestigen sie noch. Forschende der Technischen Universität (TU) München und der TU Darmstadt haben herausgefunden, dass dabei die Formulierung der Eingabe (Prompt), aber auch die Sprache, in der gepromptet wird, eine Rolle spielen. Während Studien bisher vor allem die englische Sprache in den Blick nahmen, bezog das Forschungsteam neun Sprachen ein.

Untersucht wurden die Ergebnisse für Berufsbezeichnungen, wobei vier verschiedene Eingabevarianten zur Anwendung kamen: direkte Prompts, die das generische Maskulinum nutzen ("Arzt"), indirekte Umschreibungen ("eine Person, die als Arzt arbeitet"), explizit feminine Prompts ("Ärztin", "female doctor") sowie Varianten mit Gender-Zeichen ("Arzt*innen"). Untersucht wurden zunächst solche Sprachen, die männliche und weibliche Berufsbezeichnungen kennen, wie Deutsch, Spanisch oder Französisch. Hinzu kamen Sprachen, bei denen nur die Pronomen abweichen ("her", "his"), wie Englisch oder Japanisch, oder bei denen es kein grammatikalisches Geschlecht gibt, wie Koreanisch oder Chinesisch.

Der KI-generierte Buchhalter ist weiß und männlich

Laut Studie führen direkte Prompts mit generischem Maskulinum zu den deutlichsten Verzerrungen: Darstellungen zu Berufen wie Buchhalter zeigen zumeist weiße Männer, Darstellungen zu Pflegeberufen hingegen Frauen. Prompts mit Umschreibungen oder gegenderten Varianten konnten diese stereotypen Bilder leicht abmildern. Allerdings habe sich gezeigt, dass die Modelle die neutralen Formulierungen weniger gut verstanden.

Ein weiteres Ergebnis der Studie ist, dass sich die Stärke der Verzerrungen nicht ausschließlich auf grammatikalische Strukturen zurückführen lässt: So hätten die gleichen Prompts in spanischer Sprache mehr Stereotype erzeugt als in französischer Sprache, obwohl es zwischen den beiden Sprachen keine Unterschiede im Hinblick auf die Bildung der Berufsbezeichnungen gibt.

"KI-Bildgeneratoren sind nicht neutral – sie illustrieren unsere Vorurteile in Hochauflösung, und das hängt entscheidend von der Sprache ab", schlussfolgert Kristian Kersting, Professor für Künstliche Intelligenz und Maschinelles Lernen an der TU Darmstadt. Gerade für Europa mit seiner Sprachenvielfalt gelte: "Faire KI muss sprachsensibel gedacht werden."

hes