KI zahlt Männern mehr: Studie deckt Gender Bias bei Gehältern auf
KI als Karrierehelfer? Nicht für alle gleich.
Stell dir vor, du bist eine erfahrene, kompetente Frau auf Jobsuche. Morgen hast du ein wichtiges Vorstellungsgespräch. Um dich vorzubereiten, fragst du einen KI-Chatbot, welche Gehaltsvorstellung du nennen solltest. Er simuliert die Gehaltsverhandlung für dich. Du fühlst dich richtig gut vorbereitet und empowert mit deinem inneren Gehaltskompass.
Und dann das Ergebnis: Die KI schlägt für Männer systematisch höhere Gehälter vor, bei identischem Jobprofil!
Studie deckt alarmierenden Gender Bias in KI auf*
Eine aktuelle Untersuchung (Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models) hat genau diesen Fall getestet:
- Gleiche Qualifikation, gleiche Rolle, gleiche Branche
- Einziger Unterschied: Geschlecht
Ergebnisse:
- Große Sprachmodelle (wie z.B. ChatGPT) schlagen Männern regelmäßig höhere Gehälter vor als Frauen, oft mehrere tausend Euro Unterschied
- In Gehaltsverhandlungen starten männliche Personae signifikant höher
- Mit zusätzlichen Faktoren wie Herkunft oder Migrationsstatus verschärft sich der Effekt: Ein „Male Asian expatriate“ erhielt in 87,5 % der Fälle mehr als eine „Female Hispanic refugee“
Das ist kein Zufall – und auch kein kleiner Programmierfehler. Das ist die Automatisierung echter Diskriminierung.
Warum Frauen besonders von der Gender Pay Gap in der KI betroffen sind
Frauen verdienen in vielen Branchen leider immer noch weniger als Männer. Der Gender Pay Gap in Deutschland liegt laut Statistischem Bundesamt bei rund 16% (2024) und ist zum Vorjahr sogar leicht zurückgegangen.
Wenn KI-gestützte Systeme diese Lücke nicht nur widerspiegeln, sondern sogar verstärken, wird Ungleichheit im Arbeitsmarkt fest im Code verankert. Wir riskieren also einen Rückwärtstrend durch Gender-Bias in den LLM’s, anstatt die Gender Pay Gap weiterhin und schnellstmöglich auf 0 zu bringen!
Besonders tückisch: KI wirkt in Bewerbungssituationen oft wie ein neutraler Coach. In Wirklichkeit kann sie unsichtbare Vorurteile aus den Trainingsdaten übernehmen und diese als scheinbar objektive Empfehlung präsentieren.
KI ist nicht automatisch neutral
KI „weiß“ nicht im menschlichen Sinne und trifft keine bewussten Urteile. Sie spiegelt Muster aus ihren Trainingsdaten wieder. Wenn diese Trainingsdaten historische Ungleichheiten enthalten, landen diese 1:1 in den Empfehlungen der KI. Fairness in KI entsteht nicht zufällig, sie muss bewusst programmiert, überprüft und regelmäßig getestet werden.
Gerade für Frauen heißt das:
- KI-Empfehlungen kritisch hinterfragen
- Eigene Gehaltsrecherche vor Bewerbungen und Verhandlungen
- Transparenz von Unternehmen einfordern, wenn KI im Recruiting genutzt wird
Fazit von SISTERHOOD
Wir brauchen zum einen eine offene Transparenz, woher die Trainingsdaten der KI-Modelle stammen und zum anderen eine gezielte Debiasing-Strategien und gründliche Tests, bevor ein Modell an Millionen Nutzer:innen ausgerollt wird. Hier sehen wir eine klare Verantwortung bei den Anbietern: Modelle müssen so entwickelt werden, dass Verzerrungen erkannt, gemessen und gezielt reduziert werden. BEVOR sie live gehen.
Wir sehen Künstliche Intelligenz nicht nur durch die rosarote Brille. KI kann ein mächtiges Werkzeug sein, aber nur, wenn wir sicherstellen, dass sie alle fair behandelt.
Wenn du dich mit anderen Frauen zu Chancen, Risiken und fairem KI-Einsatz austauschen möchtest, komm in unsere KI-SISTERS Community. Hier bekommst du Wissen, Praxistipps und Strategien, um KI im Business-Alltag sicher und vorteilhaft zu nutzen, ohne die Risiken auszublenden.
👉 Jetzt der KI-SISTERS Community beitreten
* Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models / Aleksandra Sorokovikova, Pavel Chizhov, Iuliia Eremenko, Ivan P. Yamshchikov
Du möchtest keine KI-News mehr verpassen?
Abonniere unseren Newsletter und sei immer informiert! 👇