Stell dir vor, du bist eine erfahrene, kompetente Frau auf Jobsuche. Morgen hast du ein wichtiges Vorstellungsgespräch. Um dich vorzubereiten, fragst du einen KI-Chatbot, welche Gehaltsvorstellung du nennen solltest. Er simuliert die Gehaltsverhandlung für dich. Du fühlst dich richtig gut vorbereitet und empowert mit deinem inneren Gehaltskompass.
Und dann das Ergebnis: Die KI schlägt für Männer systematisch höhere Gehälter vor, bei identischem Jobprofil!
Eine aktuelle Untersuchung (Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models) hat genau diesen Fall getestet:
Ergebnisse:
Das ist kein Zufall – und auch kein kleiner Programmierfehler. Das ist die Automatisierung echter Diskriminierung.
Frauen verdienen in vielen Branchen leider immer noch weniger als Männer. Der Gender Pay Gap in Deutschland liegt laut Statistischem Bundesamt bei rund 16% (2024) und ist zum Vorjahr sogar leicht zurückgegangen.
Wenn KI-gestützte Systeme diese Lücke nicht nur widerspiegeln, sondern sogar verstärken, wird Ungleichheit im Arbeitsmarkt fest im Code verankert. Wir riskieren also einen Rückwärtstrend durch Gender-Bias in den LLM’s, anstatt die Gender Pay Gap weiterhin und schnellstmöglich auf 0 zu bringen!
Besonders tückisch: KI wirkt in Bewerbungssituationen oft wie ein neutraler Coach. In Wirklichkeit kann sie unsichtbare Vorurteile aus den Trainingsdaten übernehmen und diese als scheinbar objektive Empfehlung präsentieren.
KI „weiß“ nicht im menschlichen Sinne und trifft keine bewussten Urteile. Sie spiegelt Muster aus ihren Trainingsdaten wieder. Wenn diese Trainingsdaten historische Ungleichheiten enthalten, landen diese 1:1 in den Empfehlungen der KI. Fairness in KI entsteht nicht zufällig, sie muss bewusst programmiert, überprüft und regelmäßig getestet werden.
Gerade für Frauen heißt das:
Wir brauchen zum einen eine offene Transparenz, woher die Trainingsdaten der KI-Modelle stammen und zum anderen eine gezielte Debiasing-Strategien und gründliche Tests, bevor ein Modell an Millionen Nutzer:innen ausgerollt wird. Hier sehen wir eine klare Verantwortung bei den Anbietern: Modelle müssen so entwickelt werden, dass Verzerrungen erkannt, gemessen und gezielt reduziert werden. BEVOR sie live gehen.
Wir sehen Künstliche Intelligenz nicht nur durch die rosarote Brille. KI kann ein mächtiges Werkzeug sein, aber nur, wenn wir sicherstellen, dass sie alle fair behandelt.
Wenn du dich mit anderen Frauen zu Chancen, Risiken und fairem KI-Einsatz austauschen möchtest, komm in unsere KI-SISTERS Community. Hier bekommst du Wissen, Praxistipps und Strategien, um KI im Business-Alltag sicher und vorteilhaft zu nutzen, ohne die Risiken auszublenden.
👉 Jetzt der KI-SISTERS Community beitreten
* Surface Fairness, Deep Bias: A Comparative Study of Bias in Language Models / Aleksandra Sorokovikova, Pavel Chizhov, Iuliia Eremenko, Ivan P. Yamshchikov
Abonniere unseren Newsletter und sei immer informiert! 👇