Künstliche Intelligenz

Müll rein, Müll raus

KI soll zunehmend im öffentlichen Dienst zum Einsatz kommen. Die Maschinen übernehmen dabei allerdings die Vorurteile der Menschen, häufig zulasten von Frauen.

Fokus

Wagen wir ein Experiment: 58 Prozent der Beschäftigten im öffentlichen Dienst sind Frauen. Wenn wir also eine KI bitten, ein Foto von einer Person, die im öffentlichen Dienst arbeitet, zu generieren, müsste auf den Fotos ja eine ähnliche Quote zustande kommen. Bei unserem Versuch mit verschiedenen Programmen zeigte allerdings nur knapp ein Drittel der Bilder Frauen (32 Prozent). Für die KI sind Beschäftigte im öffentlichen Dienst mit großer Mehrheit männlich. Und während die Männer in einer Vielzahl von Berufen und Umgebungen abgebildet wurden, wurden die Frauen in der Hälfte aller Fälle als Lehrerinnen abgebildet. Wie kann das sein?

KI ist bei weitem nicht neutral oder realitätsnah, sie gibt verzerrte Antworten. Denn das Material, mit dem die KI trainiert wird, enthält Vorurteile, persönliche Präferenzen und Abneigungen. Die KI überträgt diese Haltungen und Stereotype in ihre Ergebnisse. In der Fachsprache heißt dieses Phänomen „Garbage in, garbage out“ („Müll rein, Müll raus“). 

In der echten Welt, in der KI in immer mehr Bereichen zum Einsatz kommt, kann das fatale Folgen haben. Zwischen 2014 und 2017 baute sich Amazon sein eigenes KI-gestütztes Verfahren, um die besten Bewerberinnen und Bewerber auszusuchen. Das Ergebnis: Frauen wurden stets niedriger eingestuft, allein das Wort „Frau“ (zum Beispiel in „Frauenfußball“) sorgte für eine schlechtere Bewertung.

Ebenfalls für Schlagzeilen sorgte 2018 eine Software, die Anhand von Lebensläufen die Arbeitsleistung voraussagen sollte. Für die Software waren die beiden wichtigsten Faktoren für eine außerordentliche Performance, dass der Kandidat Jared hieß und in der High School Lacrosse gespielt hat.

Diskriminierung als Soll-Zustand 

„Eine Software, die Frauen bei der Auswahl benachteiligt, ist nicht besser als Menschen, die Frauen bei der Auswahl benachteiligen“, betont Milanie Kreutz, stellv. dbb Bundesvorsitzende und Vorsitzende der dbb bundesfrauenvertretung. „Aufgrund von strukturellen Benachteiligungen haben es Frauen immer noch deutlich schwerer, in Führungspositionen zu kommen. Die KI erkennt diese Diskriminierung als Soll-Zustand.“

Wenn Entwickler ihrer KI beibringen, weniger zu diskriminieren, bekämpfe das zwar die Symptome, nicht aber die Ursache. „Schon das Daten-Set aus der echten Welt, aus dem die KI ihre Ergebnisse zieht, muss frei von Vorurteilen sein. Den Schub zur Gleichstellung in der KI-Welt schaffen wir nur ohne Diskriminierung in der echten Welt.“ 

„Eine Software, die Frauen bei der Auswahl benachteiligt, ist nicht besser als Menschen, die Frauen bei der Auswahl benachteiligen.“

Milanie Kreutz

Auch im öffentlichen Dienst soll KI in immer mehr Bereichen zum Einsatz kommen. Im Vordergrund steht dabei die Idee, dass KI einfache Verwaltungsprozesse übernehmen soll, um die Beschäftigten zu entlasten. Doch auch das kann gewaltig nach hinten losgehen, wie ein Beispiel aus den Niederlanden zeigt: Die Stadt Rotterdam hatte über Jahre eine Software eingesetzt, die mögliche Sozialhilfebetrügerinnen und -betrüger ausfindig machen sollte. Laut der Software stellten alleinerziehende Mütter ein besonders hohes Risiko dar. Weitere Risikofaktoren waren junges Alter, geringe Sprachkenntnisse und Schwierigkeiten bei der Jobsuche. Die Folge: Viele mussten sich einer behördlichen Untersuchung unterziehen oder verloren in ihrer ohnehin prekären finanziellen Lage ihre Sozialleistungen.

Die Zahlen lügen ja nicht

Schon 2016 hatte der IT-Experte Maciej Cegłowski davor gewarnt, das Vertrauen gänzlich in die elektronischen Hände lernender Maschinen zu legen: „Sie sind ein sauberer, mathematischer Apparat, der dem Status Quo die Aura der logischen Unvermeidlichkeit verleiht. Die Zahlen lügen ja nicht.“ Ähnliche Fälle wie in Rotterdam gab es zuletzt in Australien, wo etwa 400.000 Menschen fälschlicherweise Steuern nachzahlen mussten, in Michigan, wo über 30.000 Menschen des Betrugs mit Arbeitslosengeld beschuldigt wurde oder den Niederlanden als Ganzes, wo über 20.000 Menschen fälschlicherweise beschuldigt wurden, beim Kindergeld betrogen zu haben.

 

zurück

forsa Umfrage