„Die Vorstellung von der Welt ist, wie die Welt selbst, das Produkt der Männer“, so die französische Schriftstellerin Simone de Beauvoir. Lässt sich dieser Ausspruch in unser datengetriebenes, digitalisiertes 21. Jahrhundert übertragen? Entscheidungen – in der Wirtschaft, in unserer Gesellschaft oder in der Forschung – basieren auf Daten. Und in diesen Daten wird die Hälfte der Weltbevölkerung ausgeschlossen: Frauen.
Noch immer sind Informationen, insbesondere geschlechterspezifische Informationen, auf die sich wirtschaftliche, gesellschaftliche, medizinische oder technologische Entscheidungen stützen, unvollständig. Wenn in Datenerhebungsverfahren ein bestimmtes Geschlecht unterrepräsentiert ist, spricht man von einer Gender Data Gap. Diese geht oftmals, wenn auch nicht immer, zu Ungunsten von Frauen.
Beispielsweise ist die Wahrscheinlichkeit einer schweren Verletzung bei einem Autounfall für Frauen 47 Prozent höher als für Männer. Die Sicherheitsprüfung der Autokarosserie wird mit einem anatomisch männlichen Test-Dummy, dem sogenannten „Reference Man“ durchgeführt. Die dabei gewonnenen Daten bilden nur die Anatomie des Mannes ab; entsprechend wird so unter anderem die Sitzposition von Frauen, die oft näher an der Windschutzscheibe ist, nicht berücksichtigt. Erst 2016 trat eine neue Testvorschrift in Kraft, die Frauen einen besseren Insassenschutz garantieren soll. Und das, obwohl deutsche Frauen seit 1958 einen Führerschein erwerben können. Die Vermutung liegt nahe, dass unsere Welt auf einer Datengrundlage beruht, die sich an Männern als Richtwert orientiert.
Damit werden datenbasierte Entscheidungen zu einem feministischen Thema. Insbesondere dann, wenn die lückenhaften Datensätzen zur Grundlage für moderne Algorithmen und Künstliche Intelligenz werden. Vermeintlich wertneutrale, rationale Technologien treffen zunehmend Entscheidungen in unserem Namen, etwa in Finanzfragen oder bei der Einstellung von Personal. Spiegelt sich unsere eigene Voreingenommenheit in diesen wider, dann schaffen wir mit den Informationen der Welt von gestern die digitalisierte Welt von morgen.
Tatsächlich dürften die meisten Algorithmen nicht so programmiert sein, dass sie absichtlich diskriminieren. Doch damit man mit ihnen arbeiten kann und ihre Anwendung Ergebnisse erzielt, müssen die Algorithmen mit Daten gefüttert werden. Wenn nun durch die Gender Data Gap Informationen in den zugrundeliegenden Trainingsdaten der künstlichen Intelligenz fehlen, verzerrt oder unterrepräsentiert sind, können diese Informationen nicht vom Algorithmus dargestellt werden.
Ein simples Beispiel wäre etwa ein Algorithmus, welcher mit einem Bilddatensatz zum Kochverhalten in Haushalten trainiert wurde und in dem sehr viel häufiger Frauen am Herd zu sehen sind als Männer. Weil im Training des Algorithmus nun überdurchschnittlich viele Personen als weiblich gekennzeichnet werden, „lernt“ der Algorithmus, dass am Herd typischerweise Frauen stehen. Ein Mann würde dann fälschlicherweise als weiblich gekennzeichnet, nur weil er vor einem Herd steht. Die irrtümliche Einordnung von Geschlechtern mag ein lapidares Beispiel für eine algorithmische Fehlinterpretation sein. In der Realität können diese Diskriminierungen aber weitreichende Folgen haben. Amazon musste beispielsweise die Nutzung eines KI-gestützten Personalauswahlprogramms beenden, nachdem Männer bei der Einstellung signifikant bevorzugt wurden.
Das Schließen der Datenlücke ist gleichzeitig einfach und auch schwierig. Es ist einfach, weil es eine sehr simple Lösung gibt: Wir müssen mehr nach Geschlechtern aufgeschlüsselte Fakten sammeln. Schwierig ist, dass die Gender Data Gap nicht das Ergebnis einer Verschwörung frauenfeindlicher Datenwissenschaftler ist. Es ist das Ergebnis einer Vielzahl von Faktoren, die zu einem Datenbestand geführt hat, der Geschlechterunterschiede ausblendet. So zeigt sich etwa, dass Medikamentenstudien an Frauen schwieriger durchzuführen sind, da der weibliche Hormonspiegel natürlicherweise stärker schwankt. Aus praktischen Gründen hat man daher traditionell auf Männer als Probanden in medizinischen Studien zurückgegriffen.
Wenn wir aber eine auch geschlechtergerechte Zukunft gestalten wollen, müssen wir die Tendenz, Frauen als atypisch einzuordnen, anerkennen und entsprechend handeln. In unserer datengetriebenen Welt ist es endlich Zeit, Frauen als die Menschen zu betrachten, die sie sind – und nicht zum Beispiel als kleingewachsene Männer. Natürlich werden durch das Schließen der Gender Data Gap nicht alle Geschlechterungerechtigkeiten auf magische Weise behoben. Dies würde vielmehr eine umfassende Umstrukturierung der Gesellschaft erfordern. Aber zu akzeptieren, dass die Bedürfnisse von Frauen an ihre Umwelt andere sind und daher nach Geschlecht aufgeschlüsselte Daten gesammelt werden müssen, könnte ein Anfang für eine endgültige Gleichstellung der Geschlechter sein.
Kommentar verfassen