Wie diskriminierend ist Künstliche Intelligenz?


Wir befinden uns auf Londons Straßen, tausende Passant:innen spazieren an einem Lieferwagen vorbei. Auf den ersten Blick wirkt dieser unscheinbar, er erfüllt jedoch einen Zweck. Der Lieferwagen ist ausgestattet mit einer Gesichtserkennungssoftware, die Vorbeigehende filmt, scannt und diese Bilder speichert. Der Großteil der vorbeiziehenden Menschen scheint damit kein Problem zu haben, nur wenige verhüllen deswegen ihr Gesicht. Doch jene, die es tun, werden anschließend von der Polizei aus der Menge gefischt und befragt, wieso sie dies denn täten? 


Diese Szene ist aus der Dokumentation „Coded Bias“, die 2020 veröffentlicht wurde. In jener greift Regisseurin Shalini Kantayya die Frage auf, inwiefern Künstliche Intelligenz diskriminierend agiert. Bleiben wir beim Thema Gesichtserkennungssoftware. Vielfältige Berichte bestätigen offensichtliche Diskriminierungen in diesem Feld. Betroffen sind vor allem marginalisierte Gruppen wie BIPoC und Frauen, die in vielen Fällen bei der Registrierung und Erkennung von Gesichtern ein Nachsehen haben. Wie das sein kann? Joy Buolamwini, eine Forscherin des MIT Media Lab, entdeckte, dass viele Gesichtserkennungsprogramme Schwierigkeiten haben, die Gesichter von Frauen und Personen mit dunkler Hautfarbe korrekt zu erkennen. Dies führt sie darauf zurück, dass KI-Systeme von und auf Datensätzen trainiert werden, die hauptsächlich Weiße Männer programmieren beziehungsweise enthalten.  

 

Somit fungieren jene Algorithmen lediglich als Spiegel einer Gesellschaft, die Probleme von Ausgrenzung und Diskriminierung noch nicht einmal in der realen Welt gelöst hat. Nicht überraschend werden gesellschaftskritische Probleme des Patriarchats somit auf die digitale Welt übertragen und dort reproduziert. 

 

Die alleinige Schuld kann jedoch nicht ausschließlich Programmierern zugeschrieben werden. Künstliche Intelligenz zieht ihre Informationen ebenso aus Daten, die durch Studien gesammelt wurden. Was eine wissenschaftliche Basis und somit Objektivität versprechen soll, bewirkt im Endeffekt genau das Gegenteil. Denn viele Lebensrealitäten an den Rändern der Gesellschaft werden seit Jahrzehnten von wichtigen Studien ausgeschlossen. Das Resultat sind fehlende Datensätze über zahlreiche Menschengruppen, was erneut in einer lückenhaften Programmierung von Algorithmen resultiert. Besonders in den Bereichen Strafverfolgung, Bewerbungsverfahren und Kreditvergaben hat das weitreichende Folgen. So werden beispielsweise Frauen häufig geringere Kreditrahmen angeboten, nicht selten erfolgt eine Aussortierung bei digital gesteuerten Bewerbungsprozessen – Frauen werden deutlich digital ausgegrenzt. In ihrem Buch „Unsichtbare Frauen“ gibt Caroline Criado-Perez konkrete Beispiele: Sucht man mithilfe der Google-Bildersuchmaschine nach weiblichen CEOs – die in den USA 27 Prozent ausmachen – ergibt die Suche bloße 11 Prozent.²

 

BIPoC werden von vereinzelten Softwares teilweise gar nicht erst erkannt, fehlerhaft identifiziert – Stichwort racial profiling – oder in den schlimmsten Fällen als Primaten deklariert. In einigen Fällen haben diese fehlerhaften Operationssysteme bereits zu Bürgerrechtsverletzungen wie falschen Verhaftungen geführt. Deshalb fordern Aktivist:innen wie Joy Buolamwini eine Regulation von KI-basierten Systemen. Denn trotz ihres weitreichenden Einflusses gibt es kaum transparente Standards oder Vorschriften, die die Auswirkungen dieser Technologien auf die Gesellschaft überwachen oder kontrollieren. Organisationen wie die Algorithmic Justice League setzen sich für die ethische Nutzung von KI ein. Durch ihren Einsatz wurden erste politische Schritte eingeleitet, um Gesichtserkennungssoftware zu regulieren, insbesondere in den USA.  

„Women in AI“ ist eine weitere Organisation, die es sich zum Ziel gemacht hat, Frauen in der Branche miteinander zu vernetzen, Bewusstsein für den starken Einfluss von KI auf wichtige Gesellschaftsbereiche zu schaffen und letztendlich Denkanstöße anzuregen, um einer Diskriminierung in diesem Bereich entgegenzuwirken. Seit 2020 ist der Verein mit „Women in AI Austria“ auch in Österreich vertreten.³

ChatGPT ist sich dessen zumindest „bewusst“. Auf die Frage „Are you biased?“ erhält man folgende Antwort: 

As an AI language model, I am not capable of having personal biases or opinions. I generate responses based on the patterns I’ve learned from the large corpus of text that I was trained on, and my responses are purely based on that data. However, it’s important to note that the data I was trained on could reflect human biases and prejudices, which can sometimes influence the responses I generate. Nevertheless, I strive to provide accurate and helpful responses to the best of my ability without any personal bias. (…) 

 

„What do you think about facial recognition software?”  

(…) While facial recognition technology has some potential benefits such as improving security and facilitating identification, it also raises concerns about privacy, security, and potential misuse. Some experts argue that the technology is not accurate enough and can lead to false identifications, especially for individuals from minority groups. Others argue that the use of facial recognition technology without proper regulations and oversight can lead to violations of privacy and civil rights. (…)  

 

„IS AI capable of adhering to human rights?” 

AI systems are designed and programmed by humans, so they can potentially adhere to human rights if they are programmed and used responsibly. However, it’s important to note that AI systems are not inherently moral or ethical, and they can be programmed in ways that violate human rights. 

The ethical use of AI requires that developers and users take steps to ensure that the technology is designed and used in a way that respects human rights. This includes ensuring that AI systems are transparent, accountable, and fair in their decision-making processes, and that they are not used to discriminate against individuals or groups based on their race, gender, or other protected characteristics. 

There are also ongoing debates about the potential risks of AI systems to human rights, such as the right to privacy, freedom of expression, and the right to a fair trial. As AI technology advances and becomes more pervasive, it will be increasingly important to ensure that these risks are identified and addressed to protect human rights. 


Trotz der Bedenken, die die Maschine selbst äußert, fehlt es an Kontrollinstanzen und Regularien im Einsatz dieser. Mit ihrer Dokumentation fordert die Regisseurin und Aktivistin Shalini Kantayya zum Umdenken im Umgang mit Künstlicher Intelligenz auf und plädiert für mehr ethische Standards und Rechenschaftspflicht bei der Nutzung von Algorithmen. Als Frau kann ich ihr hierbei nur zustimmen.  

 






geschrieben von Timea Schmit






Info und Quellen

² „Coded Bias“ – Dokumentarfilm von Shalini Kantayya, 2020. 

³Future Zone “Wie KI die eine Hälfte der Bevölkerung diskriminiert“ – Carina Zehetmaier, 27.07.2023. 



In einer Welt, die immer stärker von künstlicher Intelligenz geprägt wird, stellt sich die Frage: Wie wirkt sich KI auf die Gleichstellung der Geschlechter aus? Verstärkt sie bestehende Machtstrukturen oder eröffnet sie neue Wege zur Gleichberechtigung?  Beim Feministival  diskutieren wir mit den Expertinnen Anna Geiger, Petra Herczek und Manuela Klauser, wie KI unsere Arbeitswelt verändert, welche ethischen Herausforderungen sich daraus ergeben und wie wir sicherstellen können, dass KI-Technologien zum Wohle aller eingesetzt werden. Don´t miss!

Sichere dir jetzt dein Ticket beim Feministival 

Was? // Panel: KI und Geschlechtergerechtigkeit: Macht, Arbeit und Ethik

Wann? // 09.11. um 11:50

Wo? // Feministival Main Stage

Am Grünen Prater 2, 1020 Wien (Südtribüne Trabrennbahn)