Künstliche Intelligenz: Wie Algorithmen Vorurteile übernehmen
Wenn eine Künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Wie die Forschung mit dieser Tatsache umgehen soll, wird derzeit stark diskutiert. Neuen Anlass dazu gibt eine aktuelle Studie im Magazin Science. Darin zeigen Forscher um die Informatikerin Aylin Caliskan von der Princeton University, dass entsprechende Algorithmen die gleichen rassistischen und sexistischen Stereotypen reproduzieren wie Menschen.
Sie erzielten mit ihrem Messverfahren vergleichbare Ergebnisse wie Neurowissenschaftler, die unbewusste Vorurteile und Wertvorstellungen bei Menschen mittels des Implicit Associations Test (IAT) untersucht hatten. Dieser bereits 1998 entwickelte Test misst die Reaktionszeit, die Menschen benötigen, wenn sie zwei Begriffe miteinander in Verbindung bringen sollen. Kommen ihnen die beiden dahinterstehenden Konzepte semantisch ähnlich vor, ist die Reaktionszeit kürzer, als wenn die Ideen für die Testpersonen nur wenig miteinander zu tun haben. Beispielsweise zeigt jener Test, dass die meisten Menschen offenbar Begriffe wie Blumennamen eher mit Worten wie „schön“ oder „hübsch“ assoziieren, während Insekten eher mit negativen Begriffen assoziiert werden.
Lernen mit Milliarden Wörtern
Maschinen produzieren ähnliche Assoziationen, wie die Modelle der Forscher in der aktuellen Studie zeigen. Caliskan und ihre Kolleginnen nutzten unter anderem das sogenannte Word-to-Vec-Verfahren. Dabei werden Worte als Vektoren dargestellt – abhängig davon, welche Worte in ihrem Umfeld in Texten häufig auftauchen. Die semantischen Zusammenhänge dieser Worte werden also nicht von Menschen programmiert, sondern die Künstliche Intelligenz lernt selbst anhand von Millionen von Trainingsdaten, welche Begriffe zusammengehören. In diesem Fall nutzten die Forscher für das Training einen der größten computerlinguistischen Wortschätze, den Common Crawl Corpus mit 840 Milliarden Wörtern aus dem englischsprachigen Internet.
Die Distanz zwischen zwei Paaren an Vektoren diente den Forschern als Maßeinheit analog zur Reaktionszeit der Menschen im IAT-Test. Sie fanden dabei unter anderem heraus, dass die Künstliche Intelligenz Blumen ebenso wie europäisch-amerikanische Vornamen mit positiven Begriffen assoziiert, während Insekten sowie afroamerikanische Namen mit negativen Begriffen verbunden werden. Männliche Namen stehen semantisch näher an Karrierebegriffen, weibliche Namen hingegen werden eher mit Familie assoziiert, Mathematik und Wissenschaft mehr mit Männern, Kunst mehr mit Frauen, die Namen junger Menschen werden eher als angenehm, die Namen von älteren eher als unangenehm empfunden.
Vorurteile durch Sprache
Ein ähnlicher Aufsatz wie die aktuelle Science-Veröffentlichung lenkte kürzlich die Aufmerksamkeit der computerlinguistischen Community auf das Problem, das ihre modernen Verfahren mit sich bringen: „Man is to Computer Programmer as Woman is to Homemaker“ titelten Forscher der Boston University und von Microsoft Research in ihrem Artikel, der nahezu zeitgleich wie der aktuelle Artikel bereits im vergangenen Sommer auf der Plattform Arxiv erschien. Übersetzt bedeutet er: „Mann verhält sich zu Programmierer wie Frau zu Hausfrau“ – so spiegelt sich das Weltwissen in den Vektoren der Informatiker und in unseren Köpfen.
Letztlich sei das Ergebnis nicht weiter verwunderlich, gibt Joanna Bryson von der Princeton-University, Mitautorin des aktuellen Science-Artikels zu: „Die Verzerrung in den Daten ist historisch, das ist unsere Kultur.“ Zudem zeigten die Assoziationen sowohl von Mensch als auch von Maschine nicht nur Vorurteile, sondern auch menschliche Wertungen, eine Art Verzerrung in der Wahrnehmung, die sich über viele Jahrtausende gefestigt haben – beispielsweise dass wir Blumen als schön empfinden. „Daran ist ja nichts Negatives.“ Aber sie zeigen eben auch tief verwurzelte Vorurteile, die offensichtlich über die Sprache transportiert werden und eventuell dadurch in unser Unterbewusstsein vordringen.
Auf dem Prüfstand
Auch für die Roboterforschung habe die aktuelle Studie deshalb eine große Bedeutung, sagt Bryson. Schließlich sei lange argumentiert worden, dass Roboter einen Körper brauchen, um die Welt wirklich zu verstehen. „Es hieß: Du kannst keine Semantik bekommen, ohne die echte Welt zu fühlen.“ Sie sei selbst eine Anhängerin dieser These gewesen. „Aber das ist nicht nötig, wie unsere Studie zeigt. Allein durch das Lesen des Internets kann man sagen, dass Insekten unangenehm und Blumen angenehm sind.“
Doch neben all dem steht mit den beiden Studien die künstliche Intelligenz auf dem Prüfstand, die auf der Grundlage von Trainingsdaten Vorurteile lernt und zementiert. Das spürten kürzlich schwarze Strafgefangene in den USA, für die ein Algorithmus eine längere Haftzeit vorgeschlagen hatte als für weiße Kriminelle. Denn der Algorithmus hatte aus den bisherigen menschlichen Entscheidungen gelernt und die Vorurteile der Richter übernommen.
Ungerecht gegenüber Schwarzen
Eigentlich ist es ganz einfach, sagt Margaret Mitchell von Google Research: „Stecken wir Vorurteile rein, kommen Vorurteile raus.“ Diese seien allerdings kaum offensichtlich, weshalb sie häufig nicht bemerkt werden. „Wir haben heute dank der Deep Learning Revolution mächtige Technologien“, sagt Mitchell – und damit stellen sich neue Fragen, denn langsam wird klar, welchen Einfluss das maschinelle Lernen auf die Gesellschaft haben kann. „Solche Tendenzen in den Daten werden manchmal erst durch den Output der Systeme sichtbar“, sagt Mitchell. Aber nur, wenn sich die Entwickler darüber bewusst sind, dass sie die Ergebnisse in Frage stellen müssen.
Noch gebe es keine Lösung, wie man jene Vorurteile in den Daten systematisch aufspüren kann, die zu Diskriminierung führen können, gibt Mitchell zu: „Diese Technologie muss erst noch entwickelt werden.“ Doch es sei keine Zeit sich zurückzulehnen: „Damit müssen wir uns jetzt beschäftigen, denn diese Systeme sind die Grundlage für die Technologien der Zukunft.“ Sie nennt das die „Evolution der künstlichen Intelligenz“. Gerade an der Schnittstelle zwischen Bild- und Texterkennung gibt es immer wieder Pannen. Kürzlich hatte eine Google-Software das Foto eines dunkelhäutigen Mannes mit der Unterschrift „Gorilla“ versehen. Peinlich genug für den Konzern, um sich nun verstärkt dieser Ebene des maschinellen Lernens zu widmen.
Ein drängendes Problem
Sogar Systeme, die auf Zeitungsartikel trainiert seien, zeigen Geschlechterstereotypen in einem störenden Ausmaß, schreiben die Autoren um Tolga Bolukbasi von der Boston University in ihrem Artikel „Man is to Computer Programmer as Woman is to Homemaker“. Sie schlagen vor, bei den Lernprogrammen, die mit Wörtern arbeiten, Tendenzen und Vorurteile aus den Trainingsdaten zu entfernen. Joanna Bryson findet das falsch. Es werde kaum möglich sein, jedes Vorurteil aus den Daten zu nehmen und deren Repräsentation zu ändern. Schließlich seien die wenigsten so offensichtlich wie Rassismus und Geschlechterstereotypen.
Besser ist aus ihrer Sicht, die Systeme nach dem Trainieren mit einer Art Filter auszustatten: mit programmierten Regeln, die ausschließen, dass implizite Vorurteile in Entscheidungen oder Handlungen einfließen. Ganz ähnlich wie Menschen, die auch nicht jedes Vorurteil in eine Handlung umsetzen – womöglich ganz bewusst, weil sie eine gerechtere Welt anstreben.
„Die Gesellschaft kann sich ändern“, sagt Joanna Bryson. Aber nicht, wenn uns die Künstliche Intelligenz auf Basis von Daten der Vergangenheit für immer auf einem rassistischen und sexistischen Stand hält.