Wenn eine Künstliche Intelligenz die menschliche Sprache aus repräsentativen Texten der Menschheit lernt, entwickelt sie Vorurteile. Wie die Forschung mit dieser Tatsache umgehen soll, wird derzeit stark diskutiert. Neuen Anlass dazu gibt eine aktuelle Studie im Magazin Science. Darin zeigen Forscher um die Informatikerin Aylin Caliskan von der Princeton University, dass entsprechende Algorithmen die gleichen rassistischen und sexistischen Stereotypen reproduzieren wie Menschen.

Lesen oder hören Sie doch weiter.

Erhalten Sie unbegrenzten Zugang zu allen B+ Artikeln der Berliner Zeitung inkl. Audio.

1 Monat kostenlos.

Danach 9,99 € im Monatsabo.

Jederzeit im Testzeitraum kündbar.

1 Monat kostenlos testen

Sie haben bereits ein Abo? Melden Sie sich an.

Doch lieber Print? Hier geht’s zum Abo Shop.