Algorithmen kennen keine Leidenschaft. Sie lösen mathematische Probleme; in Zahlenreihen ist kein Platz für Vorurteile oder menschliche Fehler. Mit ihrer scheinbaren Unbestechlichkeit haben sie unsere Welt erobert. Ob bei Google oder Facebook – wir legen unsere Wahrnehmung von Informationen im Internet in die Hände von Algorithmen. Doch die Annahme, sie präsentierten uns eine neutrale Darstellung der Welt, ist ein Trugschluss.

Diese Annahme erklärt, weshalb es vielen Menschen offenbar lieber ist, wenn ein Algorithmus die Entscheidungen trifft. Einer von ihnen ist der US-Senator John Thune. Am 10. Mai schrieb der Republikaner einen empörten Brief an Mark Zuckerberg. Denn ehemalige Mitarbeiter von Facebook hatten gegenüber einem Blog öffentlich gemacht, dass in der Rubrik Trending Topics regelmäßig Themen der Konservativen unterdrückt worden seien. Facebook bietet in den USA diese Funktion an, die die wichtigsten Nachrichten des Tages auflisten soll.

Was wichtig ist, entscheide ein Algorithmus, hieß es bislang. Nun wurde klar, dass Mitarbeiter von Facebook die Ergebnisse anschließend noch bearbeiten. Senator Thune sah sich und die Öffentlichkeit getäuscht, hatte er doch darauf vertraut, das „Resultat eines neutralen, objektiven Algorithmus“ zu sehen.

Algorithmen können diskriminieren

Oft wird vergessen, dass Algorithmen von Menschen gemacht sind. Katharina Zweig, Informatikerin an der Technischen Universität Kaiserslautern, hat deshalb Anfang Mai mit drei weiteren Aktivisten die Initiative Algorithm Watch gegründet. Ihr Ziel: den Algorithmen und ihren Machern auf die Finger zu schauen. „Ein Algorithmus wird Dinge, die sich ihm gleich darstellen, immer gleich behandeln“, erklärt Zweig. Er diskriminiere nicht – es sei denn, die Voraussetzung dafür sei ihm schon eingebaut worden. Gerade bei lernenden Algorithmen komme es stark auf die Informationen an, mit denen der Mensch sie füttere. So entsteht Diskriminierung ganz unbewusst. Das beste Beispiel lieferte die Bilderkennung von Google, die Menschen mit dunkler Hautfarbe als „Gorillas“ erkannte. Deshalb sollten bei der Erstellung des Algorithmus am besten auch Sozial- oder Geisteswissenschaftler beteiligt sein, sagt Zweig. Sie habe oft bei Softwareprojekten beobachtet, dass ein Informatiker allein die Entscheidungen treffe.

In vielen Bereichen machten Algorithmen ihre Arbeit sehr gut, betont die Informatikerin. Zum Beispiel in der Logistik. Doch wenn sie wie in den USA vorhersagen sollen, ob ein Mensch zum Straftäter wird oder ob jemand ein Kurier von Terroristen ist, sei das bedenklich. „So lange die Algorithmen keine Grundrechte verletzen, sollte man da nicht unbedingt weiter regulieren.“ Sehr wohl aber, wenn es um die Meinungsvielfalt und den Zugang zu Informationen gehe.

Das ist das Feld, in dem sich Internetgiganten wie Facebook oder die Suchmaschine Google bewegen. Schon lange ist zum Beispiel durch Eye-Tracking-Studien, also das Verfolgen der Blickrichtung einer Testperson, belegt, dass die Suchergebnisse, die auf der ersten Seite erscheinen, die meiste Aufmerksamkeit bekommen. Was dort oben erscheint, entscheidet ein Algorithmus namens Page Rank.

Doch nicht nur das: Seit 2009 ist jede Suche personalisiert. Die Suchmaschine installiert eine kleine Datei auf dem Computer, einen sogenannten Cookie, der das Suchverhalten auswertet. So bekommt jeder Mensch andere, personalisierte Suchergebnisse.

Auch bei Facebook trifft ein Algorithmus eine Auswahl der Nachrichten, die Nutzer auf ihrer Startseite sehen – anhand einer Analyse ihres eigenen Verhaltens. Der Algorithmus berücksichtigt zum Beispiel, wann jemand „Gefällt mir“ geklickt hat, und zeigt ihm mehr Beiträge dieser Art.

Der Filterblasen-Effekt

Durch die Personalisierung entsteht etwas, das der Netzaktivist Eli Pariser 2011 als „Filterblase“ bezeichnet hat. Pariser sieht die Gefahr, dass wir im Internet keine anderen Meinungen als die eigenen wahrnehmen. Denn die Algorithmen zeigen uns nur das, wovon sie glauben, dass wir es sehen wollen. Somit werden wir ständig nur in unserem eigenen Weltbild bestätigt und stellen es nicht infrage. Das Paradoxe ist, dass wir selbst mit unserem Nutzungsverhalten dafür sorgen, dass das geschieht.

Dabei ist die Selektion von Informationen nicht per se schlecht – auf die Person abgestimmte Suchergebnisse machen die Suche effektiv, sagt Katharina Zweig. Der Mensch ist nicht in der Lage, alle verfügbaren Informationen im Internet zu verarbeiten, im Gegensatz zu einem Algorithmus. Facebook und Google übernehmen die Funktion eines Gatekeepers, einer Art Türsteher, der relevante Themen herausfiltert.

Das Problem entstehe immer dann, wenn den Menschen diese Selektion nicht mehr bewusst sei, sagt Zweig. „Wenn jemand das Gefühl hat, er sei umfassend informiert, und gar nicht erkennt, dass er gern noch ein bisschen mehr Informationen haben könnte, um sich zum Beispiel bei einer Wahl für eine Partei zu entscheiden – an der Stelle wird es kritisch.“

Als Lösung schlagen die Aktivisten von Algorithm Watch einen Algorithmus-TÜV vor, eine Art unabhängigen Betriebsprüfer. „Bei allem, wo es keinen Markt gibt – insbesondere bei Geheimdiensten oder der Schufa, wo wir als Bürger einem Algorithmus ohne Alternative unterworfen sind – muss es ein Recht auf Einblick und Transparenz geben“, fordert Katharina Zweig. Ein düsteres Szenario will die Informatikerin jedoch nicht entwerfen: „Ich glaube, dass wir in fantastischen Zeiten leben.“ Die Originalinformationen seien im Internet nicht schwer zu finden, wenn man aktiv danach suche. „Ich habe im Moment gar keine Sorge, dass jemand, der sich umfassend informieren möchte, das auch kann.“