BielefeldEin internationales Forscherteam hat es sich zur Aufgabe gemacht, Bots zu programmieren, die sich gezielt gegen Verschwörungstheorien im Internet wenden. Dies teilte die Universität Bielefeld am Freitag mit. Hintergrund des Projekts ist die Erkenntnis, dass Bots erhebliche Wirkung entfalten, wenn es ihnen gelingt, die öffentliche Meinung zu beeinflussen.

„Bots können zum Beispiel dazu führen, dass ein Thema überhaupt als relevant wahrgenommen wird, indem sie Tweets massiv teilen“, erläutert Professor Dr. Philipp Cimiano vom Center for Cognitive Interaction Technology (CITEC). Demnach sei es manchmal gar nicht so einfach zu unterscheiden, ob in den sozialen Netzwerken gerade ein Mensch oder eine Maschine kommentiere.

Bislang sind die Meinungsroboter zumeist negativ aufgefallen. Doch das Forscherteam an der Universität Biefeld will mit seinen internationalen Partnern in Canberra und Dublin nun den Spieß umdrehen. Dazu wollen sie Bots programmieren, die Fake News in den sozialen Netzwerken erkennen und gezielt mit gesicherten Informationen und Fakten darauf antworten.

Besonders großes Potenzial sehen die Forscher in der aktuellen Debatte um Falschinformationen zur aktuellen Pandemie. Zum Coronavirus gebe es viele Fake News und Verschwörungserzählungen – und das Thema polarisiere stark. Über Impfungen tauche beispielsweise schon seit Jahren immer wieder die Behauptung auf, dass sie Autismus auslösen. „Ein Bot könnte in dem Fall auf Forschungsergebnisse verweisen, die diese Theorie widerlegen“, erläutert Cimiano.

Wichtig sei es, auf seriöse Quellen zu verweisen. Ebenfalls ein entscheidender Punkt: Der Bot der Forscher würde sich immer als solcher zu erkennen geben und offen agieren. Damit unterscheide er sich von den gängigen Bots, die verdeckt aktiv seien. „Alles andere wäre unethisch.“

Computerprogramme, die im Internet mit Nutzern in Verbindung treten und Nachrichten verbreiten können, werden als Bots bezeichnet. Diese Meinungsroboter sind speziell dafür entwickelt, in sozialen Netzwerken zu agieren.