„Albtraum aller Eltern“: Studie warnt vor gefährlichen Inhalten auf TikTok

Oft heißt es scherzhaft, der Algorithmus kenne die Menschen besser als sie selbst. Laut einer Studie kann dies insbesondere jüngeren Menschen schaden.

Der chinesische Konzern steht seit längerem wegen angeblicher Mängel beim Jugend- und Datenschutz in der Kritik.
Der chinesische Konzern steht seit längerem wegen angeblicher Mängel beim Jugend- und Datenschutz in der Kritik.imago/ZUMA Wire

Während sich die Video-App TikTok auch in Deutschland zunehmender Beliebtheit erfreut, weisen Kritiker immer wieder auf Mängel beim Kinder- und Jugendschutz auf der Plattform hin. Einer neuen Studie des Center for Countering Digital Hate (CCDH) zufolge werden Inhalte, die Selbstverletzung, Essstörungen und sogar Suizid verherrlichen, aktiv von der App beworben. „Diese Ergebnisse sind der Albtraum aller Eltern“, sagte Imran Ahmed, Geschäftsführer des CCDH zu der am Donnerstag veröffentlichten Studie.

Insbesondere bei Menschen im Teenageralter könnte der nach außen schwer nachvollziehbare TikTok-Algorithmus erheblichen Schaden anrichten, so Ahmed. „Statt Unterhaltung und Sicherheit legen unsere Befunde ein toxisches Umfeld gerade für die jüngeren TikTok-Nutzer offen.“ Der chinesische Mutterkonzern Bytedance stand wegen ähnlicher Befunde bereits in der Vergangenheit in der Kritik.

Diäten, Fettabsaugungen, Selbstverletzung

Im Rahmen der Studie erstellten die Forscher fiktive TikTok-Profile für Jugendliche in den USA, Kanada, dem Vereinigten Königreich und Australien. Dabei einte die Accounts nicht nur das angegebene Alter von 13 Jahren – das von Bytedance festgelegte Mindestalter –, sondern auch der Umstand, dass den vermeintlichen Teenagern schon nach kurzer Zeit im Sekundentakt Videos mit teils verstörenden Aussagen vorgeschlagen wurden.

„Die Feeds junger Menschen werden mit schädlichen, erschütternden Inhalten bombardiert, die in ihrer Gesamtheit erhebliche Auswirkungen auf ihr Weltbild und ihre körperliche und geistige Gesundheit haben können“, heißt es in dem Bericht. So waren die sogenannten For-You-Pages (Für-dich-Seiten) der Testprofile voll von Videos, in denen radikale Diäten und operative Fettreduktionen, aber auch selbstverletzendes Verhalten und sogar Suizid angepriesen wurden.

Kern des Problems, so die Schlussfolgerung der Forscher, sei vor allem der undurchsichtige Algorithmus der Plattform. Dessen Hauptaufgabe besteht darin, die Sehbedürfnisse der Nutzer vorauszusehen, um diesen einen endlosen Strom perfekt zugeschnittener Inhalte präsentieren zu können. Wie genau die Feeds der Nutzer aussehen, liegt also weitestgehend nicht in deren eigenen Händen.

Um bestimmte Videos mit schädlichen Inhalten vorgeschlagen zu bekommen, reicht es dabei schon aus – das ergab nicht nur die nun veröffentlichte Studie des CCDH – für wenige Sekunden bei einem Video mit ähnlicher Aufmachung zu verharren. So ergaben Untersuchungen verschiedener US-Medien, dass der Algorithmus durch denselben Mechanismus auch zur Radikalisierung Jugendlicher und der Verbreitung rechtsextremen Gedankenguts beitragen kann.

„TikTok muss seine Algorithmen transparent machen“

Bytedance verweist angesichts der sich häufenden Vorwürfe auf bestehende Richtlinien, nach denen schädliche und gewaltverherrlichende Inhalte auf der Plattform verboten sind. Außerdem ziehe man regelmäßig Experten heran, um die Sicherheit der Nutzer zu gewährleisten, wie eine Sprecherin des Konzerns dem Guardian mitteilte. 

„Wir sind uns darüber im Klaren, dass triggernde Inhalte für jeden Menschen unterschiedlich aussehen und konzentrieren uns weiter darauf, ein sicheres und angenehmes Umfeld für alle zu schaffen“, so die Stellungnahme des Unternehmens.

Den Urhebern der Studie reicht das nicht. „TikTok muss seine Algorithmen vollständig transparent machen“, forderten die Forscher. Andernfalls sei es Aufgabe der zuständigen Aufsichtsbehörden, einzugreifen und die Plattform dazu zu zwingen, die geltenden Richtlinien auch konsequent umzusetzen. Im US-Bundesstaat Indiana droht dem chinesischen Bytedance-Konzern – auch aus politischen Gründen – bereits eine Klage wegen angeblicher Mängel beim Jugend- und Datenschutz.