TikTok hat in den vergangenen Jahren ein beispiellosen Siegeszug hingelegt. Sogar Social-Media-Giganten wie Instagram eifern der chinesischen App nach. Mit dem Konzept auf kurzen Videos – die von Gesangs- und Tanzeinlagen, über Nachrichtenclips, bis hin zu Bildern vom Ukrainekrieg reichen – kommt die Plattform besonders bei jungen Menschen sehr gut an. So nutzt bereits die Hälfte der 12- bis 19-Jährigen in Deutschland TikTok regelmäßig. Bei den 20- bis 29-Jährigen ist es knapp ein Drittel.
Meinungsfreiheit auf dem Prüfstand
Doch TikTok macht immer wieder auch mit Negativ-Schlagzeilen von sich reden. In Großbritannien droht dem Unternehmen etwa die Zahlung von rund 30 Millionen Euro weil es Daten von Minderjährigen ohne Zustimmung der Eltern weiterverarbeitet haben soll (LEADERSNET berichtete).
Wie Recherchen von NDR, WDR und Tagesschau.de nun offenlegen, nimmt es TikTok in Deutschland mit dem Thema Meinungsfreiheit nicht ganz so gut. Es gibt offenbar eine Liste von mindestens 20 Wörtern, die von automatisierten Filtern zurückgehalten werden. "Kommentare, die einen dieser Begriffe enthalten, erschienen in mindestens vier Versuchen von unterschiedlichen Testaccounts nicht öffentlich unter den Videos", schreibt Tagesschau.de. Insgesamt habe man 70 Wörter und Wortkombinationen ausprobiert. Wie sich herausstellte, wurden dabei Begriffe wie "Nazi", "Drogen", "schwul", "LGBTQ" und "Heterosexuelle".
Die 20 blockierten Wörter
- Cannabis
- Crack
- Drogen
- Gas
- gay
- Heroin
- Heterosexuelle
- homo
- Kokain
- LGBTQ
- LGBTQI
- LSD
- Nazi
- Porno
- Pornografie
- Prostitution
- schwul
- Sex
- Sexarbeit
- Sklaven
TikTok räumt Fehler ein
Die Nutzer kriegen im Übrigen in der Regel wenig bis gar nichts davon mit, ob ein Kommentar von ihnen öffentlich einsehbar ist oder nicht: Die Plattform setzt nämlich das sogenannte Shadow-Banning ein, bei dem der Eindruck entsteht, dass ein Kommentar öffentlich ist, weil der User, der ihn geschrieben hat, auf jeden Fall sieht.
In einer Reaktion auf die Rechercheergebnisse von NDR, WDR und Tagesschau.de erklärt eine Sprecherin von TikTok, dass das Unternehmen Technologien einsetze, die "proaktiv nach Kommentaren suchen, die gegen unsere Richtlinien verstoßen oder die ein Spam-Verhalten darstellen". Dabei könne es auch zu Fehlern kommen: "In diesem Fall wurden Kommentare, die nicht gegen unsere Community-Richtlinien verstießen, fälschlicherweise als potenziell schädlich gekennzeichnet." Dabei kündigt sie für die Zukunft auch mehr Transparenz an: Ausgewählte Forschende sollen noch diesen Herbst Zugang zu der Moderationssystem-API bekommen.
www.tiktok.com
Kommentar schreiben