Portal społecznościowy, TikTok poinformował, że postawi na większą automatyzację usuwania ze swojej platformy filmów, które naruszają wytyczne dla społeczności.
Obecnie system nie jest w pełni zautomatyzowany i po automatycznym wykryciu potencjalnego naruszenia regulaminu serwisu wymagane jest sprawdzenie filmu przez członka zespołu ds. bezpieczeństwa. Jeśli zostanie zidentyfikowane naruszenie wideo zostanie usunięte, a użytkownik zostanie o tym powiadomiony.
TikTok w ciągu najbliższych kilku tygodni zacznie automatycznie usuwać niektóre rodzaje treści, które naruszają zasady dotyczące bezpieczeństwa nieletnich, nagości dorosłych i czynności seksualnych, treści zawierających przemoc i drastycznych oraz nielegalnych działań.
Firma powiedziała, że pomoże to jej zespołowi ds. bezpieczeństwa skoncentrować się bardziej na bardzo kontekstowych i zróżnicowanych obszarach, takich jak zastraszanie i nękanie, dezinformacja i nienawistne zachowanie.
Serwis poinformował również, że po pierwszym naruszeniu zasad użytkownik dostanie ostrzeżenie. W przypadku częstych naruszeń regulaminu konto może zostać trwale usunięte.
Zmiany następują, ponieważ wiele mediów społecznościowych, w tym Facebook i TikTok znalazły się pod ostrzałem za coraz większą mowę nienawiści i dezinformację.