TikTok meluncurkan teknologi pada bulan Juli yang secara otomatis menghapus konten yang melanggar kebijakannya tentang keselamatan, ketelanjangan dewasa dan aktivitas seksual, konten kekerasan dan vulgar, serta aktivitas ilegal.
TikTok juga memiliki moderator konten manusia di tim keamanannya yang meninjau konten yang dilaporkan.
Alasan paling umum untuk konten dihapus 41,3% adalah karena pelanggaran pedoman keselamatan kecil. TikTok mengatakan bahwa 94,1% dari semua konten yang dihapus diidentifikasi dan dihapus sebelum pengguna melaporkannya. (TIA)