TikTok tiene, en la actualidad, cerca de 40.000 funcionarios en su división de Trust & Safety. Funcionarios que apoyan las labores de revisión y eliminación de videos que violen las políticas del servicios y sus guidelines de comunidad. Y digo “apoyen” porque el grueso del trabajo lo hace, en realidad, un algoritmo.
En los primeros 3 trimestres del años, la compañía ha eliminado un poco más de 333 millones, ha cerrado cerca de 67 millones de cuentas (2/3 partes por ser de menores de 13 años) y ha suspendido cerca de 17 millones de transmisiones en directo.
Las cifras provienen de su más reciente Reporte de Seguridad, publicado la semana pasada.
A pesar de la magnitud de las cifras, estos casos representan menos de 1% del total de contenido compartido en la red social más importante del momento y el grueso de los videos eliminados se eliminan en menos de 2 horas.
El reporte tiene mucha más información que puede ver siguiendo este link y demuestra el arduo trabajo de la red social por moderar el contenido que se comparte en su plataforma.