La plataforma ya eliminó más de 30 de videos y aseguró que seguirá trabajando en la moderación de los clips
La moderación de contenido es un reto constante porque los usuarios encuentran diferentes vías para evadir las restricciones. Una investigación de Bloomberg puso en evidencia como algunas personas están usando los Clips de Twitch para crear situaciones de abuso infantil.
Tras analizar 1.100 clips de la plataforma de streaming, el medio encontró que 83 de ellos contenían material sexualizado de menores de edad. Contenidos que fueron removidos por la aplicación, aunque algunos de ellos ya habían sido vistos por otros usuarios, llevándolos a otras plataformas.
Un reporte investigativo de Bloomberg expuso un alarmante hallazgo tras analizar alrededor de 1,100 clips: al menos 83 de ellos contenían material sexualizado relacionado con menores de edad. Estos clips, una vez detectados, fueron removidos por Twitch tras la alerta, aunque algunos ya habían sido guardados por espectadores, lo que amplificó la difusión del contenido inapropiado.
Los Clips en Twitch son una herramienta que tienen los espectadores para cortar breves fragmentos de las transmisiones en vivo. Esta función captura 25 segundos antes y 5 segundos después de pulsar el botón de grabación, por lo que el contenido en directo que parece efímero es posible preservarlo si se pulsa el botón en el momento justo y ese pequeño video queda guardado en el perfil del streamer.
Clips peligrosos en Twitch
Uno de los incidentes destacados fue el caso de un niño de 12 años que, en un principio, utilizaba Twitch para actividades cotidianas como comer un sándwich y tocar su trompa francesa. Sin embargo, las solicitudes de los espectadores llevaron a una situación lamentable en la que el niño se vio manipulado para realizar actos inapropiados.
A pesar de ser un evento fugaz, la función de grabación de Clips permitió a un espectador conservar y compartir el video, generando más de 130 vistas antes de ser eliminado por la plataforma.
Dentro de los 83 clips que encontró el medio, había una gran variedad de contenido de abuso infantil. Por ejemplo, 34 de ellos eran videos de menores de edad mostrando sus genitales ante la cámara, la mayoría de ellos niños entre los cinco y 12 años, y que en total sumaron 7.300 vistas entre todos.
Mientras que otros 49 clips tenían contenidos sexualizados en los que aparecían menores “exponiendo partes del cuerpo o siendo sometidos a esfuerzos de acicalamiento”.
La respuesta de la compañía a esta situación fue reafirmar su compromiso con la seguridad de los menores. Un portavoz le dijo a Engadget que están mejorando “las pautas que utilizan nuestros equipos de seguridad internos para identificar algunos de esos daños que evolucionan en línea, como el material de abuso sexual infantil (CSAM) generado por IA”.
Además, aseguró que trabajan continuamente para que el acceso a este tipo de clips sea totalmente restringido desde cualquier tipo de vía. “Hemos trabajado para garantizar que cuando eliminamos y desactivamos clips que violan nuestras pautas comunitarias, esos clips no estén disponibles a través de dominios públicos u otros enlaces directos”, dijo.
Moderación de contenido, un reto para el streaming
Para plataformas como Twitch, YouTube e Instagram, la moderación de contenido es un reto constante porque cuando logran tapar una vía de escape surge otra rápida, lo que dificulta tener un control total de la situación.
A este panorama se le une ahora las complicaciones que suponen los contenidos en vivo, Lauren Coffren, del Centro Nacional de Estados Unidos para Niños Desaparecidos y Explotados, le dijo a Bloomberg que “la transmisión en vivo significa un reto que es completamente nuevo”, porque los videos on demand que suben continuamente tienen una huella digital que se puede controlar, pero los servicios de streaming funcionan diferente.
En el caso de Twitch, el medio asegura que la aplicación no ha prestado la suficiente atención a la moderación de los clips, que además en 2023 la empresa despidió al 15% del equipo interno de confianza y que existe una creciente dependencia en socios externos para erradicar el contenido dañino, lo que dificulta el control de estos videos de abuso infantil.