Youtube Kids alojó comentarios pedófilos y suicidio

Youtube Kids alojó comentarios pedófilos y suicidio

¿Cómo es que YouTube Kids, un sitio diseñado, específicamente, para ser un espacio seguro para que los niños utilicen y aprendan del internet, se convirtió en una central de comentarios de pedófilos, glorificación de la violencia armada y doméstica, e, incluso, alberga videos con “instructivos” para suicidarse?

Todos tenemos derecho al internet: a entretenernos, aprender y difundir nuestras ideas sin intermediarios; las redes sociales como Facebook, Twitter y Youtube sirven a diferentes públicos y generan interacciones diferenciadas pero, pareciera, todas tienen en común que no son espacios seguros para los niños.

Justo por eso fueron apareciendo plataformas diseñadas específicamente para ellos: YouTube Kids parecía que sería ese espacio seguro donde los pequeños se entretienen, aprenden y se comunican entre ellos. Pero la fantasía duró poco: se han hecho cientos de reportes de videos que no tendrían por qué estar en ese “espacio seguro”.

Desde contenido sexual explícito entre personajes de caricatura o videojuegos o recreaciones, con Minecraft, de tiroteos escolares. Cientos de videos han logrado burlar algoritmos y filtros de Google (la compañía madre de YouTube), y sólo unos cuantos han sido reportados.

Entre lo peor que se ha encontrado son “guías para suicidarse”. Sí, en una plataforma diseñada específicamente para niños, estos contenidos están disponibles para los más pequeños. (Vía: CNN en español)

Al mismo tiempo, presuntos círculos de pornografía infantil han logrado aprovechar una “falla” en el algoritmo de Youtube, denunciada por un youtuber apenas la semana pasada, para acceder a contenido hecho por niños pequeños, entrar en contacto con otros presuntos pedófilos y compartir pornografía infantil.

Hasta el momento, la respuesta de Youtube ha sido bloquear las las cuentas de los presuntos pedófilos; reforzar los algoritmos de Youtube Kids; enviar a las autoridades locales los contenidos que podrían ser causales de delitos, y pedir, una y otra y otra y otra vez, una disculpa pública. (Vía: Forbes)

La inteligencia artificial, los algoritmos de YouTube no son capaces de distinguir entre contenido potencialmente dañino y seguro, aún en apps que se suponen “seguras” para los niños.

¿Por qué pareciera que no hay espacios seguros para los niños, por qué, a través de la violencia, no sólo los aislamos, sino inclusive son convertidos en mercancía?, ¿cómo, como sociedad, dejamos que esto pasara?