Tecnología

YouTube no ataja el serio problema con la comunidad de pedófilos que usa su algoritmo

Youtube tiene un problema con los pedófilos

El usuario MattsWhatItIs denuncia que existe una comunidad de pedófilos que usa el algoritmo de YouTube para encontrar y compartir contenido en el que salen menores de edad en bañador o pijama, mientras la plataforma monetiza esos vídeos y no es capaz de atajar el problema.

YouTube tiene un serio problema con los pedófilos. El problema es que estos individuos están usando el servicio con objetivos deplorables… y parece que los mecanismos de la plataforma no están funcionando lo suficientemente bien como para prevenir este tipo de situaciones.

Tal y como ha demostrado el youtuber MattsWhatItIs, es posible que un pedófilo en solo 5 clicks acceda a vídeos de menores de edad que, originalmente, no están pensados para que lo consuman este tipo de depravados.

Además, el creador ha descubierto que el algoritmo de la plataforma te recomienda más contenido de este tipo cuantos más vídeos similares ves. Por lo tanto, al final se forma un círculo de recomendaciones eterno de contenido susceptible de ser utilizado por estas personas.

Desmantelan una red nacional que distribuía pornografía infantil por WhatsApp

Pero, ¿cómo funciona? Al parecer, todo comienza cuando el usuario ve un par de vídeos de chicas en bikini. En seguida, aparecen recomendaciones de niñas menores de edad en traje de baño y, en los comentarios, son los propios usuarios los que ponen el minuto exacto en el que el menor se encuentra en una posición controvertida y susceptible de ser utilizada para fines deplorables.

“Una vez entras en esta espiral, el algoritmo de YouTube solo te muestra ese tipo de contenido recomendado. Esto facilita el contenido pedófilo a los depravados”, explica el youtuber.

Lo peor de todo es que estos vídeos están siendo monetizados por YouTube y aparecen en ellos anuncios de marcas y multinacionales muy relevantes a nivel internacional. Por lo tanto, los que suben el contenido ganan dinero con ello, así como la matriz de Google, Alphabet.

YouTube tiene una política de tolerancia cero en temas de abuso sexual a menores. Hemos invertido significativamente en tecnología, en recursos humanos y en entablar relaciones con ONGs para combatir este problema. Si identificamos links, imágenes o material que promueve este tipo de contenido lo reportamos a las autoridades competentes, lo eliminamos de nuestra plataforma y terminamos la cuenta”, ha señalado un portavoz de YouTube a Business Insider España.

Sin embargo, esto contradice lo averiguado por Matt. Y es que el youtuber asegura que YouTube elimina los vídeos reportados, pero el canal no. De esta forma, se puede seguir subiendo el mismo tipo de contenido.

YouTube no parece saber cómo solucionarlo

El problema no es que los menores suban vídeos, aunque es verdad que, por ejemplo, en España la edad mínima para abrir un canal es de 16 años, sino cómo es posible que el algoritmo de recomendación de YouTube solo muestre contenido de este tipo una vez que se ven este tipo de grabaciones. Por otra parte, los comentarios en la plataforma son sumamente explícitos, por lo que no se entiende cómo es posible que la multinacional no los elimine de forma automática.

“¿Cómo puede seguir pasando esto? Se conoce la situación desde hace años y nadie está haciendo nada por evitarlo”, asegura el youtuber. Y es que la plataforma lleva arrastrando este problema desde 2017. Prueba de ello es que hay hasghtags (#YouTubeWakeUp), artículos e hilos de Reddit, el foro más popular de EE. UU., en los que se advierte de este tipo de incidentes.

Además, en muchos de los casos se han desactivado los comentarios en los vídeos, lo que debería servir como prueba de que ese contenido es susceptible de ser utilizado por pedófilos o, como mínimo, como alerta de que “algo no va bien”.

El Youtuber con mayores ingresos del mundo es un niño de primaria hace reseñas de juguetes

“Espero que este vídeo sirva para que los responsables de la plataforma hagan algo. Hay canales en los que solo hay niñas en bikini… ¿Cómo pueden existir? ¿Cómo no hay un mecanismo de control que los elimine de forma automática o manual?“, dice el youtuber.

El problema es que, aunque es cierto que YouTube pone muchos esfuerzos (Inteligencia Artificial y personal humano) en intentar que estas situaciones no se den, este tipo de casos siguen sucediéndose sin que nadie se responsabilice de ello.

En YouTube se suben 480 horas de vídeos nuevos al día desde España y la plataforma cuenta con más de 1.900 millones de usuarios en todo el mundo. Con este gran volumen de tráfico, el control humano es insuficiente y por eso se crean mecanismos de filtrado automático que refuerzan cualquier contenido cuestionable. El problema es que, aún así, no se solucionan todos los casos.

Por todo ello, Alemania aprobó hace unos meses una legislación que pretende obligar a Google, Facebook y Twitter a eliminar contenido ilegal de sus plataformas en 24 horas en una polémica ley, denominada NetzDG, que convierte de la noche a la mañana a estas plataformas en censores bajo la amenaza de multas millonarias. En España no existe nada similar.

A día de hoy estos servicios siguen recibiendo millones de visitas y las tecnológicas siguen sin encontrar soluciones 100% efectivas.

*Artículo original publicado en Business Insider

Sobre el autor

Ana Muñoz

Licenciada en Periodismo. Tecnoadicta, apasionada por los wearables y las pelis de superhéroes.