BBC Mundo
El escándalo de pedofilia que afecta a YouTube
Algunas compañías como Disney, Nestlé, Purina, McDonalds, Canada Goose, Epic Games y Fortnite dijeron que retiran su publicidad de la plataforma de videos de Google a raíz del escándalo
"YouTube está facilitando la explotación sexual de niños. Y está siendo monetizada". Esa es la frase que titula el video del youtuber Matt Watson (también conocido como MattsWhatItIs), quien muestra su indignación tras haber descubierto "una red de pedofilia en YouTube".
"Las recomendaciones del algoritmo de YouTube están facilitando a los pedófilos la capacidad de conectarse entre sí, intercambiar información y poner enlaces en los comentarios", dijo Watson en un video de más de 20 minutos publicado el pasado domingo que acumula cerca de dos millones y medio de visitas.
Watson explica que solamente le hicieron falta dos clics para acceder a contenido publicado por pedófilos y que la plataforma recomienda videos similares de manera automática, de forma que con pocos clics la columna de recomendaciones (a la derecha) se llena de videos con menores.
Además, según el youtuber la plataforma es utilizada por pedófilos para intercambiar contenido de menores y contactos.
?También aclara que aunque algunos internautas ya advirtieron sobre este problema. Y dijo que tiene pruebas de que esos videos están siendo monetizados.
"Esto está mal, hay que hacer algo. Ellos lo saben. Y me repugna que nadie haga nada", dijo el creador de contenido californiano.
A continuación, reveló lo fácil que le resultó encontrar videos de contenido sexual con menores de edad que todavía siguen publicados en YouTube.
Son videos aparentemente inocente de niñas probándose bikinis, jugando o haciendo estiramientos, pero en los comentarios se pueden leer las reacciones de pedófilos buscando interacción con los menores o señalando partes del video que encuentran sexualmente sugerentes, así como enlaces que dirigen a contenido pornográfico.
Algunos de esos videos tienen millones de visualizaciones.
?Watson pidió a sus espectadores que se pongan en contacto con las marcas que aparecen en los anuncios de esos videos para advertirles que están apoyando indirectamente una red de pedofilia.
Las reacciones no se hicieron esperar.
Algunas compañías como Disney, Nestlé, Purina, McDonalds, Canada Goose, Epic Games y Fortnite dijeron que retiran su publicidad de la plataforma de videos de Google a raíz del escándalo.
.@Purina did you know you are sponsoring child pornography? #YouTubeWakeup https://t.co/ypXIgnnRb3— Del ? Snow Buddies ? Belcher (@delbelcher) 18 de febrero de 2019
Otras empresas, como Grammarly, dijeron que están en conversaciones con la plataforma para tratar de resolver el problema antes de cancelar del todo sus inversiones publicitarias.
"Cuando supimos sobre este asunto, nos quedamos -y todavía estamos- totalmente horrorizados, y contactamos a YouTube para que lo rectifique inmediatamente", declaró Senka Hadzimuratovic, vocera de Grammarly, una herramienta de gramática en línea.
¿Qué dice YouTube?
"Cualquier contenido, incluidos los comentarios, que ponga en peligro a los menores es abominable y tenemos políticas claras en YouTube que lo prohíben", le dijo a BBC Mundo un vocero de YouTube.
"Hemos tomado acciones inmediatas borrando cuentas y canales, denunciando la actividad ilegal a las autoridades y deshabilitando los comentarios en decenas de millones de videos que contienen imágenes de menores".
"Hay más por hacer, y continuamos trabajando para mejorar y detectar este tipo de abusos más rápidamente".
Este portavoz también le dijo a BBC Mundo que la compañía está tomando acciones más drásticas y "agresivas" de las que ha implementado hasta ahora para abordar mejor la gestión del contenido inapropiado y que ha eliminado más de 400 canales, algo que también ha expresado públicamente.
UPDATE: @YouTube @YTCreators left a comment and provided an update on what they’ve done to combat horrible people on the site in the last 48 hours.
TLDR: Disabled comments on tens of millions of videos. Terminated over 400 channels. Reported illegal comments to law enforcement. pic.twitter.com/zFHFfkX9FD— Philip DeFranco (@PhillyD) 21 de febrero de 2019
Otras medidas incluyen eliminar videos que fueron publicados sin malas intenciones, pero terminaron poniendo en peligro a menores de edad e incrementar la capacidad de descubrimiento de este tipo de contenido.
La empresa también dijo que siempre estuvo comprometida en la lucha contra ese material "horrendo" usando tecnología de vanguardia, en la que seguirá invirtiendo.
Según datos de YouTube, la tecnológica eliminó el año pasado 46.000 cuentas de ciberdelincuentes y las denunció al Centro Nacional para Menores Desaparecidos y Explotados, una organización sin fines de lucro que fue establecida por el Congreso de Estados Unidos.
Y asegura que no solo no dejará de hacer ese trabajo, sino que aumentará sus esfuerzos para velar por la seguridad de los jóvenes.
Las normas de YouTube prohíben a menores de 13 años ser propietarios de cuentas en la plataforma.
Los antecedentes
Este problema se suma a una crisis de anunciantes que estalló en 2017, cuando cientos de firmas ,como A&T y Verizon o la farmacéutica GSK, retiraron sus anuncios luego de una investigación del diario británicoThe Times que concluyó que el sitio estaba colocando avisos publicitarios junto a videos extremistas de contenido político y religioso.
A finales de 2017, YouTube reaccionó presentando algunos cambios para luchar contra los abusos. En ese momento, algunos periodistas, como el corresponsal de tecnología de la BBC Rory Cellan-Jones, se preguntaban si Google, propietaria de YouTube desde 2006, se enfrentaba a una crisis de confianza.
"Los medios de comunicación se enfrentan a regulaciones estrictas y las próximas podrían surgir del propio Google si no se solucionan los actuales problemas de otra manera", señaló.
Varios anunciantes regresaron un año después a la plataforma luego de que YouTube les asegurara que hizo progresos para detectar y gestionar el contenido inapropiado más rápidamente.
Te recomendamos