Redes sociales

YouTube se ve envuelto en un nuevo escándalo por sus recomendaciones

Poco después de que se descubriera que en sus comentarios operaba una "red de pedofilia", un informe de Bloomberg mostró cómo los directivos de la empresa ignoraron a los empleados que les recomendaban cambiar los algoritmos de recomendaciones para no promocionar videos tóxicos o de conspiraciones.

jueves, 4 de abril de 2019 · 10:21 hs

Un informe del sitio de noticias de Bloomberg destapó otro escándalo que involucra al sitio de videos YouTube, ya que mostraron como los directivos de la compañía ignoraron las recomendaciones y propuestas de sus empleados a la hora de modificar el sistema de recomendación de forma que impidiera que se recomendaran vídeos tóxicos o teorías de la conspiración.

El lapidario informe llega poco después de la empresa se viera afectada por un escándalo de pedofilia en los comentarios de videos de menores, y que le valió la relación con compañías como Disney, Nestlé, Purina, McDonalds, Canada Goose, Epic Games y Fortnite.

"En los años recientes, decenas de personas dentro de YouTube y Google, su dueño, mostraron preocupación por la gran cantidad de contenido falso, incendiario y tóxico que el sitio de videos más grande del mundo promovía", indica el artículo del periodista Mark Bergen.

Uno de los casos más resonantes de un video de conspiraciones que el sitio promovió y causó indignación fue el que sugería que las víctimas del tiroteo en la escuela secundaria de Parkland eran actores. Susan Wojcicki, la CEO del sitio, tuvo que dar explicaciones al respecto, pero en defensa de lo que su sitio hace, dijo que "somos una librería, y siempre hubo controversias si mirás lo que pasó en las librerías".

En el sitio hay videos que van desde teorías conspirativas ridículas, como que la Tierra es plana o que Hillary Clinton pertenece a un culto satánico, hasta algunas peligrosas, como las que unen a la vacunación de niños al autismo. También hay videos tóxicos como los de supremacistas raciales o los de 

La parte crítica del informe de Bloomberg es la que muestra cómo fueron ignorados quienes se mostraron preocupados por cómo funcionaban las recomendaciones dentro del sitio. En Bloomberg indican que hasta cinco altos directivos que dejaron la plataforma en los últimos dos años lo hicieron hartos de no ser capaces de restringir contenidos "extremos y perturbadores" A pesar de que, remarca el informe, tres de los encargados de escribir el código de YouTube indicaron en un reporte de fines del 2016 que la inteligencia artificial del sitio ya podía detectar qué videos eran "clickbait", y los suprimían para no perder el interés del usuario, no se tomó medida alguna con el contenido infantil perturbador, las teorías conspirativas o los videos tóxicos.

Dentro de la empresa ya existe un término para el fenómeno de los videos que son tóxicos, pero que no violan expresamente las reglas y tienen muchas visitas: viralidad mala. Yonatan Zunger, un ingeniero de privacidad, antes de dejar de trabajar en YouTube recomendó que estos videos permanezcan en el sitio, pero que no aparecieran en las recomendaciones. Su propuesta llegó hasta los directivos de Políticas del Sitio, pero fue rechazada.

Con el paso de los años fueron tomadas algunas medidas para combatir el contenido malicioso, pero, según revelaron algunos empleados, el esfuerzo fue poco en comparación a la magnitud del problema. A fines del 2017, menos de 20 personas trabajaban en "confianza y seguridad", la parte de la empresa que se encargaba de corroborar que los videos cumplieran con las políticas de contenido. También se comenzó a utilizar la categoría "contenido límite", en la que caen los videos que no violan explícitamente las reglas del sitio, pero están cerca. Algunos de los videos anti vacunas ya cayeron en esta categoría, y no son utilizados en las recomendaciones.

Sólo el futuro podrá decir si estas medidas alcanzarán para frenar la ola de descontento que se produjo contra el sitio más popular de la historia.