¿Y la privacidad? ¡WhatsApp tiene 1000 empleados que leen mensajes privados de usuarios!

¿Y la privacidad? ¡WhatsApp tiene 1000 empleados que leen mensajes privados de usuarios!

Se conoció una investigación de ProPublica, que revela que lo hace para "suministrar datos a la Justicia". WhatsApp admitió que tiene muchos equipos de gente que revisan mensajes, aunque negó que ese trabajo sea una moderación de contenido.

MDZ Mundo

MDZ Mundo

El portal ProPublica reveló una investigación que pone en evidencia una estrategia polémica que involucra a empresas de Mark Zuckerberg: hablamos de Facebook y la aplicación de mensajería instantánea WhatsApp, cuya política de seguridad asegura que los mensajes de los usuarios no pueden ser leídos por los empleados

Según el informe, Facebook tiene contratados a más de 1.000 funcionarios que permanentemente leen y moderan "millones de mensajes, imágenes y videos privados", que son enviados a través de su servicio filial de WhatsApp, según el portal ProPublica. 

Esta evidencia contrasta con que WhatsApp sigue promocionando sus políticas de privacidad y enfatiza que los mensajes entre usuarios no pueden ser descifrados por la compañía. El director ejecutivo de Facebook, Mark Zuckerberg, señaló durante su testimonio ante el Senado de Estados Unidos en 2018: 

"No vemos nada del contenido en WhatsApp" (Mark Zuckerberg) 

No obstante, de acuerdo con el nuevo informe basado en documentos internos y entrevistas con moderadores, resulta que no es así: 

"WhatsApp tiene más de 1.000 trabajadores contratados, que llenan pisos de edificios de oficinas en Austin, Texas, Dublín y Singapur. [...] Emiten juicios sobre cualquier cosa que aparezca en su pantalla, reclamos de todo, desde fraude o spam hasta pornografía infantil y posibles conspiraciones terroristas, generalmente en menos de un minuto", reveló ProPublica. 

Además, se supo que estos moderadores no son empleados directos de WhatsApp o Facebook, sino que son contratados que trabajan por 16,50 dólares la hora y están obligados a guardar silencio sobre su labor, bajo contratos de no divulgación.

Los contenidos que observan  

Según ProPublica, los contenidos a los que están atentos esos contratistas son mensajes reportados por usuarios o marcados por inteligencia artificial. De este modo, cuando un internauta presiona 'reportar', el mensaje en cuestión, así como los cuatro anteriores en el chat respectivo, se descifran y se envían a uno de esos moderadores para su revisión. 

"Los mensajes seleccionados por la inteligencia artificial se examinan con base en datos no cifrados recopilados por WhatsApp, como 'los nombres y las imágenes de perfil de los grupos de WhatsApp de los usuarios, sus números de teléfono, fotos de perfil, mensajes de estado, nivel de batería del teléfono, idioma y zona horaria, identificación única del teléfono móvil y dirección IP, intensidad de la señal inalámbrica y sistema operativo del teléfono, así como una lista de sus dispositivos electrónicos, cualquier cuenta de Facebook e Instagram relacionada, la última vez que usaron la aplicación y cualquier historial previo de violaciones'", aporta la agencia Rt.

También se supo que algunos de los mensajes revisados por los moderadores fueron marcados por error. WhatsApp cuenta con 2.000 millones de usuarios que hablan cientos de idiomas, y los empleados a veces tienen que confiar en la herramienta de traducción de Facebook para analizar los mensajes marcados. Según un contratado, esa herramienta es "horrible" para decodificar la jerga local y el contenido político

La investigación muestra, además, "que los informes que WhatsApp comparte ciertos datos privados con agencias de aplicación de la ley, como el Departamento de Justicia de Estados Unidos. A manera de ejemplo, ProPublica denuncia que datos de los usuarios de WhatsApp ayudaron a los fiscales a construir un caso contra una exempleada del Departamento del Tesoro, Natalie Edwards, que supuestamente filtró a BuzzFeed News informes bancarios confidenciales sobre transacciones sospechosas", sigue la agencia. 

WhatsApp responde 

Carl Woog, director de comunicaciones de WhatsApp reconoció que sus contratistas revisan los mensajes para identificar y eliminar a "los peores" abusadores, y aseguró que la compañía no evalúa que ese trabajo sea una moderación de contenidos. "En realidad, no solemos usar este término para WhatsApp", dijo Woog a ProPublica. 

Cierra Carl Woog: "WhatsApp es un salvavidas para millones de personas en todo el mundo. Las decisiones que tomamos, sobre cómo creamos nuestra aplicación, se centran en la privacidad de nuestros usuarios, manteniendo un alto grado de confiabilidad y previniendo el abuso". 

ProPublica, Rt. 

Temas

¿Querés recibir notificaciones de alertas?