Facebook tiene moderadores que revisan chats de WhatsApp

Una investigación revela que la red social también contrata moderadores de contenido para revisar mensajes de WhatsApp.

227

Cuando Facebook incorporó el cifrado de extremo a extremo en WhatsApp, la compañía se encargó de enfatizar que nadie puede leer las conversaciones individuales entre usuarios, más que el mismo emisor y receptor.

Sin embargo, estas promesas han sido cuestionadas por investigadores de ProPublica, quienes han revelado que la compañía de Mark Zuckerberg cuenta con al menos mil trabajadores subcontratados por Accenture en oficinas de Austin, Texas (Estados Unidos), Dublín (Irlanda) y Singapur, los cuales examinan cada semana millones de mensajes, imágenes y videos privados compartidos por los usuarios a través de su servicio de mensajería.

Según el informe, dichos trabajadores emplean un software de Inteligencia Artificial de Facebook para acceder y analizar los chats que han sido denunciados por otros usuarios, con la justificación de haber violado las políticas de la plataforma. 

Estos “moderadores” de WhatsApp se encargan de emitir juicios sobre cualquier contenido que aparezca en los mensajes que han sido señalados como “abusivos”. Desde fraudes o spam, hasta pornografía infantil, sextorsión y posibles conspiraciones terroristas. Aunque no pueden eliminar contenido individual, algo que sí ocurre en Facebook e Instagram.

¿WhatsApp engaña y vigila a sus usuarios?

El Director de Comunicaciones de WhatsApp, Carl Woog, reconoció que existen estos equipos de trabajadores que se encargan de revisar los mensajes de WhatsApp para identificar y eliminar a “los peores abusadores”. Pero el ejecutivo señaló que la compañía no considera su trabajo como moderación de contenido. 

WhatsApp es el único servicio de Facebook que no ofrece un informe de transparencia y, a diferencia de otras plataformas de mensajería rivales como Signal o Telegram, WhatsApp sí comparte metadatos con agencias de policía y gobiernos.

Los metadatos que están disponibles para el escrutinio público es información no cifrada que pueden revelar mucho sobre la actividad de un usuario. Por ejemplo: nombres, fotos del perfil, número de teléfono, estado, nivel de batería del teléfono, idioma y zona horaria, identificación única del teléfono móvil y dirección IP, intensidad de la señal inalámbrica, sistema operativo, así como cualquier cuenta de Facebook e Instagram relacionada.

La investigación concluye que el simple hecho de tener un “ejército de revisores de contenido” en las sombras, es una de las formas en que Facebook ha comprometido la privacidad de los más de 2 mil millones de usuarios de WhatsApp.