De acuerdo a un reporte de The Wall Street Journal, los algoritmos que emplea Facebook para organizar el contenido que vemos en el feed fomentan y amplifican un comportamiento dañino y antisocial.

El reporte filtrado el pasado 26 de mayo por los reporteros Jeff Horowitz y Deepa Seetharaman, de The Journal, revela que los ejecutivos de Facebook tomaron la decisión de finalizar la investigación que haría que se disminuyera la polarización en la red social por temor a que eso afectara tanto los intereses de grupos políticos de derecha, quienes, según informes internos, publicaban el mayor volumen de contenido antisocial; como los intereses económicos de la compañía.

“Nuestros algoritmos explotan la atracción del cerebro humano hacia la división”, reveló una presentación de 2018, advirtiendo que si no se tomaban medidas, Facebook proporcionaría a los usuarios “contenido cada vez más divisivo en un esfuerzo por atraer la atención del usuario y aumentar el tiempo en la plataforma”, señala el reporte de The WSJ.

El reporte interno de Facebook de 2016 mostró que “el 64 por ciento de todas las interacciones de grupos extremistas se deben a las herramientas de recomendación”. La revisión también encontró que los algoritmos destacan los comentarios de usuarios que publicaban contenido violento, usuarios que están relacionados al uso de bots.

Dos días después de la publicación, en respuesta a los señalamientos de The Journal, Facebook declaró: “The WSJ ignoró intencionalmente hechos críticos que socavaron su narrativa” que, según la compañía, incluye cambios en las noticias, limitando el alcance de las páginas y grupos que violan los estándares de Facebook o compartir noticias falsas, combatir el discurso de odio y la información errónea, y “construir un Equipo de Integridad robusto”. La postura completa está disponible en el blog de Facebook.

LEAVE A REPLY

Please enter your comment!
Please enter your name here