Data Feminism: la lucha contra la opresión y la desigualdad en la ciencia de datos

El nuevo libro de Catherine D'Ignazio y Lauren F. Klein aborda cómo el proceso del manejo de datos, los modelos y los algoritmos, están basados en una visión masculina de la realidad.

2075

¿Quién construye las narrativas de datos? ¿Cómo el manejo de los datos puede reproducir las opresiones sociales y de género? ¿Qué tanto la diversidad es un enfoque en la ciencia de datos? Estas son algunas de las preguntas que se hacen Catherine D’Ignazio y Lauren F. Klein en su nuevo libro Data Feminism, editado por MIT Press, que será lanzado en mayo en Nueva York.

En un mundo cada vez más conectado, los datos tienen un valor transformador, social y económico dentro de la economía digital. Sin embargo, la ciencia de datos, que extrae conocimiento de la información, está impregnada de desigualdades estructurales sobre el género, clase y raza, lo que implica una visualización de datos sesgada.

Klein, directora del Laboratorio de Humanismo Digital de la Universidad de Emory, y D’Ignazio, directora de Data + Feminism Lab y profesora del MIT, analizan en su libro que todo el procesamiento de los datos, las tecnologías empleadas, los modelos y los algoritmos suelen estar basados en una visión dominante de la realidad (la masculina), en un sector donde sólo una pequeña parte de los expertos son mujeres.

Por ello, las autoras proponen adoptar una perspectiva de feminismo interseccional, que implica tomar en cuenta cómo las opresiones se superponen entre sí, en la ciencia de datos. Esto significaría que los diversos grupos de personas de color, mujeres, personas en la pobreza y más estén representados en la visualización de los datos, su recopilación y en las formas que se emplean.

“No es un accidente que estemos haciendo un montón de productos de IA (Inteligencia Artificial) racistas y sexistas en este momento porque son principalmente los grupos dominantes con poca alfabetización racial y de género quienes están haciendo el trabajo. No captamos estas cosas porque nadie en el equipo las está buscando, porque esas personas no son las personas que tienen el poder”, señala Catherine D’Ignazio en una entrevista.

Las escritoras narran en su libro cómo un software de reconocimiento facial no podía ver la cara de una estudiante del MIT, Joy Buolamwini, debido a que su funcionamiento se basaba en un conjunto de caras 78 por ciento masculinas y 84 por ciento blancas, y sólo cuatro por ciento tenían características similares a la de ella: mujer de piel oscura. Ese es un ejemplo de los sesgos sobre los que está diseñada la tecnología.

Pero no todos los esfuerzos relacionados con los datos están cegados de las desigualdades sociales, apuntan D’Ignazio y Klein. Existen algunos proyectos que ya están aplicando visiones diversas en esta disciplina, como Lotto Local, un grupo que busca explorar los datos a partir de una visión del espacio con una investigación sobre las implicaciones de la lotería en vecindarios de bajos ingresos, de personas negras y latinas. O aquellos que abordan la falta de datos sobre problemáticas que atañen la vida de las mujeres, como WomanStats, pues sin datos dificilmente se harán políticas públicas para resolverlos.