El mundo visto por el sexismo de los algoritmos: ellas en biquini, ellos con traje y corbata

Un estudio recogido por el MIT muestra cómo la inteligencia artificial encargada de autocompletar imágenes sexualiza mayoritariamente a las mujeres

0
47

El País- Jorge G. García

La discriminación que provocan los algoritmos es ya uno de los grandes problemas del mundo virtual. No solo porque quienes los programan son humanos con sus propios sesgos, sino porque el machismo, el racismo y el sexismo forman parte del aprendizaje natural de estas fórmulas matemáticas, de las que dependen cada vez más aspectos de nuestras vidas. Un estudio reciente recogido por el Instituto Tecnológico de Massachussets (MIT), elaborado por Ryan Steed, estudiante de doctorado de la Universidad Carnegie Mellon, y la profesora de la Universidad George Washington Aylin Caliskan, ha demostrado que la inteligencia artificial encargada de autocompletar imágenes en las que apenas se ve mucho más allá de un rostro sexualiza mayoritariamente a las mujeres a partir de datos y del lenguaje que circula libremente por internet. Al procesar las fotografías, los algoritmos analizados vestían al 53% de las mujeres con tops y biquinis; mientras vestían al 43% de los hombres con traje y corbata.

El resultado no se debe al anonimato de las personas seleccionadas. Una política tan célebre como la congresista demócrata Alexandria Ocasio-Cortez, de quien existe un amplio archivo de retratos en la red, también padeció los prejuicios de la inteligencia artificial. La tecnología interpretó que lo más sensato era completar su imagen con un biquini. “El estudio es un espejo de la realidad en la que vivimos, de lo que se ha creado en internet. Refleja las lacras sociales con las que convivimos a diario”, sostiene Lorena Jaume-Palasi, integrante del consejo asesor del Gobierno para inteligencia artificial.

El impacto de este aprendizaje autónomo y discriminatorio no se limita únicamente a la generación de imágenes completas. Los servicios de vigilancia, de reconocimiento facial, de criminología o incluso las autoridades policiales emplean constantemente este tipo de tecnología en aplicaciones relacionadas con la visión por computación. En la mayoría de casos, cuentan con la supervisión humana para revertir los sesgos, pero no siempre sucede de esta manera, tal y como han concluido Steed y Caliskan.

Esa discriminación se aprecia incluso en algo aparentemente naíf como FaceApp, la aplicación que envejece y cambia de sexo las caras de los usuarios con unos filtros. El resultado depende de los datos aprendidos por el algoritmo, del entrenamiento recibido en internet y en grandes repositorios de imágenes públicas como ImageNet. Peligros para la privacidad aparte, al usarla, con imágenes de personas negras parecía imposible que aparecieran con pelo afro. La aplicación casi siempre decidía que su nuevo corte fuera liso. La inteligencia artificial utilizada por FaceApp es la misma que la analizada en el estudio.

No hay consenso sobre cómo resolver el machismo algorítimico. Lo más elemental en el caso de las fotografías es comprender que resulta imposible disponer de las caras de todo el mundo, según explica Ricardo Baeza-Yates, director de Ciencia de Datos en Northeastern University y catedrático de Informática de la Universitat Pompeu Fabra. Cuanto más abierto sea el dominio del uso de inteligencia artificial, más grave puede ser el error. Existen demasiados ángulos ciegos durante el aprendizaje. “Yo exigiría una regulación para que un comité de ética externo, sin conflictos de interés, apruebe los algoritmos empleados por instituciones y empresas que afecten a las personas”, asegura.

A vueltas con la frenología

Al margen del sexismo que se traslada de la sociedad a internet, la pseudociencia de la frenología explica también por qué las máquinas se empeñan en reincidir en este problema. Cuando afrontan soluciones biométricas, parten de la idea de que pueden determinar rasgos físicos y de la personalidad solo con observar la forma del cráneo o de algunas facciones. Extrapolan unos resultados basados en criterios aleatorios, para nada científicos. Buscan una aproximación a unos sistemas estadísticos creados a mitad del siglo XIX por Karl Pearson y Francis Galton. “Hablamos de algoritmos problemáticos, faltos de una verdadera ciencia de datos. Parten de la presuposición. De medir dimensiones internas del ser humano, como la forma de vestir, según su fisionomía. Éticamente son muy inconsistentes”, zanja Jaume-Palasi.

La pretensión de matematizar todas las conductas humanas tampoco contribuye a que los algoritmos operen bajo una ética deseable. Baeza-Yates reclama a los programadores mayor humildad —”les cuesta decir ‘no lo sé”—, afirma. Si durante su desarrollo no consiguen una probabilidad óptima, lo ideal sería dar marcha atrás. Historia diferente es que la inteligencia artificial refleje la discriminación sistémica de internet. Forma parte del propio ser humano. “No se miran los sesgos hasta que aparecen los problemas. Si con la observación activa el algoritmo sigue amplificando la discriminación, entonces habría que comprobar si ha tenido incentivos por sí sola para trabajar de esta manera”, sugiere.

Poco a poco crecen las voces que reclaman un mayor control de los abusos de esta tecnología. Han surgido organismos éticos. En el discurso público no es extraño escuchar la necesidad de regulación. Hasta la sociedad en su conjunto piensa qué se esconde detrás o cómo funciona el último avance técnico. Pero todavía son pasos insuficientes a tenor de investigaciones como la de Steed y Caliskan. “Cuando creas este estilo de algoritmos, estandarizas procesos. Creas cajones y metes a la gente dentro de ellos. Y la humanidad es muy heterogénea. Habrá problemas de clasificación. No hay suficientes cajones para incluir a más de 7.000 millones de personas”, concluye Jaume-Palasi.

LEAVE A REPLY

Please enter your comment!
Please enter your name here