Así afecta el sesgo de género a los sistemas tecnológicos de reconocimiento

0
433

Como principio, los sistemas de reconocimiento facial impulsados por Inteligencia Artificial (IA) deberían ser neutrales, sin sesgos de ningún tipo. No obstante, a menudo nos olvidamos de un hecho: su aprendizaje proviene de humanos, en su mayoría, hombres.

De acuerdo con Harvard Business Review, existen varios incidentes de IA que adopta el sesgo de género de los humanos. La revista citó un ejemplo de procesamiento de lenguaje natural (PNL) que está presente en Alexa de Amazon y Siri de Apple, además, los sistemas a menudo asocian al hombre como “médico” y a la mujer como “enfermera” en un aspecto marcado del sesgo en la inserción de palabras.

El inicio del sesgo

La brecha se produce cuando, durante el Aprendizaje Automático, no hay suficientes datos de mujeres; es ahí cuando se crean los agujeros del conocimiento en la IA. Cabe señalar que el Aprendizaje Automático está dirigido por humanos que, conciente o inconcientemente, agregan su propio sesgo al sistema de IA.

Las palabras se representan como una secuencia o un vector de números, si dos palabras tienen un significado similar, sus asociaciones estarán más cercanas entre sí. Éstas se codifican evaluando el contexto en el que se produce la palabra.

Recomendado:La etnia, color de piel y género son los principales problemas del reconocimiento facial en EUA

Importancia de eliminar el sesgo

Expertos de igualdad de IA en la conferencia LivePerson revelaron cómo los prejuicios de la IA podrían afectar a la sociedad, ya que cada vez más empresas seleccionan a sus candidatos por medio de IA, y la misma tiene sesgos importantes; es posible que los lugares de trabajo se llenen de hombres.

Además, es importante atacar el problema desde su raíz, atrayendo a cada vez más mujeres para ocupar puestos relevantes dentro de la industria tecnológica.

El sesgo no sólo afecta a las mujeres, sino que además las personas no binarias, transgénero y transexuales, se ven afectadas por los sistemas de conocimiento que únicamente identifican a hombres y mujeres. Empresas como Amazon, Microsoft e IBM, que invierten en tecnologías de reconocimiento facial, no han abordado estos temas, e incluso se ha dejado a consideración de humanos la última decisión. Sobra decir que, si el propio sistema que debería ser neutral vulnera a una persona, no podríamos esperar cosas diferentes en todos los casos en donde un humano, como por ejemplo, un guardia de seguridad, tome la decisión adecuada sin vulnerar a este grupo de personas.

Clarifai, quien desarrolla un sistema de reconocimiento facial, dijo a CNN Business que su sistema fue entrenado con un conjunto de datos de 30 millones de imágenes, cada una de las cuales fue interpretada como masculina o femenina por tres personas diferentes, al representar apenas el punto seis por ciento de la población estadounidense, la comunidad trans no contó con predicciones de género suficientes.

De acuerdo con Harvard Business Review, una de las causas más relevantes que llevan al sesgo de IA empieza por la falta de un banco de datos de entrenamiento diverso. El primer paso para superar el sesgo es asegurarse de tener datos lo más diversos posibles en términos de género, etnia, edad y sexualidad, como mínimo.

La IA podría ser una aliada importante, tiene la capacidad de mejorar nuestras vidas y evolucionar, sin embargo, eliminar el sesgo no depende de una máquina por más intuitiva o inteligente que sea, depende de los humanos acabar con los prejuicios y dar paso a la evolución tecnológica y sesgo.

LEAVE A REPLY

Please enter your comment!
Please enter your name here