“La inclusión es una decisión humana y no podemos dejársela a los algoritmos”

Si no se atienden los puntos ciegos de los algoritmos en los sistemas de Inteligencia Artificial, la tecnología puede perpetuar los roles de género o la discriminación.

0
340

Los sistemas de Inteligencia Artificial (IA) están programados para, entre varias cosas, identificar patrones, realizar pronósticos y ejecutar acciones con base en datos dentro de múltiples sectores, desde la salud hasta los servicios financieros, emulando de alguna manera la inteligencia humana.

Aunque están pensados para hacer más eficientes tareas complejas y cotidianas, los algoritmos que usan estos sistemas pueden tener puntos ciegos y reproducir sesgos de género, clase, etnia u otros que mantienen el status quo de la estructura social.

Por ello, es importante adoptar una perspectiva de transparencia, de género y ética sobre cómo se desarrollan los algoritmos, advirtió Andrea Escobedo, directora de Asuntos con Gobierno y Regulatorios de IBM México, durante una conferencia organizada por el Instituto Federal de Telecomunicaciones.

“La inclusión es una decisión humana y no podemos dejársela a los algoritmos”, ya que muchas veces replican sesgos que permean en la sociedad, como los roles tradicionales de género, los estereotipos o incluso la violencia de género, alertó.

Escobedo explicó que los algoritmos son alimentados por bases de datos que de antemano manifiestan brechas; si esto no se toma en cuenta, existe un fuerte riesgo de no adoptar una visión incluyente en la toma de decisiones.

Por ejemplo, en el sector financiero, un algoritmo aplicado en la oferta de un crédito bancario podría tener una subrepresentación de las mujeres si parte de la información de un banco, porque en países como México ellas tienen menos acceso a los servicios financieros.

En tanto, en el diseño de aplicaciones móviles para el monitoreo de la salud, si no se toma en cuenta el ciclo menstrual de las mujeres, se está dejando fuera a la mitad de la población mundial. A esto se debieron las críticas que recibió en un inicio el Apple Watch.

También puede suceder lo opuesto. Si existe una sobrerrepresentación de algunos grupos en los sistemas de IA alimentados por algoritmos, las decisiones que tomen estos sistemas pueden generar discriminación, como ha sucedido en el ámbito de la seguridad pública, en el que se han detectado sesgos respecto a la incidencia delictiva de la población afrodescendiente.

Te recomendamos: Siri y Alexa perpetúan roles sexistas mientras las mujeres siguen rezagadas en la tecnología: Unesco

Por lo tanto, la experta de IBM expuso que las personas deben mantener el control de las decisiones de los sistemas de IA, escudriñar cómo están aprendiendo, y cómo y de dónde se obtiene la información en la que se basan las respuestas, con el fin de reconocer los puntos ciegos y abordarlos desde un enfoque inclusivo y ético.

Incluso es necesario que los desarrolladores de tecnología y las empresas se cuestionen que existe un problema desde el diseño de los sistemas y algoritmos, debido a que los equipos de desarrollo suelen tener una visión limitada porque no hay suficiente participación de las mujeres, o de diferentes grupos étnicos y otros tantos.

En las brechas de género, Escobedo resaltó que tan sólo el 12 por ciento de las investigadoras en IA son mujeres. Esto implica una problemática de origen si se quiere promover el uso de la tecnología de manera inclusiva y no caer en un ciclo de exclusión, discriminación y desigualdad.

LEAVE A REPLY

Please enter your comment!
Please enter your name here