Gobiernos y empresas deben trabajar en sistemas de Inteligencia Artificial confiables

408

El desarrollo de aplicaciones y servicios basados en Inteligencia Artificial (IA) se ha convertido en la nueva carrera tecnológica que podría impactar en múltiples sectores, desde la atención al cliente hasta servicios médicos. Si bien su aplicación representa múltiples beneficios, también implica riesgos importantes que organizaciones multilaterales como la Unión Europea y la OCDE buscan abordar a través de lineamientos y estándares básicos.

Durante la conferencia “Poner en práctica los Principios de IA de la OCDE: progreso y perspectivas futuras”, compañías y gobierno acordaron en que se requieren reglas que permitan reducir los riesgos pero, sobre todo, ofrecer confianza a los usuarios para el uso de nuevos servicios impulsados por IA.

Como parte de esta labor, la OCDE presentó su marco general para la clasificación de aplicaciones de IA, que pretende ayudar a los formuladores de políticas en el análisis de la regulación y normas que deberán cumplir los participantes de la industria. Se espera que este marco se lance a principios del próximo año.

El enfoque propuesto por el organismo se basa en cuatro dimensiones de los sistemas de IA que reflejan sus prioridades centrales. El primero es el contexto del sistema, que incluye el sector en el que opera, la escala de su despliegue, el tipo de usuarios que interactúan con él y el grado de elección que tienen al utilizar este sistema. La segunda dimensión son los datos y la entrada de información que fluyen del contexto al sistema de IA. En tercer lugar, el modelo de IA en sí, incluidas características como el tipo y el método de entrenamiento. Y, finalmente, la última dimensión analiza la tarea que está realizando el sistema de IA y su salida, incluido su nivel y grado de autonomía.

Según explicó Audrey Plonk, jefa de División de Política de Economía Digital, este marco ya se ha utilizado en la evaluación de riesgos de cientos de sistemas de IA y sus aplicaciones, y será la base para la herramienta de evaluación de riesgo que se elabora en colaboración con la Unión Europea y otras organizaciones.

De acuerdo con los participantes del panel, uno de los principales retos de los sistemas de IA es la generación de confianza entre los desarrolladores y sus usuarios. Para ello, la OCDE también trabaja en un conjunto de herramientas para este fin, dividido en tres categorías: herramientas técnicas, herramientas de procedimiento y herramientas de educación.

Generación de confianza y mitigación de riesgos

Aunque no existen dudas sobre los potenciales beneficios respecto al uso de la Inteligencia Artificial, gobierno y compañías consideraron que se deben establecer lineamientos que permitan generar confianza entre los usuarios, así como una estrecha colaboración con el gobierno para la mitigación de riesgos.

Eva Kaili, miembro del Parlamento Europeo, detalló los planes de la UE respecto a la regulación sobre Inteligencia Artificial y los retos para definir qué tipo de riesgos deben ser abordados por la ley. Por ejemplo, señaló que se debe definir exactamente qué significa la prohibición de crédito social y quién podría acceder a estos datos; hasta dónde puede llegar el monitoreo de menores de edad, y si se considera como manipulación la publicidad dirigida mediante el análisis de su historial web; o, incluso, los posibles riesgos de desigualdad que podrían crear aplicaciones para la perfilación criminal.

Uno de los puntos de mayor complejidad según la legisladora es si la ley debería tener un enfoque ex-ante o tener facultades de monitoreo que permitan analizar los servicios e intervenir cuando sea necesario.

“Tenemos que entender que la IA no es sólo una cosa. No se trata únicamente de sistemas autónomos, podría ser sólo automatización. Entonces, partimos de algo que sucede de manera automatizada, luego tienes un Aprendizaje Profundo y luego puedes decidir implementar e integrar este software en el hardware para tomar también decisiones autónomas. Así que cedes mucho control”, advirtió.

A nivel internacional, consideró que los principales retos se encuentran en la colaboración, el establecimiento de estándares mínimos sobre cómo se recaba y se procesan los datos y el nivel de transparencia requerido.

Por su parte, Andrea Renda, investigador Senior y director de Gobernanza Global, Regulación, Innovación y Economía Digital en CEPS, consideró correcto el enfoque de organizaciones como la UE de una regulación basada en el análisis de riesgos. Sin embargo, consideró que este enfoque debe analizar dos áreas, el componente de derechos humanos, como el derecho a la privacidad y de libertad de expresión, pero también el componente de seguridad, especialmente cuando una IA opera infraestructura crítica.

Adicionalmente, consideró que el análisis de riesgos se debe iniciar desde la decisión de desplegar una aplicación de IA. Explicó que no es suficiente con analizar el diseño original de una IA en el laboratorio, sino que se deben considerar la posición de quienes implementan el sistema, los datos, la supervisión humana y otras características organizativas y de gobernanza que serán parte del sistema hasta su lanzamiento.

“En realidad, no sabemos y estamos condenados a no saber por completo qué sistemas de IA de alto riesgo están avanzando, porque se trata de una tecnología muy dinámica y que cambia rápidamente. Esto significa que los responsables de las políticas deben comprender que los momentos clave no son necesariamente sólo el ex-ante, pero es la gobernanza la que está configurada para monitorear la IA en el mercado y monitorear los efectos interactivos, especialmente cuando la IA interactúa con el entorno externo y otros sistemas de IA en el futuro”, agregó.

Eric Horvitz, director científico de Microsoft, indicó que el sector privado se encuentra actualmente en la frontera de transición de los avances de IA en laboratorio hacia la complejidad de las aplicaciones en el mundo real, donde un fuerte componente de competitividad entre compañías será ganar la confianza de la sociedad.

Horvitz recomendó que para el desarrollo de sistemas y servicios de IA confiables en la industria se deben considerar ciertas prioridades. En primer lugar, invertir en la comprensión de los beneficios y costos de las tecnologías, así como trabajar para mitigar las preocupaciones y tomar decisiones sobre si lanzar tecnologías y cómo hacerlo.

En tercer lugar, se debe desarrollar documentación transparente sobre los sistemas y servicios de IA que capture las limitaciones y también promueva las mejores prácticas. En cuarto lugar, desarrollar herramientas y métodos para comprender los sistemas de IA a lo largo de todo el ciclo de vida de la IA, incluido el mantenimiento de los sistemas a lo largo del tiempo. En quinto lugar, la industria debe involucrar a la sociedad civil, la academia y el gobierno en sus hallazgos y tener un diálogo bidireccional; y sexto, las empresas deben pensar realmente en profundidad para unir esa perspectiva y procesos con un conjunto de principios rectores y programas empresariales cruzados.

En cuanto a los posibles efectos sobre el mercado laboral y los trabajadores, Amanda Ballantyne, directora del Instituto de Tecnología de la Federación Estadounidense del Trabajo y Congreso de Organizaciones Industriales, señaló que se debe contar con la regulación adecuada que permita obtener los beneficios de la IA, como una mayor seguridad, soporte, entrenamiento y mejora de habilidades para incrementar la productividad.

Sin embargo, consideró que el mercado actual se está desarrollando sin la regulación adecuada, al señalar que existe una carrera por desarrollar sistemas de IA entre unas cuantas compañías tecnológicas en Estados Unidos y China, “sin los tipos de gobernanza y las prácticas democráticas y la transparencia necesarias para la creación de una regulación adecuada que corren el riesgo de exacerbar la desigualdad, la polarización y la discriminación, conforme estas tecnologías remodelan nuestras sociedades”.

En ese sentido, celebró que los principios de la OCDE sobre IA “son un hito importante para dirigir la implementación de la IA en la dirección correcta. Los gobiernos ahora deben estar a la altura de sus compromisos y asegurarse de que los principios se implementen y se sigan”.

Aunque reconoció la labor de colaboración entre organizaciones gubernamentales y compañías, consideró que los sindicatos también deben ser una parte esencial en el desarrollo e implementación de políticas para la regulación de la IA. Explicó que las principales preocupaciones alrededor de estos sistemas se encuentran alrededor de cómo se usan, quiénes toman las decisiones, cuáles son sus metas y quiénes se benefician.