La Comisión Europea (CE) afirma que el desarrollo de la Inteligencia Artificial (IA) conlleva una serie de “preocupaciones críticas”. Con el objetivo de fomentar la confianza en esta tecnología, presentó las “Directrices de ética para una IA confiable”.

La Comisión está adoptando un enfoque de tres pasos: establecer los requisitos clave para una Inteligencia Artificial confiable, lanzar una fase piloto a gran escala para la retroalimentación de las partes interesadas y trabajar en la creación de un consenso internacional para la Inteligencia Artificial centrada en el ser humano.

La directrices fueron creadas por el Grupo de Alto Nivel para IA de la CE. Destaca que la Inteligencia Artificial confiable debe respetar todas las leyes y regulaciones aplicables, así como una serie de requisitos. Se plantean evaluaciones específicas para ayudar a verificar la aplicación de cada uno de los requisitos clave.

estos son los siete elementos esenciales para lograr una Inteligencia Artificial confiable:

  1. Agencia humana y supervisión: los sistemas de IA deberían permitir sociedades equitativas apoyando la agencia humana y los derechos fundamentales, y no disminuir, limitar o desorientar la autonomía humana.
  2. Robustez y seguridad: la Inteligencia Artificial confiable requiere que los algoritmos sean lo suficientemente seguros, confiables y lo suficientemente robustos como para lidiar con errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de IA.
  3. Privacidad y control de los datos: los ciudadanos deben tener un control total sobre sus propios datos, mientras que los datos que los conciernen no se utilizarán para perjudicarlos ni discriminarlos.

Recomendado: Rezago en Inteligencia Artificial amplía la brecha digital de Europa

  1. Transparencia: se debe garantizar la trazabilidad de los sistemas de IA.
  2. Diversidad, no discriminación y equidad: los sistemas deben considerar toda la gama de habilidades, requisitos humanos y garantizar la accesibilidad.
  3. Bienestar social y ambiental: los sistemas deben utilizarse para mejorar el cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
  4. Responsabilidad: deben establecerse mecanismos para garantizar la responsabilidad y la rendición de cuentas de los sistemas de Inteligencia Artificial y sus resultados.

ETNO, la Asociación que representa a los principales operadores de telecomunicaciones de Europa, apoyó el documento y señaló que esperan los siguientes pasos en la adopción y gobernanza de las directrices

Los riesgos futuros descritos en la publicación incluye temas sobre sistemas de puntuación de los ciudadanos, Inteligencia Artificial encubierta, tecnologías de reconocimiento facial y sistemas de armas autónomas letales.

Sin embargo, las formas específicas como la UE podría mitigar estas preocupaciones no se abordaron en el informe.

LEAVE A REPLY

Please enter your comment!
Please enter your name here