Inteligencia Artificial responsable: ¿un derecho humano?

555

Recientemente, Ericsson lanzó un informe sobre el uso de Inteligencia Artificial (IA), donde señala que el impulso de la automatización debe de venir acompañado de una fuerte regulación.

No basta con brindar acceso a las herramientas de aprendizaje automático, sino que se debe garantizar que los sistemas de IA sean programados para actuar de manera responsable y justa dentro de sus límites para un resultado sostenible y confiable.

La compañía presentó una serie de áreas que deben protegerse del uso de la IA:

Transparencia y acceso a la información: si la información con la cual se manejan los sistemas de IA es de difícil acceso, o incapaces de explicar cómo o por qué se presentan ciertos resultados, esta falta de transparencia impactará en la confianza en el sistema.

Seguridad y privacidad: el acceso a grandes cantidades de datos permitirá a los sistemas de AI identificar patrones más allá de las capacidades humanas. En esto, existe el riesgo de que la privacidad de las personas pueda ser violada.

Responsabilidad en su uso: incluso si la tecnología es neutral, sólo hará lo que programamos (y enseñamos) para que haga. Por lo tanto, estará influenciado por sesgos humanos y cognitivos o conjuntos de datos de aprendizaje incompletos sesgados.

Garantizar el control humano: las empresas deben de garantizar que los sistemas que soportan y descargan las tareas de trabajo actuales siempre operen bajo el control humano.

Responsabilidad y regulación: con la introducción de nuevos sistemas impulsados ​​por la IA, aumentarán las expectativas de responsabilidad y rendición de cuentas para las empresas que operan la IA.