El Tiempo-Simón Granjas Matías

Lograr el éxito en la creación de la inteligencia artificial (IA) sería el mayor evento en la historia humana. Tanto si es por la máxima potencialización de sus beneficios como de los riesgos que puede conllevar su uso. Por un lado, se podría lograr erradicar las guerras, las enfermedades y la pobreza. Y por otro, se podría usar para crear máquinas asesinas y autónomas que puedan elegir sus propios objetivos, incrementar el desempleo hasta niveles inimaginables y, por lo tanto, aumentar la pobreza y generar más guerras y caos, según han advertido grandes científicos.

Es difícil predecir cuál de los dos caminos seguirá el transcurrir del futuro o si serán ambos. Desafortunadamente, y esto se deduce por aprendizaje de la historia, “lo más probable es que el escenario sea este último, a menos que se logre aprender a evitar los riesgos. Lo más importante es que estamos a tiempo”, señalaron científicos como Stephen Hawking, entre otros.

Estas predicciones pueden parecer de ciencia ficción; sin embargo, primero, la IA ya existe; segundo, está presente en la cotidianidad de gran parte de la humanidad; tercero, se están tomando decisiones sobre su funcionamiento; cuarto, cada vez está evolucionando más, y quinto, hay alarmas sobre su uso negativo.

La IA que funciona hoy en día se conoce como IA estrecha o IA débil, ya que está diseñada para realizar una tarea en específico, por ejemplo, solo reconocimiento facial o búsquedas en internet o solo conducir un automóvil. Sin embargo, el objetivo a largo plazo de muchos investigadores es crear IA general o IA fuerte. Para que se entienda la magnitud de su potencialidad: si bien la IA estrecha ya puede superar a los humanos en algunas tareas específicas como jugar al ajedrez o resolver ecuaciones, la IA fuerte superaría a los humanos en casi todas las tareas cognitivas.

A largo plazo, una pregunta importante es qué sucederá si la búsqueda de una IA fuerte tiene éxito y un sistema de IA se vuelve mejor que los humanos en todas las tareas cognitivas. Esto no es algo nuevo, ya se había advertido.

El matemático I. J. Good, quien trabajó durante la Segunda Guerra Mundial descifrando los códigos secretos de los alemanes y que en 1965 escribió tratados como ‘Especulaciones sobre la primera máquina ultrainteligente’ y ‘La lógica del hombre y la máquina’, aseguró: “Deje que una máquina ultrainteligente se defina como una máquina que puede superar con creces todas las actividades intelectuales de cualquier hombre, por inteligente que sea. Dado que el diseño de máquinas es una de estas actividades intelectuales, una máquina ultrainteligente podría diseñar máquinas aún mejores; indudablemente habría una ‘explosión de inteligencia’, y la inteligencia del hombre quedaría muy atrás. Así, la primera máquina ultrainteligente es el último invento que el hombre necesita hacer”.

La mayoría de los investigadores coinciden en decir que están de acuerdo en que es poco probable que una IA superinteligente muestre emociones humanas como el amor o el odio, y que no hay razón para esperar que la IA se vuelva intencionalmente benevolente o malévola. En cambio, al considerar cómo la IA podría convertirse en un riesgo, los expertos piensan dos escenarios más probables: que sea programada para hacer algo devastador o que sea programada para hacer algo beneficioso, pero desarrolle un método destructivo para lograr su objetivo.

“Entonces, frente a posibles futuros de beneficios y riesgos incalculables, los expertos seguramente están haciendo todo lo posible para garantizar el mejor resultado, ¿verdad? Incorrecto. (…) Aunque estamos enfrentando potencialmente lo mejor o lo peor que le ha pasado a la humanidad, se dedica poca investigación seria a estos temas”, advirtieron en una carta publicada en el año 2014 no cuatro ‘conspirólogos’, sino cuatro grandes científicos, empezando por Stephen Hawking, Stuart Russell (profesor de Ciencias de la Computación en Berkeley y coautor de ‘Inteligencia artificial: un enfoque moderno’), Frank Wilczek (profesor de Física en el MIT y premio Nobel 2004 por su trabajo en la fuerza nuclear fuerte).

Y otro personaje más, Max Tegmark, profesor de Física e Investigación de IA en el MIT, uno de los más importantes defensores y promotores del uso positivo de la tecnología como presidente del Future of Life Institute, y uno de los pocos investigadores sobre el buen uso de la IA. Autor de más de 250 publicaciones, así como de varios ‘best sellers’. En la carta que él también firmó decía: “Todos nosotros, no solo los científicos, industriales y generales, debemos preguntarnos qué podemos hacer ahora para mejorar las posibilidades de obtener los beneficios y evitar los riesgos”. EL TIEMPO, junto con otros periodistas, habló con Tegmark en Doha (Catar), durante el evento Wise.

¿Qué es lo que más teme que pueda pasar con la IA?

No hay límite con lo que pueda pasar si optimizamos las máquinas y estas sean capaces de superarnos. Pero imaginen por un momento la lista de sus líderes favoritos en el mundo, imaginen que tienen el control sobre la IA y la pueden impulsar en todo el planeta. ¿Cómo se sentiría sobre eso? Entonces, es mucho peor si esa persona que puede controlar el mundo con IA es un dictador y no el líder que ustedes se imaginan. Hemos aprendido con la historia las cosas horribles que pasan si la gente se rehúsa a las órdenes de ese tipo de gente, entonces imagínese si los seguidores son máquinas que son completamente obedientes…

Usted dice que debemos pensar no en qué va a pasar con la IA, sino en qué queremos que pase…

No debemos pensar en qué pasará, sino que debemos empezar preguntando qué es lo que queremos que pase. Este futuro no está escrito. Depende mucho de nosotros cómo será. Y podemos compartir una visión positiva. Sin embargo, suele pasar lo opuesto. Me gusta comparar con la manera como la gente piensa individualmente sobre su futuro. Por ejemplo, vamos al cine, vemos ciencia ficción y el futuro siempre es distópico. Si pasas tu vida personal solo haciendo la lista de todas las enfermedades que podrías tener, o todas las cosas malas que te podrían pasar, te conviertes en un paranoico hipocondriaco, no es la mejor estrategia de vida. Y yo siento que tenemos que escapar de esto como especie, deberíamos tener una visión más optimista sobre el futuro.

Difícil tener una visión optimista revisando la historia de la humanidad…

Tenemos el potencial con la IA para amplificar la inteligencia humana resolviendo todos los problemas en los que estamos estancados. Podemos pensar que el cáncer es incurable; sin embargo, es pura mentira. La verdad es que sí es curable, lo que pasa es que aún no tenemos la inteligencia suficiente para curarlo. Sería bueno que por medio de la inteligencia artificial pudiéramos resolver estos problemas que no logramos solucionar hoy: como la pobreza, los problemas del clima… Son casi que ilimitadas las oportunidades; si tenemos gente enfocada en colaborar para encontrar soluciones, las encontraremos. Sin embargo, vamos en la dirección opuesta, lo que está pasando es que está incrementando el desempleo, aumentando la inequidad, y en muchos países, los pobres se están volviendo más pobres.

Tenemos el potencial con la IA para amplificar la inteligencia humana resolviendo todos los problemas en los que estamos estancados

La tecnología avanza más rápido que las leyes… La IA ya está acá, pero aún no se legisla. ¿Hay forma de anticiparnos?

Es un problema muy grave. Toma mucho tiempo crear nueva legislación, y para cuando está ya es muy tarde porque la tecnología ya habrá evolucionado. La clave está en crear una línea moral que rechace el uso negativo de la tecnología. Por ejemplo, si las armas biológicas hoy no fueran ilegales, la gente igual tiene claro que son asquerosas. Es como si le ofrecieran trabajo a alguien en una página web de pornografía infantil. Si la gente piensa que es asqueroso y que además desestabiliza la democracia, incluso si fuera legal, en la práctica habría formas de detener su uso.

Aparte del escenario apocalíptico, preocupa el tema laboral. ¿Qué profesiones son las que van a desaparecer?

Sí, algunas carreras desaparecerán, trabajos que son repetitivos y que no involucran contacto con otros humanos. Pero lo que es mucho más importante es que en casi todos los trabajos desaparecerán algunas funciones, y eso significa que en cualquier trabajo en el que quiera estar tendrá que aprender qué está pasando con la IA. De ahí que se debe empezar a usar estas herramientas para ser más productivo.

Entonces, las máquinas reemplazarán a los humanos en casi todo…

Si la inteligencia artificial sigue progresando, va a hacer los trabajos más económicos, entonces, ¿queremos nosotros que cada vez los humanos trabajen menos y estén sentados tomando margaritas y los niveles de desempleo sean mayores y haya más hambre? Creo que tiene más sentido para los gobiernos y las empresas generar empleos en los que la gente sea feliz. Los trabajos no solo nos dan dinero, nos dan un propósito, nos dan amigos. Una sociedad más feliz es en la que tengamos humanos haciendo las cosas que disfrutan hacer.

¿Cuál es el rol de la educación en esta transformación?

La IA puede hacer de la educación algo mejor. Hay dos vertientes: IA para la educación, cómo transformarla para que sea mejor, y la segunda es cómo educar a la gente para que florezca en un mundo donde reine la IA. Cuando yo fui a la escuela, la mayoría de lo que me enseñaron era inútil, quizá era útil para el mundo de 50 años atrás. Creo que hay muchas formas de hacer la educación más útil, más individual, pero también pienso que debemos ser cuidadosos en pensar que las tecnologías son una nueva religión y asumir que se puede, por ejemplo, reemplazar a los profesores por máquinas que lo harán mejor. Necesitamos encontrar el balance, pero hay muchas oportunidades. La creatividad es fundamental.

LEAVE A REPLY

Please enter your comment!
Please enter your name here