Con punto de partida en ‘2001: una odisea del espacio’ de Kubrick, Fundación Telefónica presenta el próximo 30 de octubre (hasta el 19 de febrero de 2019) esta muestra que abre sus puertas hoy en Madrid, se vertebra en tres ejes: el despertar de la inteligencia humana, la interacción hombre-máquina y el futuro de la inteligencia.

Preguntado por la inteligencia artificial, Stanley Kubrick escribió: “Una de las cuestiones más fascinantes que surgen al imaginar ordenadores más inteligentes que los seres humanos es hasta qué punto la inteligencia automática merece la misma consideración que la inteligencia biológica. Uno podría sentirse tentado de preguntarse en qué es menos sacrosanta la inteligencia artificial que la inteligencia biológica. Y podría llegar a ser difícil optar por una conclusión halagadora a favor de la inteligencia biológica”. Han pasado 50 años de la película que le dio una nueva dimensión a la ciencia-ficción, y merece la pena preguntarse hacia dónde va la Humanidad en su expansión artificial. Cuando en 1968, Stanley Kubrick incluyó en el reparto de protagonistas de ‘2001: una odisea del espacio’ al superordenador HAL 9000 (que controlaba todos los sistemas de una nave espacial y a sus tripulantes), la visión del director fue calificada como propia de las fábulas de ciencia-ficción.

Hoy ya no lo es tanto, más cuando en Silicon Valley ya manejan sistemas parecidos y piensan en un “botón rojo” que paralice a la Inteligencia Artificial en caso de que sobrepase sus límites. En unas de sus miles de páginas mecanografiadas previas al inicio del rodaje, el director describió un ordenador con el nivel intelectual de un genio humano, que habría pasado el test de Turing y que podría detectar emoción y sufrimiento. Todavía hoy no existe. Pero nadie duda de que lo hará en breve. La exposición se basa en este 50º aniversario para repasar la evolución de la inteligencia humana y artificial. No sólo se han hecho realidad muchas de las predicciones de la película gracias a los actuales programas de computación de inteligencia artificial (IA), sino que estos sistemas ya forman parte de la rutina humana en prácticamente todos los ámbitos de la vida: desde las comunicaciones, los transportes, el urbanismo y la economía, hasta la educación, la medicina, el arte, el ocio y también la industria armamentística o el sector de la seguridad.

Más allá de 2001. Odiseas de la Inteligencia’ se vertebra en tres ejes: el despertar de la inteligencia humana, la interacción hombre-máquina y el futuro de la inteligencia. Con un especial acento en la sinergia entre arte, ciencia y tecnología, el principal propósito de este proyecto, comisariado por Claudia Giannetti, es mostrar la evolución de la inteligencia humana y artificial a partir de sus hitos históricos, sus aplicaciones actuales y las fascinantes perspectivas que sugiere el futuro por venir.

La Inteligencia Artificial, entre la esperanza y el temor

Esta exposición es una puerta abierta a ese futuro de la mente no humana, y cómo el ser humano debe enfrentarse a sus propias creaciones. Cada vez estamos más cerca de la “Singularidad”, ese momento en el que las máquinas piensen por sí mismas, instante que puede suponer el salto adelante más grande jamás visto por la Humanidad, o el inicio de un nuevo tipo de problemas entre lo biológico y lo mecánico. Andamos, como muchas otras veces, entre la esperanza y la paranoia a perder el control de nuestras creaciones. La Inteligencia Artificial (IA) es la particularidad de una máquina que se comporta como un ente racional flexible que puede percibir el entorno, deducir conclusiones y realizar a cabo acciones para maximizarse a sí misma. De una manera más coloquial, la IA “imita” a la inteligencia humana a la hora de reconocer el entorno, aprender del mismo y trazar estrategias vinculadas a ese medio y el conocimiento extraído del mismo. Es decir, que pueden resolver problemas surgidos de forma espontánea fuera de una programación básica.

Una definición algo más abstracta es la de John McCarthy, y es antigua, de los años 50: la IA será tal cuando sea capaz de “buscar un estado concreto en el conjunto de estados posibles producidos por todas las acciones posibles”, así como disponer de redes neuronales artificiales, algoritmos genéticos (aquellos que se basan en el modelo de la evolución biológica para desarrollarse y mejorar) y operar mediante una lógica formal similar al pensamiento abstracto humano. La IA es como el símbolo del dios Jano, el de las dos caras: una es la esperanza de que las máquinas pensantes puedan ayudar a la Humanidad a mejorar, a ocuparse de las tareas mundanas y pesadas para que los humanos puedan crear, pensar y avanzar. La otra, en cambio, podemos resumirla perfectamente en Skynet, ese ordenador-dios que profetizó la saga ‘Terminator’ y que ha desvelado a los escritores, guionistas, científicos, ingenieros y agoreros de todo el mundo desde hace décadas, cuando se llegó a la conclusión de que algún día los robots podrían ser tan inteligentes como los humanos. Cuando el ordenador Deep Blue le ganó una partida de ajedrez a Gary Kasparov muchos se llevaron las manos a la cabeza. Allí estaba, finalmente, la gran amenaza.

Los humanos viven con aprehensión ese instante, llamado “singularidad”, en el que un ordenador tome conciencia de sí mismo y empiece a pensar libremente. Pero también podría ser una solución logística y práctica casi perfecta para la Humanidad, que se vería libre para evolucionar hacia un estado superior de conciencia, de conocimiento e incluso plantearse colonizar el espacio sin problemas. La realidad, sin embargo, es muy probable que esté entre ambos extremos, en algún punto difuso gris del medio. Porque es un desarrollo imparable: Google, el MIT, el Ejército de EEUU, las grandes firmas de robótica industrial y desarrollo europeas, japonesas y chinas, han apostado por las IA como una solución útil para el futuro. Producirán más con menos, liberarán al ser humano, permitirán realizar esfuerzos mucho mayores y, sobre todo, podrían servir para completar al ser humano y convertirlo en un binomio biomecánico insuperable, tal y como soñaron los creadores de ciencia-ficción.

Deep Mind, la sección de desarrollo de las IA de Google, y la Universidad de Oxford, sin embargo, ya trabajan “en negativo”: desarrollan un “botón del pánico” que paralice las IA sin remisión en caso de que se “suelten” del control humano (ver Despiece de este reportaje). Es un buen ejemplo de cómo se trabaja siempre con miedo: la ciencia y la tecnología son perfectamente conscientes de que eso puede suceder, de que una rebelión parcial de una IA, aunque sea de forma no deliberada y limitada, es una realidad potencial. Se desarrollan tipos “seguros” de IA que no puedan cometer errores o salirse de su marco de comportamiento programado. Este botón estaría, sin embargo, ligado a un tipo de IA, basada en el “aprendizaje reforzado”, basada en la maximización de las funciones matemáticas sin “entender” los conceptos en los que trabaje. Traducción: una IA que sabe cómo hacer “algo” sin saber que es ese “algo” o la razón por la que lo hace.

Esta problemática no sería equivalente en las IA basadas en la “inteligencia simbólica”, que manejaran y comprendieran conceptos que pudieran ser hilvanados para realizar acciones. Esas IA podrían saber qué es ser como un humano, incluso podrían, dicho de otra forma, desarrollar un comportamiento similar que las asociara con más fuerza a la Humanidad. Pero que exista ya, en una etapa tan prematura, una firme intención de crear ese “botón rojo”, dice mucho de hasta qué punto la sociedad se angustia. A fin de cuentas el ser humano se comporta como cualquier otra forma de vida: busca siempre la supervivencia a toda costa, y reacciona con hostilidad e incluso violencia contra una amenaza, aunque la haya creado ella misma. Son sistemas creados para asegurar a la Humanidad que no pierde el control de la creación, evitar que nos ocurra lo mismo que al Doctor Frankenstein, que no pudo finalmente controlar a la criatura.

Nick Bostrom, que forma parte del Instituto para el Futuro Humano de la Universidad de Oxford, lo dejó muy claro en el ensayo ‘Superinteligencia: caminos, peligros, estrategias’: una máquina podría superar a su programador, liberarse de su control e intentar dominar el escenario, comportándose como una forma de vida de tipo biológico sin serlo. Si los intereses de esa IA son diferentes a los de la Humanidad, bien podría “hacer sus propios planes”. Los propios integrantes de Deep Mind, en sus trabajos de desarrollo, han comprobado que las IA que manejan pueden llegar a tener instinto de competición, casi rayando el homicidio. Pusieron dos de sus redes “neuronales” artificiales a competir, y descubrieron que cuando se quedaban sin opciones y no había más remedio que luchar por los recursos optaban por soluciones extremas. Es decir: instinto asesino. Un comportamiento derivado de la lógica básica que ya advirtió Stephen Hawking, que en la fase final de su vida avisó que las IA podrían significar el fin de la Humanidad.

Por su parte, Deep Mind está, por así decirlo, “jugando”: crean situaciones extremas con el fin de testar las posibilidades, luego actuar en consecuencia. Si algún lector es muy paranoico (no se lo reprochamos, porque la ciencia-ficción lleva décadas educándonos en la desconfianza a las IA), que sepa que los mismos que desarrollan las IA crean sistemas y situaciones para frenarlas. Literalmente los humanos aprenden en paralelo a las máquinas, corrigen los fallos que en muchos casos salen de ellos mismos. Ensayo y error, así es como se avanza realmente. Porque, visto desde la perspectiva más materialista posible, una máquina sublevada no es rentable para la empresa o institución que la use, por lo que será necesario crear sistemas de control paralelos. Aprender a tenerlos, y evitar así que caigamos todos en ese miedo ya visceral de “Skynet”. Por lo menos los humanos ya estamos advertidos, así que algo sí que hemos hecho bien.

Jerry Kaplan, uno de los gurús de Silicon Valley y de los desarrollos tecnológicos de los últimos años, capaz de anticipar los iPad mucho antes de que nacieran (de hecho Nokia y su prototipo fallido y Apple se basaron en sus ideas), asegura que la IA será un factor determinante del “salto adelante” de la Humanidad a lo largo de este siglo. Tal y como dijo en una entrevista a El País el año pasado, la automatización es un proceso que viene de lejos (desde la posguerra del siglo XX) y que no va a detenerse por mucho miedo que tenga la sociedad. Es decir, que la reacción actual es la misma que hubo en el siglo XIX y luego en el XX con la industria. Pero defiende que las IA permitirán hacer un uso más eficaz y eficiente de los recursos; no obstante avisa de que viviremos en sociedades automatizadas donde el empleo será “intelectual”, es decir, que los humanos trabajarán pensando y estableciendo servicios entre otros. La producción será mecánica, a todos los niveles. Kaplan entiende que los coches sin conductor son un principio, pero irregular. Según él, habrá que esperar aún otros 20 años antes de que se generalice de manera fiable. Una frase de Kaplan lo resume: “Mis nietos no van a tener que aprender a conducir. Si lo hacen será por diversión, para competir en carreras entre humanos”.