Cada vez estamos más cerca de la “Singularidad”, ese momento en el que las máquinas piensen por sí mismas, instante que puede suponer el salto adelante más grande jamás visto por la Humanidad, o el inicio de un nuevo tipo de problemas entre lo biológico y lo mecánico. Andamos, como muchas otras veces, entre la esperanza y la paranoia a perder el control de nuestras creaciones.

FIRMA: Marcos Gil

Antes que nada, una definición. La Inteligencia Artificial (IA) es la particularidad de una máquina que se comporta como un ente racional flexible que puede percibir el entorno, deducir conclusiones y realizar a cabo acciones para maximizarse a sí misma. De una manera más coloquial, la IA “imita” a la inteligencia humana a la hora de reconocer el entorno, aprender del mismo y trazar estrategias vinculadas a ese medio y el conocimiento extraído del mismo. Es decir, que pueden resolver problemas surgidos de forma espontánea fuera de una programación básica. Una definición algo más abstracta es la de John McCarthy, y es antigua, de los años 50: la IA será tal cuando sea capaz de “buscar un estado concreto en el conjunto de estados posibles producidos por todas las acciones posibles”, así como disponer de redes neuronales artificiales, algoritmos genéticos (aquellos que se basan en el modelo de la evolución biológica para desarrollarse y mejorar) y operar mediante una lógica formal similar al pensamiento abstracto humano. Esto para empezar.

La IA es como el símbolo del dios Jano, el de las dos caras: una es la esperanza de que las máquinas pensantes puedan ayudar a la Humanidad a mejorar, a ocuparse de las tareas mundanas y pesadas para que los humanos puedan crear, pensar y avanzar. La otra, en cambio, podemos resumirla perfectamente en Skynet, ese ordenador-dios que profetizó la saga ‘Terminator’ y que ha desvelado a los escritores, guionistas, científicos, ingenieros y agoreros de todo el mundo desde hace décadas, cuando se llegó a la conclusión de que algún día los robots podrían ser tan inteligentes como los humanos. Cuando el ordenador Deep Blue le ganó una partida de ajedrez a Gary Kasparov muchos se llevaron las manos a la cabeza. Allí estaba, finalmente, la gran amenaza.

Los humanos viven con aprehensión ese instante, llamado “singularidad”, en el que un ordenador tome conciencia de sí mismo y empiece a pensar libremente. Pero también podría ser una solución logística y práctica casi perfecta para la Humanidad, que se vería libre para evolucionar hacia un estado superior de conciencia, de conocimiento e incluso plantearse colonizar el espacio sin problemas. La realidad, sin embargo, es muy probable que esté entre ambos extremos, en algún punto difuso gris del medio. Porque es un desarrollo imparable: Google, el MIT, el Ejército de EEUU, las grandes firmas de robótica industrial y desarrollo europeas, japonesas y chinas, han apostado por las IA como una solución útil para el futuro. Producirán más con menos, liberarán al ser humano, permitirán realizar esfuerzos mucho mayores y, sobre todo, podrían servir para completar al ser humano y convertirlo en un binomio biomecánico insuperable, tal y como soñaron los creadores de ciencia-ficción.

Recurso 3

Deep Mind, la sección de desarrollo de las IA de Google, y la Universidad de Oxford, sin embargo, ya trabajan “en negativo”: desarrollan un “botón del pánico” que paralice las IA sin remisión en caso de que se “suelten” del control humano (ver Despiece de este reportaje). Es un buen ejemplo de cómo se trabaja siempre con miedo: la ciencia y la tecnología son perfectamente conscientes de que eso puede suceder, de que una rebelión parcial de una IA, aunque sea de forma no deliberada y limitada, es una realidad potencial. Se desarrollan tipos “seguros” de IA que no puedan cometer errores o salirse de su marco de comportamiento programado. Este botón estaría, sin embargo, ligado a un tipo de IA, basada en el “aprendizaje reforzado”, basada en la maximización de las funciones matemáticas sin “entender” los conceptos en los que trabaje. Traducción: una IA que sabe cómo hacer “algo” sin saber que es ese “algo” o la razón por la que lo hace.

Esta problemática no sería equivalente en las IA basadas en la “inteligencia simbólica”, que manejaran y comprendieran conceptos que pudieran ser hilvanados para realizar acciones. Esas IA podrían saber qué es ser como un humano, incluso podrían, dicho de otra forma, desarrollar un comportamiento similar que las asociara con más fuerza a la Humanidad. Pero que exista ya, en una etapa tan prematura, una firme intención de crear ese “botón rojo”, dice mucho de hasta qué punto la sociedad se angustia. A fin de cuentas el ser humano se comporta como cualquier otra forma de vida: busca siempre la supervivencia a toda costa, y reacciona con hostilidad e incluso violencia contra una amenaza, aunque la haya creado ella misma. Son sistemas creados para asegurar a la Humanidad que no pierde el control de la creación, evitar que nos ocurra lo mismo que al Doctor Frankenstein, que no pudo finalmente controlar a la criatura.

Nick Bostrom, que forma parte del Instituto para el Futuro Humano de la Universidad de Oxford, lo dejó muy claro en el ensayo ‘Superinteligencia: caminos, peligros, estrategias’: una máquina podría superar a su programador, liberarse de su control e intentar dominar el escenario, comportándose como una forma de vida de tipo biológico sin serlo. Si los intereses de esa IA son diferentes a los de la Humanidad, bien podría “hacer sus propios planes”. Los propios integrantes de Deep Mind, en sus trabajos de desarrollo, han comprobado que las IA que manejan pueden llegar a tener instinto de competición, casi rayando el homicidio. Pusieron dos de sus redes “neuronales” artificiales a competir, y descubrieron que cuando se quedaban sin opciones y no había más remedio que luchar por los recursos optaban por soluciones extremas. Es decir: instinto asesino. Un comportamiento derivado de la lógica básica que ya advirtió Stephen Hawking, que no ha parado de avisar de que las IA podrían significar el fin de la Humanidad. Curioso para alguien que depende de una máquina para comunicarse.

Sin título-3

Jerry Kaplan, Larry G. Page e Isaac Asimov

Por su parte, Deep Mind está, por así decirlo, “jugando”: crean situaciones extremas con el fin de testar las posibilidades, luego actuar en consecuencia. Si algún lector es muy paranoico (no se lo reprochamos, porque la ciencia-ficción lleva décadas educándonos en la desconfianza a las IA), que sepa que los mismos que desarrollan las IA crean sistemas y situaciones para frenarlas. Literalmente los humanos aprenden en paralelo a las máquinas, corrigen los fallos que en muchos casos salen de ellos mismos. Ensayo y error, así es como se avanza realmente. Porque, visto desde la perspectiva más materialista posible, una máquina sublevada no es rentable para la empresa o institución que la use, por lo que será necesario crear sistemas de control paralelos. Aprender a tenerlos, y evitar así que caigamos todos en ese miedo ya visceral de “Skynet”. Por lo menos los humanos ya estamos advertidos, así que algo sí que hemos hecho bien.

Jerry Kaplan, uno de los gurús de Silicon Valley y de los desarrollos tecnológicos de los últimos años, capaz de anticipar los iPad mucho antes de que nacieran (de hecho Nokia y su prototipo fallido y Apple se basaron en sus ideas), asegura que la IA será un factor determinante del “salto adelante” de la Humanidad a lo largo de este siglo. Tal y como dijo en una entrevista a El País el año pasado, la automatización es un proceso que viene de lejos (desde la posguerra del siglo XX) y que no va a detenerse por mucho miedo que tenga la sociedad. Es decir, que la reacción actual es la misma que hubo en el siglo XIX y luego en el XX con la industria. Pero defiende que las IA permitirán hacer un uso más eficaz y eficiente de los recursos; no obstante avisa de que viviremos en sociedades automatizadas donde el empleo será “intelectual”, es decir, que los humanos trabajarán pensando y estableciendo servicios entre otros. La producción será mecánica, a todos los niveles. Kaplan entiende que los coches sin conductor son un principio, pero irregular. Según él, habrá que esperar aún otros 20 años antes de que se generalice de manera fiable. Una frase de Kaplan lo resume: “Mis nietos no van a tener que aprender a conducir. Si lo hacen será por diversión, para competir en carreras entre humanos”.

Recurso 2

La imparable automatización del trabajo: el primer aviso de la IA de que cambiará toda nuestra civilización

Ahora bien, todo esto se basa en la llamada “Singularidad Tecnológica”, defendida por autores como Ray Kurzwell, el momento en el que las máquinas tomen conciencia autónoma de sí mismas para poder asumir tareas, responsabilidades y funciones que hoy están en poder de los humanos. No hay fechas, pero los más optimistas hablan de entre 2045 y 2050. De nuevo la realidad estará, probablemente, en un punto más distante. Esto, de nuevo, derivaría en dos opciones muy simplistas: o el ser humano se convierte en un pequeño dios más inteligente y poderoso que nunca, o bien desaparece bajo el peso de la tecnología pensante. Todo se podría organizar a través de la convergencia humano-máquina, como por ejemplo usando la nanotecnología en nuestros cuerpos para mejorarlos, o bien el transhumanismo, un movimiento aún en pañales que propugna que el siguiente salto evolutivo humano no será biológico, sino biomecánico, una vía para que la tecnología pueda potenciar nuestra inteligencia, otorgarnos vidas más largas y ser felices. Aunque quizás sea pensar mucho. Una perspectiva podría ser la “humanización” de la máquina, como en las películas ‘Chappie’ o ‘Ex machina’.

La cuestión es que después de la Singularidad la vida no volverá a ser igual. A no ser, claro, que no sea tan sencillo. Por ejemplo, Paul Allen, cofundador de Microsoft, apuntó un detalle del que poca gente habla: en realidad no podemos crear IA plausible en poco tiempo porque ni siquiera sabemos cómo funciona realmente nuestro cerebro. Lo hizo en un artículo titulado ‘La singularidad no está cerca’. En eso tiene razón: la neurología no ha llegado tan lejos como creemos. Allen define esa barrera como el “freno de la complejidad”, ya que no podemos crear de la nada algo que ni siquiera comprendemos realmente. Sería como encargar a un ingeniero de 1830 que construyera un Ferrari. Incluso el padre de todo el positivismo computacional, Gordon E. Moore (creador de la Ley de Moore que establece la duplicidad de potencial informático cada dos años), aseguró que su norma dejaría de ser efectiva una vez se cubriera el diferencial de desarrollo. Esto significaría que a mediados del presente siglo la tecnología se frenaría porque no podría dar el salto siguiente tan rápido.

Y por supuesto el gran reto socioeconómico: la Singularidad Tecnológica, por su necesidad de gran inversión y coste, podría bien ser la nueva arma de elitismo; sólo las clases altas podrían financiar sus beneficios y dividir a la Humanidad entre los que tengan acceso a esa tecnología y los que no. Personalmente sospecho que esto sí que se acerca más a lo que podría suceder. Así las IA se convertirían en el arma social de las élites para seguir siéndolo, en un ciclo de beneficio personal cerrado al resto de los ciudadanos. Habría dos Humanidades, una de alta velocidad y tecnología, y otra de pobres con avances más atrasados. No hay utopía o distopía que aguante la prueba de fuego final, la propia naturaleza humana, siempre tan esquiva a la sensatez y la generosidad. Entonces no importará si hay IA o no, simplemente será otra trinchera social más que sumar al resto.

El botón del pánico para frenar a la IA

Año 2080, las máquinas más punteras han logrado equiparar la capacidad intelectual humana, no al pie de la letra, pero sí en cuanto a potencial. Son capaces incluso de relacionar elementos para crear expresión no lógicas, es decir, arte. Algunas de ellas, incluso empiezan a ser capaces de prever acciones ajenas, de tal forma que toman conciencia de sí mismas y consideran que los humanos son un agente externo. En ese instante, al primer indicio de conciencia divergente, lo que podría a nuestra especie en peligro, los humanos deciden apretar el “botón rojo”. Deep Mind, en alianza con la Universidad de Oxford a través del Instituto para el Futuro de la Humanidad (FHI) trabajan para que la secuencia anterior sea tan real como hoy desenchufar una máquina. Es la hipótesis de trabajo de ambos centros, que calculan que entre 2075 y 2090 habrá ya máquinas potencialmente tan inteligentes como los humanos, pero eso no quiere decir que sean mejores, o iguales, sólo que contarán con el proceso lógico equivalente, y que por lo tanto podrían rebelarse.

La idea es crear un “botón rojo” de parado general que no pueda ser obviado por esas máquinas, para evitar que realicen acciones dañinas contra los humanos, ellas mismas o el entorno. La programación estaría diseñada de tal forma que ni siquiera pudieran interferir en su desarrollo, algo así como un pulso electromagnético en forma de orden general que la máquina tuviera que cumplir sí o sí. La razón es que deducen que una inteligencia artificial en fase de aprendizaje cometerá errores, o bien tomará decisiones al margen de lo esperado, de tal manera que se hace necesario pararlas de alguna forma. Al existir ese “botón del pánico” los humanos aceptarán que la IA exista como tal en sus vidas, ya que, al final, siempre tendrán la posibilidad de frenarlos en seco. Para que no suceda lo mismo que con Hal2000 en ‘2001, Odisea del Espacio’ o en ‘Yo, robot’. Aunque no deja de ser ciencia-ficción.

Imagen de 'Ex machina'

Asimov y las Leyes de la Robótica

En 1942, en el relato ‘Runaround’, el escritor de ciencia-ficción y divulgador Isaac Asimov postuló las Tres Leyes de la Robótica, pensando en la Inteligencia Artificial y como modo seguro de evitar el “complejo de Frankenstein”, es decir, la posibilidad de que las máquinas pudieran superar o alzarse contra el creador humano. El propio Asimov las atribuyó a John W. Campbell, que las habría expuesto dos años antes en una conferencia. Curiosamente el propio Campbell asegura que Asimov ya las tenía en mente y le usó a él de socio. En todo el universo literario de Asimov las máquinas y robots están obligadas a cumplir con esas tres leyes, insertadas en la programación más profunda de todas ellas. Estarían insertadas en forma de órdenes cruzadas que crearían un marco de comportamiento profundo más allá incluso del propio raciocinio de la máquina. Esas tres leyes son:

  1. Una máquina no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño.
  2. Una máquina debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley.
  3. Una máquina debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Tiempo más tarde, en la saga ‘Fundación e Imperio’, el propio Asimov desarrolló la Ley Cero, una suerte de apoyo filosófico para las tres originales, que se puede enunciar como que “Un robot (o máquina) no hará daño a la Humanidad o, por inacción, permitirá que la Humanidad sufra daño”. Asimov entendía que en realidad una máquina no razonaría, sino que se comportaría en función de un pensamiento lógico desprovisto de empatía o de referencias cruzadas capaces de generar arte, por ejemplo. Estas tres leyes, lejos de ser una simple acción literaria cultural, se han convertido en parte de los estudios de robótica y de IA, y están muy presentes en los postulados de los encargados de desarrollarla. Aunque sólo sea como referencia filosófica es un lugar común en todo debate sobre la IA.

Imagen de 'Yo robot' 2

Imagen de ‘Yo, Robot’, donde se ponían en contexto las leyes de la robótica de Asimov

Imagen de 'Chappie'

Imagen de ‘Chappie’, película que jugaba con la idea de una IA que se humaniza hasta ser uno más