Como buen amante de la ciencia ficción, nunca he podido desprenderme del todo del “síndrome HAL9000 al hablar de Inteligencia Artificial. El superordenador que creó Arthur C. Clarke en su novela “2001, una odisea espacial”, llevada luego al cine de forma magistral por Stanley Kubrick, es un icono en el debate de si las máquinas pueden ser inteligentes, melón abierto años antes con su “Imitation game” por el siempre recordado Alan Turing. Un debate que luego desembocó en otra polémica aún más metafísica: ¿pueden las máquinas llegar a ser sensibles o desarrollar, y aquí viene uno de esos miedos cervales que sufrimos los frikis de la CCFF, instinto de supervivencia. No sé si aún es posible destripar (“spoilear” para amantes del neologismo) una película y su novela original, ambas con casi 56 años, pero es necesario revelar un dato para los que no lo sepan o no lo recuerden: HAL9000 es el protagonista de la trama de “2001..”, porque, tras cometer un supuesto error de juicio, acaba matando a toda la tripulación de la nave. Bueno, a casi toda: uno de los astronautas logra escaparse y consigue desconectar al bicho. La pregunta de qué le pasó a HAL9000 ha escondido siempre uno de esos miedos primigenios, al estilo Lovecraft, que inspiran los entes cibernéticos en los humanos. Una de las primeras “conversaciones” que tuve con ChatGPT fue sobre HAL9000 y su error, porque ese error, si existe, es “casi” humano, “casi” demasiado humano, como decía Nietzsche. Su respuesta sigue sorprendiéndome: para la IA moderna su ancestro de ficción tiene o bien una “crisis ética” entre su objetivo de proteger la misión y tener que ocultar información a los tripulantes, o bien un conflicto “entre su programación o lo que es mejor para su misión y la humanidad”.

Así respondió ChatGPT a una pregunta clave sobre el personaje de HAL9000: el superordenador de "2001, una odisea espacial".

Así respondió ChatGPT a una pregunta clave sobre el personaje de HAL9000: el superordenador de "2001, una odisea espacial". INFORMACIÓN / INFORMACION

Todo este exordio viene a cuento por las noticias, cada vez más frecuentes, de las extrañas habilidades que los LLM (Modelos de Lenguaje Grandes) desarrollan inesperadamente durante su entrenamiento y que han causado enorme sorpresa a los científicos que trabajan con ellos. La lógica dice que estos modelos de IA, a los que se atiborra con toneladas de datos que asimilan con redes neuronales inspiradas en las del cerebro humano, desarrollen durante ese entrenamiento unas habilidades concretas. Hay que hacer la salvedad de que los propios científicos de datos aún no entienden del todo qué pasa ahí dentro, pero sí saben cuál es el resultado: la IA desarrolla las habilidades previstas. El input da un output como resultado. Pero también desarrolla otras inesperadas. Los especialistas las llaman “comportamientos emergentes” y ya hay docenas de ellos listados. Y la lista sigue creciendo. Por cierto, el término “emergente” no es casual. Los biólogos, físicos y otros científicos utilizan esta palabra “para describir comportamientos colectivos y autoorganizados que aparecen cuando una gran colección de cosas actúa como una sola”. Un artículo de la prestigiosa revista científica Quantamagazine, del que he extraído esta cita, señala que ese comportamiento es el mismo que originó la vida, cuando una serie de átomos se combinaron para crear células vivas, o el que hace que su corazón o el mío siga latiendo en este momento. “Las habilidades emergentes aparecen en sistemas que involucran muchas partes individuales. Pero los investigadores sólo recientemente han podido documentar estas habilidades en los LLM, ya que estos modelos han crecido hasta alcanzar tamaños enormes”, señala el artículo firmado por Esteban Ornes en la revista norteamericana antes mencionada (aquí una versión en español). Inicialmente esto pareció una cuestión de tamaño: cuanto más grande era el modelo, más habilidades imprevistas desarrollaba. Pero, para mayor sorpresa, esas habilidades no solo surgían en los modelos gigantescos de Google, OpenAI o META: había modelos pequeños con unos pocos millones de parámetros que desarrollaban el mismo efecto. ¿Su peculiaridad? Habían sido entrenados con pocos datos pero de mucha calidad. Si a estas alturas, alguien empezaba a estar preocupado que no lea lo siguiente. Investigadores de Google Brain ya han conseguido establecer que obligar a un LLM a razonar con una “cadena de pensamiento”, por ejemplo, incitar a la IA a que se explique a sí misma, de repente facilitaba para ese modelo resolver correctamente un problema matemático complejo que, sin ese mensaje de “autoconocimiento” o “autoconciencia”, no sabía resolver. Cada vez que se presiona a la IA, los especialistas hablan del concepto de “emergencia” creada con ese sistema de “cadena de pensamiento”, empiezan a pasar cosas raras. Si leen algún libro sobre neurociencia de vanguardia puede que se encuentren con planteamientos muy similares, pese a que hablamos de cerebros humanos, capaces también de cosas increíbles cuando se les coloca en situaciones límite.

Esa presión puede llegar también poniendo cara a cara a dos IA’s, como si una examinara a la otra: una actúa de forma creativa planteándose cómo resolver el problema, incluso antes de resolverlo de forma efectiva, mientras que otra actúa como verificador y controlador de los resultados. No es un sistema nuevo en el entrenamiento de Inteligencias Artificiales pero está dando resultados imprevistos en la disciplina que mide la mayoría de edad de esta tecnología: las matemáticas. Hace pocos días DeepMind, uno de los grandes laboratorios de IA de Google, anunció que su modelo FunSearch había resuelto el “problema del conjunto de límites”, un viejo enigma de matemáticas profundas que había ocasionado muchos enfrentamientos ante la falta de acuerdo por cómo enfocar el problema. “FunSearch”, que en principio no era un modelo para resolver problemas matemáticos, está despuntando en esta disciplina y ya ha abordado con soluciones más rápidas que las conocidas hasta ahora otro popular desafío matemático: el problema del embalaje de contenedores. Uno de los investigadores de DeepMind, Alhussein Fawzi, reconoció que no se explican de dónde vienen estas extraordinarias capacidades.

Y ahí volvemos a HAL9000 y a su “error”. La imprevisibilidad de esos comportamientos emergentes tiene una parte luminosa como vemos, pero otra que genera riesgos. Es algo que los frikis aprendieron en “Star wars”: la fuerza tiene un lado claro pero también otro oscuro. Deep Ganguli, un científico de Anthropic, la empresa de los hermanos Amodei creadora de la IA “Claude”, lo dice bien claro: “No sabemos cómo saber en qué tipo de aplicación va a surgir la capacidad de causar daño, ya sea de manera suave o impredecible”. Las alucinaciones o los errores solo son la punta del iceberg de este lado oscuro de la IA. Un ejemplo, ya que estamos: ChatGPT se equivocó cuando le pregunté, para escribir esta entrada del blog, quién había creado Anthropic y se lo atribuyó a los jefes de OpenAI, Sam Altman y Greg Brokman, en vez de a los hermanos Amodei, que sí estuvieron dentro de OpenAI, pero se marcharon, precisamente para fundar Anthropic. “Mil disculpas, cometí un error en mi respuesta anterior”, respondió ChatGPT cuando le señalé que se había equivocado de medio a medio. Lo bueno es que ya hay muchos modelos de IA. Si usted hace lo que hice yo, que ya sabía que Anthropic era de los Amodei, evitará errores: preguntar a otra IA. Perplexity, en mi opinión mucho mejor que otras IA porque sus respuestas se basan en fuentes concretas consultables que además cita, sí acertó. No hay que fiarse de una, sino preguntar a varias.

Todo esto lo ha resumido muy bien uno de los popes de la tecnología, Jeff Bezos, el fundador de Amazon. En una reciente entrevista, Bezos señaló al responder sobre su visión de la Inteligencia Artificial con conceptos que van más allá de la tecnología o la ingeniería. “Los grandes modelos de lenguaje no son inventos, son descubrimientos”, afirma. Y precisa: “Las sorpresas constantes sobre sus capacidades demuestran que nos son objetos diseñados por ingeniería, sino más bien descubrimientos”. Bezos sí es del ala de los integrados y muestra su optimismo por la IA: “Creo que es más probable que estas poderosas herramientas nos ayuden y salven antes que desequilibrarnos y destruirnos”. Amén, don Jeff…