Un programador que responde al alias “jbetker” y que trabaja en OpenAI escribió en junio una interesante entrada en su blog que ha desencadenado un ardiente debate en X, la plataforma de Elon Musk al que algún día, por cierto, habrá que plantearse dejar de llamar “el antiguo Twitter”. La onda expansiva ha tardado unos meses, cinco en concreto, en alcanzar a los fanáticos de la Inteligencia Artificial, pero una idea potente siempre acaba cayendo por su propio peso: el tuitero que la publicó en la ex red del pajarito ha logrado en cinco días varios millones de respuestas. Lo que dijo jbetker originalmente fue que todos los LLM (Modelos de Lenguaje Grandes) con los que estamos interactuando en la actualidad, y que nos han permitido descubrir las maravillas de la IA Generativa, llegan el mismo punto final sea cual sea su estrategia de entrenamiento, que pasa a ser un factor secundario. Esos modelos hacen magia con los datos, hasta el punto de que sus mismos creadores flipan con las habilidades que alcanzan, desbordando incluso sus expectativas, pero no hay nada más allá de esos datos iniciales. La IA no piensa tal y como concebimos los humanos ese pensamiento, son loros estocásticos sometidos al azar: una “amarga lección” según el tuitero que colgó el comentario de jbetker. Otro parroquiano de X mostraba también su desilusión por el hecho de que al otro lado aún no haya “nadie”: “Entonces esto establece que un modelo generativo en sí nunca irá más allá de los datos con los que está entrenado. Por lo tanto, nunca pasaremos a un estado de razonamiento”.  

El comentario de jbetker, que trabaja concretamente en el desarrollo de DALL-E, el generador de imágenes de OpenAI, tiene aún más recorrido si lo vemos desde la óptica de los creadores de ese contenido nutricio y seminal que ha alimentado estos modelos. Es una consecuencia colateral que puede ser expresada cambiando un poco aquella vieja canción de Vainica Doble: todo está en los datos. O revisando a Groucho Marx, quien, una vez más, tenía razón: partiendo de la nada solo podrás alcanzar las más altas cotas de la misera. Sin datos, sin corpus de datos, como se conoce técnicamente, sin trillones de datos que son la versión larga del conocimiento humano, la IA no sería nada. Por eso resulta muy sorprendente que el “nuevo petróleo” de la cuarta revolución industrial, como han llamado muchos a esos datos, haya permitido poner en marcha el motor de la Inteligencia Artificial sin que sus propietarios hayan cedido ni un euro a los sacrificados donantes del combustible.  

Por tanto podemos respirar hondo. La llamada IAG (Inteligencia Artificial General), que con tanto ahínco persigue Sam Altman con su enigmático proyecto Q Star, también llamado Q*, y que sus detractores temen como al “Día del juicio final” de Terminator, está aún lejos.  Pero el tema no es menor: la posibilidad de que la IA llegue a ser en algún momento más inteligente que los humanos en las tareas de valor, especialmente en las matemáticas, es lo que estuvo detrás del intento de “golpe de estado” que una parte del consejo de OpenAI dio para “deponer” a Altman. La cosa tiene tanta miga que ya hay quien fantasea con una próxima serie en Netflix.

Dos pruebas, una gamificada con millones de personas y otra de laboratorio, han comprobado con el test de Alan Turing lo que tal vez estamos olvidando: los humanos somos todavía más inteligentes

Que los humanos aún somos más listos de lo que pensamos lo ha demostrado un interesante proyecto de gamificación realizado a partir del Test de Turing en el que han participado millones de voluntarios y que ha demostrado que los humanos no somos tan torpes y “pillamos” a una IA haciéndose pasar por humano seis de cada diez veces. Pero ojo, no hay que dormirse porque los cibernéticos están al acecho: no se pierdan la poderosa lógica interna y la inherente chulería de ChatGPT, cuando fue interrogado por la conocida web de tecnología “Microsiervos” sobre el resultado de este experimento: “Hay margen de mejora”. Un trabajo de la Universidad de Cornell establece lo mismo que ese test gamificado: solo un 41% de los modelos de IA analizados supera el famoso test de Alan Turing, santo patrón de la IA y descifrador de Enigma, mientras que los humanos estamos a 25 puntos, con un 63. Volvamos a respirar hondo. 

La IA puede ser solo datos a porrillo mezclados en una coctelera mágica, sí, pero su brillantez oculta nuestro complejo de inferioridad: los humanos no valoramos adecuadamente nuestras destrezas y de dónde vienen. En otra entrada de su blog, el aludido jbetker se muestra muy enfadado con la gente que compara la inteligencia de un niño de tres años como superior a la de un modelo de IA. Para disculpar a la IA, a la que presenta como la “parte débil” en esa comparación, el programador dice que eso es así solo por una razón: el niño tiene muchos más datos que la máquina. Para demostrarlo se pone a traducir a términos informáticos el volumen de información que ha recibido un humano en tres años de vida y resulta que ha procesado más información que una IA como Llama 65b, creada por Meta (65.000 millones de parámetros). La supera, además, por mucho. Extrapolemos esa información a una persona de 20, 30 ó 40 años. Los billones de parámetros de algunos modelos ya no son tan impresionantes. Deberíamos ser más conscientes de que es esa nueva inteligencia que tanto nos preocupa la que aún no ha llegado a nuestro nivel y no al revés. Pero, ¿por cuánto tiempo?