Debate polémico

Las empresas que impulsan la inteligencia artificial equiparan su "riesgo de extinción" a la guerra nuclear

Investigadores y directores ejecutivos señalan que el control de esta emergente tecnología debería priorizarse

El director ejecutivo de OpenAI, Sam Altman.

El director ejecutivo de OpenAI, Sam Altman. / EFE

Carles Planas Bou

Académicos y directivos de las grandes empresas que están liderando el despliegue de la inteligencia artificial (IA) han advertido de la amenaza existencial que, en su opinión, supone para la humanidad. En una declaración de tan solo 22 palabras, investigadores y directores ejecutivos han señalado que el control de esta emergente tecnología debería priorizarse, equiparando su importancia con la de las pandemias o a la guerra nuclear.

"Mitigar el riesgo de extinción de la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear", reza la carta abierta, que repite la hipotética y criticada idea de que, como en 'Terminator', la máquina cobre conciencia y nos mate a todos. La publicación no contempla el cambio climático como una prioridad ni sugiere acciones para minimizar esa presunta amenaza.

Entre las más de 200 personalidades que han firmado esa declaración destacan líderes empresariales como Sam Altman, director ejecutivo de OpenAI, creadora de ChatGPT y parcialmente en manos de Microsoft Demis Hassabis, director ejecutivo de Google DeepMind. También figuran académicos como los profesores de ciencias computacionales Yoshua Bengio y Geoffrey Hinton, quien hace menos de un mes dimitió como vicepresidente de ingeniería de Google. Ambos fueron reconocidos con el Premio Turing, el Premio Nobel de las las ciencias computacionales, por su trabajo en aprendizaje profundo ('deep learning'), la tecnología detrás de la IA.

Debate polémico

La carta busca "abrir la discusión" sobre los "riesgos más severos" de una tecnología aún en desarrollo, un debate complejo que ya ha acarreado varias polémicas. Varios de esos firmantes publicaron otra misiva a finales de marzo en la que pedían suspender durante seis meses el entrenamiento de los sistemas de IA más avanzados. Sin embargo, expertos críticos en el campo denunciaron que esos supuestos riesgos futuros de la IA aún son ciencia-ficción y que hablar de ellos sirve para ocultar el impacto real que esta tecnología ya está teniendo tanto en materia laboral como en su potencial para la desinformación o su consumo de agua y electricidad.

Otros expertos son también escépticos con esta última advertencia. "Hay que tener muy claro que la IA no tiene entidad ontológica para acabar con la humanidad, otra cosa es que alguien la programase para ello, pero ahí el problema sería de la persona, no de la tecnología", explica a EL PERIÓDICO Ulises Cortés, coordinador científico de la IA de alto rendimiento en el Barcelona Supercomputing Center. "La mayoría de los firmantes se han hecho ricos con herramientas de IA, vendiendo el 'hype' y aprovechándose de los datos de otras personas", añade.

Para este y otros investigadores, la equiparación de la IA con las armas nucleares es tramposa. "La pandemia y la guerra nuclear son dos peligros que se basan en evidencias teóricas y empíricas, mientras que el riesgo de una extinción de la humanidad es borroso, completamente incierto y basado en superinteligencias hipotéticas de las que no hay evidencias", remarca Ariel Guersenzvaig, profesor de ELISAVA experto en ética del diseño y la tecnología. "No hemos pedido mitigar la física porque haya permitido la creación de la bomba atómica", añade Cortés.

Maniobra de distracción

Aunque la mayoría de firmantes son estadounidenses, al otro lado del Atlántico también hay muchas voces críticas con este tipo de declaraciones apocalípticas. "Cuando los bros de la IA griten "¡Mira un monstruo!" para distraer a todo el mundo de sus prácticas (robo de datos, derroche de energía, escalada de sesgos, contaminación del ecosistema de la información), deberíamos hacer como Scooby-Doo y quitarles la máscara", ha tuiteado Emily Bender, profesora de lingüística computacional de la Universidad de Washington.

Durante las dos últimas semanas, Altman ha comparecido ante el Senado de Estados Unidos y ha realizado una gira por Europa en la que ha pedido a las autoridades –entre ellos, el presidente español Pedro Sánchez y su homólogo francés Emmanuel Macron– crear un organismo que supervise la seguridad de los proyectos de IA. Como también han señalado otros, Guersenzvaig ve en esas peticiones del creador de ChatGPT una "estrategia de trilero" para influenciar y suavizar una futura regulación de las herramientas que están desplegando. "Nos están haciendo hablar de la tecnología y no de quién la está usando y para qué fin", añade. Ante la hipotética extinción de la raza humana, todos los otros peligros parecerán diminutos.