La guerra del dinero por la inteligencia artificial

La IA provoca una revolución silenciosa.

La IA provoca una revolución silenciosa. / Generador de imágenes de la IA de BING

Antonio Balibrea

Antonio Balibrea

Por un lado, están los “doomers”, y por otro, enfrentados a ellos, los “boomers”. Dicho así a mí y supongo que a usted se nos queda la boca abierta, sin embargo, el bando que acabe siendo más influyente fomentará o bloqueará regulaciones más estrictas de la Inteligencia Artificial (IA), lo que a su vez determinará quiénes serán los mayores beneficiados de la IA, del negocio del siglo. En una comparecencia realizada en mayo ante el Congreso estadounidense, Sam Altman, cofundador y director ejecutiva de OpenAI, expresó temores de que el sector pudiera "causar un daño significativo al mundo" e instó a los responsables políticos a promulgar normas específicas para la IA. Ese mismo mes, un grupo de 350 científicos y ejecutivos de empresas del sector firmaron una declaración en la que advertían de un "riesgo de extinción" planteado por la IA equiparable a la guerra nuclear y a las pandemias.

Los “doomers” son catastrofistas convencidos de que la IA sin control supone un riesgo existencial para la humanidad y, por lo tanto, abogan por una regulación más estricta. Frente a ellos están los “boomers”, que quitan importancia a los temores de un apocalipsis provocado por la IA y subrayan su potencial para acelerar el progreso. Detrás de unos y otros están las grandes empresas y fortunas mundiales del sector tecnológico (OpenAI- con 40 mil millones de $ de Microsoft, el 49’5%-, Anthropic- financiada por Amazon-, Llama - de Meta-, Google, Nvidia, Salesforce, entre otras) que invierten abundantemente en el desarrollo de IA. Apoyando a la IA abierta, libre, hay ya multitud de empresas, startups (Huggen Face, Mistral, Lensa. Dall-3, etc.) que desarrollan productos comerciales y aplicaciones: desde textos, a la imitación de voz, o imágenes difíciles de distinguir de los originales.

OpenAI se creó en 2015 como una empresa sin ánimo de lucro, luego creó una filial con ánimo de lucro en 2018 para financiar los costes crecientes, Este mismo año, en marzo, Sam Altman presentó el Chat GPT4 de OpenAI que disparó las aplicaciones comerciales y todas las alarmas técnicas, dos millares de investigadores -encabezados por Elon Musk-, académicos y empresarios advertían en una carta abierta publicada por el New York Times que “las herramientas de la Inteligencia Artificial (IA) presentan profundos riesgos para la sociedad y la humanidad” (BALIBREA, Antonio.”La inteligencia del dinero” INFORMACIÓN.15-IV-2023). Sam Altman fue despedido el pasado día 17, el día 20 ya había sido contratado por Microsoft, y más de 700 de los 730 empleados de OpenAI firmaron una carta amenazando con renunciar, a menos que volvieran a nombrar a Altman y que dimita la Junta directiva en pleno. Es lo que ha terminado por suceder. Es la punta del iceberg, de la guerra de fondo por el negocio del siglo.

El presidente Joe Biden instó en julio a siete de los principales fabricantes de modelos a asumir "compromisos voluntarios" para que sus productos de IA fueran inspeccionados por expertos antes de comercializarlos. El 30 de octubre los dirigentes del G-7 alcanzaron un acuerdo sobre los “principios rectores” internacionales de la IA y un “código de conducta” voluntario. Mientras, la Unión Europea está preparando normas jurídicamente vinculantes en la Ley de Inteligencia Artificial de la UE, que podría estar a finales de año. A ello hay que unir los debates en la OCDE, la Asociación Mundial sobre inteligencia artificial y el Consejo UE-Estados Unidos de Comercio y Tecnología. El presidente Biden firmó, ese mismo día 30, una orden ejecutiva destinada a mitigar los riesgos asociados con la IA y, al mismo tiempo, fomentar la innovación, La orden exige que las empresas que construyen los sistemas de IA más avanzados realicen pruebas de seguridad y notifiquen al gobierno los resultados antes de lanzar sus productos, obliga a esta compañías a notificar al gobierno y compartir los resultados, principalmente por el temor a los modelos de doble uso, fines militares o civiles, se basa en una ley de defensa de 1950; por otra parte ha encargado a varias agencias estatales que estudian como la tecnología podría alterar sectores como la educación, los servicios de salud y la defensa; pero los intentos de aprobaron una legislación integral en el Congreso aún están en mantillas, a pesar de las declaraciones de Altman. La única respuesta con fuerza sería la del Congreso.

Son velocidades supersónicas, increíbles en política. Todo en éste mismo año. Son la esperanza de un control democrático de la inteligencia artificial.