La que ha sido presentada a bombo y platillo como “primera ley sobre Inteligencia Artificial del mundo” rezuma miedo y desconfianza hacia esta tecnología, que pretende embridar con mano de hierro en Europa. El tiempo dirá si con razón o sin ella, pero es innegable que la normativa sobre la que se llegó a un acuerdo el pasado viernes en el Parlamento Europeo pone muchos parches antes de que se verifiquen las supuestas heridas. La “AI Act”, como se la ha bautizado en inglés, seguramente por la indisimulada intención de las autoridades europeas de buscar un nombre marketiniano que ayude a convertir la norma de referencia mundial, pone la mitad de su peso en “prevenir riesgos”, bastante menos que en promover en territorio de la Unión una revolución que, nos pongamos como nos pongamos, va a transformar nuestro mundo. Si tenemos en cuenta que Europa no es, a día de hoy, uno de los actores estelares en esto de la Inteligencia Artificial en el mundo, cuesta entender que facilitar un desarrollo que ayude a recuperar posiciones en la jerarquía internacional de esta alta tecnología no haya sido uno de los objetivos principales del nuevo marco regulatorio.

Al leer sus planteamientos, destacan palabras y expresiones claramente de alerta y castigo: regulación basada en el riesgo, seguridad, prohibiciones específicas, sanciones multimillonarias. Demasiado palo y muy poca zanahoria para una norma que, además, es consciente de que puede quedarse caduca en cuestión de meses porque es muy difícil, pese a centrarse en usos y no en tecnologías, regular aspectos de la IA que necesariamente van a cambiar con una rapidez sorprendente. Un dato sobre esta condición de la IA Act de hacer eso tan español de “poner puertas al campo”: cuando se empezó a tramitar ni siquiera contemplaba las Inteligencias Artificiales Generativas, como ChatGPT. Ha habido que parchear muy a última hora para que no estuvieran ausentes, pese a que la ley es prolija y con más de cien artículos, cuestiones como la necesidad de verificar los contenidos utilizados durante los entrenamientos de los modelos de IA Generativa y la posible violación de copyright en muchos de esos contenidos. Loable empeño, pero una cosa es lo que pone en el papel y otro los instrumentos que tienes para que se cumpla. Parece difícil que OpenAI, Google, Meta, Amazón o X vayan a estar dispuestos a revelar qué contenidos utilizaron. Y que la UE consiga forzarles a hacerlo. De hecho, gran parte de los “usos” prohibidos en la nueva ley se corresponden milimétricamente con prácticas que las grandes empresas antes señaladas llevan haciendo muchos años, que les han convertido en multimillonarias y que continúan sin estar prohibidas. Sorprende que cuando tienen categorizados años enteros de nuestro comportamiento individual como usuarios de las herramientas de esas empresas, ahora llegue Europa a prohibir, porque es la IA, que se nos pueda perfilar individualmente. Llega muy tarde.

La nueva ley europea prohíbe las tecnologías de IA de alto riesgo, pero solo en Europa: se podrán producir aquí y vender fuera del continente

Nadie duda de que hay mucho que proteger. La experiencia en 2020 de un programa de IA del ministerio de Asuntos Sociales y Empleo holandés que fue considerado por la justicia del país como claramente discriminatorio al estigmatizar sistemáticamente y durante años a los más desfavorecidos señalándoles por sistema como más proclives a defraudar al Estado, sentó un precedente que ha sensibilizado a los políticos europeos. El riesgo del sesgo por condición o por puntuación social, el abuso de la identificación biométrica, los sistemas policiales predictivos, la vigilancia de emociones en el trabajo o en el ámbito educativo son algunos aspectos que la ley va a regular y es innovador y muy conveniente que así se haga, porque son aspectos sobre los que los derechos individuales parecen estar siempre en segundo plano. Pero la impresión es que este acuerdo del pasado viernes para sacar adelante la ley, sin duda uno de los grandes logros que puede presentar la presidencia española de turno en la UE, ha cargado las tintas en lo malo de la IA y muy poco en lo bueno que puede salir de esta tecnología.

Pese al acuerdo conseguido in extremis en la noche del jueves al viernes tras el “apasionado” debate de meses, tal y como el propio Parlamento calificó el proceso, han quedado muchas dudas. De entrada, Alemania, Francia e Italia no están de acuerdo en regular los modelos generativos “fundacionales”. Su intención de que sean las grandes empresas del sector las que se “autorregulen” es interesadamente pueril, como han señalado organizaciones como Amnistía Internacional, quien ha recordado también que no se ha resuelto una contradicción fundamental: las empresas podrán producir en Europa todos estos sistemas “prohibidos”, siempre y cuando sean para exportación. Ética con fronteras. De fondo en la actitud de estos tres países está el temor a que Europa y sus empresas punteras de IA se queden muy relegadas frente a las norteamericanas y las chinas. La reacción, que ya se había producido hace meses en el mundo empresarial europeo había sido aún más dura. Casi dos centenares de directivos de empresas tan importantes como Siemens, Dassault, Heineken, Renault, Deutsche Telekom o Airbus firmaron en julio una carta abierta contra el exceso de regulación. Acusaban a la UE de un enfoque “burocrático” y señalaban que muchos de los riesgos sobre los que alerta la nueva ley tienen mucho de presunciones, cuando no directamente prejuicios. No parece que les hayan hecho en el Parlamento Europeo mucho caso.

En cualquier caso, la ley aún tiene un recorrido hasta su entrada en vigor definitiva en 2026. Muchas cosas pueden cambiar hasta entonces, tanto como la propia Inteligencia Artificial al ritmo que lleva.