La primera reunión que la Secretaría de Estado de Digitalización e Inteligencia Artificial y Más País tuvieron para pergeñar el diseño de la futura Agencia de Evaluación de Algoritmos terminó francamente bien. Para ser un encuentro tentativo, deparó gratas conclusiones a ambas partes. En la formación que lidera Íñigo Errejón quedó clara la apuesta del Gobierno por hacer realidad "lo antes posible" el nuevo organismo, de carácter público. En el Ejecutivo comprobaron que las aportaciones de uno de sus aliados parlamentarios pueden resultarle muy útiles.

Varios retazos del diseño están claros, lo que no es poco para una entrevista inicial de trabajo. En mayo de 2021 un reglamento del Parlamento y del Consejo de la UE dibujó el territorio dentro del que nacerá y vivirá el organismo, que será una agencia estatal (la otra opción que estaba encima de la mesa era la de las fórmulas de una agencia independiente). Sus funciones se supeditarán a una clasificación de los riesgos que deparen los algoritmos, el cual oscilará del alto al medio, y de éste al bajo, dentro del ámbito administrativo. Asimismo, tendrá capacidad sancionadora. Y será transparente tanto en la designación de su máximo responsable como en las reglas de funcionamiento y su ejecución.

Todo esto para poner coto a los peligros de discriminación que conlleva el uso de algoritmos. Más País lo ha contado. La medición del estado de humor o de las querencias sociales puede conducir a priorizar a ciudadanos con un determinado cariz racial, ideológico, de edad, de género, territorial...

Por tanto, tal y como recalcan fuentes de la Secretaría de Estado de Inteligencia Artificial, dependiente del Ministerio de Asuntos Económicos, a EL PERIÓDICO DE ESPAÑA, diario que pertenece a este mismo grupo, Prensa Ibérica, el boceto comienza a coger forma. La fase del trabajo es embrionario, pero al menos hay un dibujo. El Gobierno, además, está pensando ya en qué sede instalar la nueva entidad, en cuánto dinero necesitará aparte de los cinco millones consignados en los Presupuestos, en el número de trabajadores, en las competencias, en la estructura y en la figura jurídica. Todo esto debe estar perfilado con nitidez antes de convertir el esquema en un decreto o en un proyecto de ley, la opción ahora mismo hacia la que se encamina el proceso.

Lo que quiere el Gobierno es evitar un plazo que le lleve a la precipitación, así que la creación del organismo no se hará realidad en 2022. Todo apunta a que se erigirá el año que viene, a ser posible antes de que Pedro Sánchez asuma la Presidencia rotatoria de la Unión Europea, de periodicidad semestral. Le toca la segunda mitad de 2023. "Sería un plazo deseable", señalan las fuentes gubernamentales, aunque prefieren, no obstante, huir de concreciones y metas.

La configuración y desarrollo de la entidad necesita el paraguas de una ley, que es lo que redactará el Ministerio de Asuntos Económicos cuando la fisonomía orgánica, y sobre todo su entramado competencial, se encuentren delimitados. Aunque tanto el paso de la norma por el Congreso como la puesta en marcha de la agencia se divisan a lo lejos, es importante que ciertos conceptos estén tan claros.

Cinco millones en los Presupuestos

Héctor Tejero es diputado de Más Madrid en la Asamblea autonómica y una de los cargos de Más País del círculo de máxima confianza de Íñigo Errejón. Fue uno de los artífices de que la organización enarbolara la problemática de la salud mental, actualmente un asunto social, sanitario y política de primer nivel. También estuvo detrás de la apuesta por la reactivación de los trenes nocturnos, misión por ahora embarrancada. El impulso a la agencia de algoritmos integra su agenda de prioridades. Más País logró incluir en los presupuestos de este año una partida de cinco millones para el diseño y entrada en funcionamiento del organismo.

En declaraciones a este medio, explica que durante la reunión de este pasado martes expusieron a la Secretaría de Estado un documento sobre la arquitectura de la agencia. Detrás de sus líneas está un comité de expertos a los que Más País consulta a menudo para favorecer la llegada a puerto de la idea; que cuaje, vaya.

"Nuestro modelo se asemeja al de las agencias de evaluación de medicamentos. Ahora se trata de estudiar la fórmula jurídica, bien una agencia estatal o bien una autoridad independiente. Lo más importante, sea cual sea, es que tenga transparencia, y por supuesto, independencia", explica antes de poner énfasis en que el debate, actualmente, consiste en decidir la figura jurídica y en atribuir las competencias. Entre éstas, Más País ha propuesto la evaluación de los niveles de riesgo de los algoritmos, la emisión de auditorías, la imposición de sanciones, el asesoramientos a pymes y la recepción de quejas del tejido asociativo o de particulares.

En la Secretaría de Estado de Digitalización sus fuentes intentan no desmarcarse de la prudencia. Trazar una línea temporal de trabajo (con la mirada puesta, preferentemente, en 2023), definir los recursos jurídicos y humanos, organizar la logística y la infraestructura e ingeniar un circuito de comunicación con asociaciones civiles especializadas son algunas de las tareas en las que se ha implicado o se implicará en breve. A éstas hay que añadir un trabajo eminentemente comparativo, que tiene que ver con lo que están haciendo o prevén hacer países europeos. España, apuntan las fuentes, quiere ser pionero aquí.

El espejo europeo o las reglas del juego

Como ha quedado escrito antes, en mayo de 2021 la UE publicó un reglamento para afrontar el reto de gestionar la inteligencia artificial sin que los derechos de los ciudadanos, así como los valores europeos, se vean menoscabados. El objetivo es la armonización legislativa entre los Estados miembros.

La inteligencia artificial convive con los ciudadanos; está presente en nuestras vidas casi constantemente y los riesgos son evidentes. Empieza a haber abundante bibliografía que demuestra que los algoritmos en los que se basan numerosas empresas, esencialmente las tecnológicas, aunque no sólo, pueden incurrir en discriminaciones. Medir los gustos sociales, monetizarlos luego, entraña peligros. La Unión, desde 2019, está trabajando en la manera con la que domar las repercusiones cotidianas de la inteligencia artificial.

Así, en un compendio de conclusiones, hace tres años, pidió una definición clara de qué usos de la IA han de considerarse "de riesgo". Un año más tarde instó a garantizar el respeto a los derechos fundamentales, abogó por normas armonizadas y se mostró a favor de prohibir aquellas actuaciones que socaven los valores esenciales europeos.

La UE abrió un periodo de consultas y recibió más de 1.200 contribuciones, la mayoría de empresas y particulares. La ausencia de una base jurídica sólida sobre la que regular la IA y la necesidad de delimitar los riesgos fueron las dos reclamaciones más frecuentes. Este "freedback" permitió a la Unión a promover entre los Estados miembros la aplicación de un instrumento legislativo basado en esa clasificación de riesgos.

Así, de riesgo alto serán actuaciones que, en líneas generales, puedan "manipular a las personas mediante técnicas subliminales que trasciendan su consciencia o que aprovechan las vulnerabilidades de grupos concretos" con la finalidad de "alterar de manera sustancial su comportamiento", y en último extremo, provocar "perjuicios físicos o psicológicos". Por ejemplo, la identificación biométrica en tiempo real de personas físicas en espacios públicos (salvo si se trata de buscar al culpable o sospechoso de un delito); las prácticas relacionadas con infraestructuras como el suministro de agua, gas, calefacción o electricidad; determinados procesos de selección de trabajadores; o la gestión de tráfico migratorio.

Son ámbitos que deben contar con un conjunto de normas, en cuanto a uso y aplicación de algoritmos, que si las empresas o las autoridades públicas infringen, conllevará sanciones.

Pero todo esto ha de coger forma y cuerpo en unos estatutos, y posteriormente, en un decreto o en un proyecto de ley. A eso quiere Más País llevar al Gobierno. Las impresiones, tras la primera reunión, resultan halagüeñas.