Nuria Oliver es una referente en el campo de la inteligencia artificial (IA). La directora de la Fundación Ellis Alicante es ingeniera en Telecomunicaciones y doctora por el MIT y durante la pandemia su trabajo ha sido clave para analizar los datos de covid y ayudar a la Generalitat a dar respuesta a la infección. La Fundación Ellis Alicante, una de las organizadoras del primer Forum Europeo sobre Inteligencia Artificial, investiga cómo los algoritmos pueden redundar en un beneficio social, mejorando aspectos como sanidad, transportes o energía.

¿La pandemia nos ha hecho valorar más la digitalización?

Ha sido la pandemia mundial sobre la que más datos ha habido y más se han utilizado. También nos ha hecho valorar más la investigación. No habríamos tenido ni vacunas ni tratamientos eficaces sin la investigación. Nos ha permitido entender dónde estábamos en aspectos como las UCI o el porcentaje de vacunados y a dónde podíamos ir.

En alguna ocasión ha comentado que estamos en medio de la cuarta revolución industrial, ¿debemos dejar de considerar a la IA el futuro y considerarla el presente?

Absolutamente. Ya representa un mercado de trillones de dólares americanos. Todas las grandes empresas lo son de inteligencia artificial. Sin IA no podríamos encontrar información en internet o por voz, no hay ningún enano dentro del móvil que nos conteste. Forma parte de nuestro día a día pero de manera invisible. Una mayoría de personas piensa que la IA son robots sin darse cuenta de que en realidad son programas de ordenador.

¿Cómo se les puede explicar a estas personas que la IA está en su día a día?

Está en las aplicaciones digitales, los móviles, los relojes inteligentes, el día a día está plagado. En el contexto de la salud juega un papel más importante, ayuda a curar enfermedades, a acelerar investigaciones y a tomar decisiones en salud pública. Ahora estamos en plena crisis energética y no podríamos tener una red inteligente sin inteligencia artificial. En transporte, no podría haber coches autónomos sin ella. Casi que la pregunta debería de ser dónde no está. Y donde no está, estará.

"La IA ayuda a curar enfermedades, a acelerar investigaciones y a tomar decisiones en salud pública"

¿En qué nos puede ayudar a tomar mejores decisiones?

El potencial de la IA para ayudarnos es muy grande. Por ejemplo, en diagnóstico médico el algoritmo de una IA tiene la capacidad de analizar todas las radiografías de pecho en el mundo, nosotros no. Los ordenadores nos superan claramente para procesar cantidades ingentes de datos, algo que no podríamos hacer ni toda la humanidad. Podríamos preguntarnos para qué queremos los algoritmos.

¿Y para qué los queremos?

Las decisiones humanas no son perfectas, tenemos limitaciones que hacen que las decisiones sean subóptimas: nos cansamos, tenemos hambre, sesgos, amigos, enemigos, somos susceptibles a la corrupción. Si los algoritmos aprenden a partir de datos y son reflejo de la realidad, como no tienen sesgos, sueño ni conflictos de intereses deberían de tomar mejores decisiones. Esa es la aspiración.

¿Sucede?

Hay limitaciones como que los datos no sean reflejo de realidad subyacente, los datos captan la realidad parcial, la realidad es compleja y los datos no pueden captar esa complejidad. Los datos pueden estar sesgados y el algoritmo puede amplificar estos sesgos, partiendo de una visión en que la IA aumenta, no sustituye a la inteligencia humana. Para ese potencial hemos creado la Fundación Ellis Alicante, que tiene por sobrenombre el instituto de IA centrado en la humanidad. Consiste en asegurarnos que la IA va a tener un impacto social positivo.

"Es fundamental que se cumplan los marcos éticos en la inteligencia artificial"

¿Tiene ética la IA?

Es una discusión filosófica. Reformulando la pregunta: ¿deberíamos asegurarnos de que hace un uso ético de la IA? La respuesta es sí, y es algo que no necesariamente puede que esté sucediendo. El uso de la IA está extendido en áreas como transporte, medicina, educación o trabajo, que son de impacto en la vida de las personas. Por eso es fundamental que haya unos marcos éticos pero sobre todo que se cumplan.

Se han dado situaciones en las que los algoritmos han magnificado, por ejemplo, ideologías extremistas en redes sociales. ¿Tiene también una parte perjudicial?

Es importante no olvidar que algoritmo lo hace el humano. En el caso de las redes sociales, los algoritmos están diseñados para maximizar el tiempo que la gente pasa en ellas, porque se monetiza nuestro tiempo y atención. Los algoritmos han aprendido que noticias sobre todo negativas y chocantes tienden a generar una mayor respuesta y reacción que otro contenido. Se puede contrarrestar si los humanos queremos, pero sería perder usuarios y dinero. Se da este conflicto entre lo ético y lo económicamente rentable, por eso antes decía que hay que asegurarnos de que los marcos éticos se ejecutan e implementan.

Para implementar la IA en transporte, sanidad o educación, ¿es necesaria una mayor coordinación de las administraciones?

Hay una estrategia europea de IA con la que deberían de estar coordinadas las estrategias estatales y a su vez las regionales. Un poco como las muñecas rusas. Tiene que haber coordinación y entiendo que la hay. La ejecución quizá es más compleja que la coordinación, pero en Europa hay muchos instrumentos de financiación que requieren de esta coordinación.

¿En qué situación se encuentra la Fundación Ellis Alicante?

Hay tres grandes líneas de investigación: la IA para entendernos, la IA con la que interaccionamos y la IA en la que confiamos. La primera consiste en que los algoritmos entiendan a los humanos de manera colectiva, un ejemplo es el uso de datos en la pandemia. La segunda consiste en investigar e inventar sistemas que interaccionan y hacen algo útil como aplicaciones móviles. La tercera consiste en abordar todas las limitaciones y retos éticos de la IA y también modelar e investigar su impacto social. Por ejemplo, la censura de los algoritmos que a veces despriorizan contenido artístico por considerarlo pornográfico cuando puede ser el David de Miguel Ángel.

"Las carreras de ingeniería tienen más salidas y son también mejores para conciliar, hay que inspirar a más chicas"

Usted es una mujer referente dentro de la ciencia y la ingeniería pero sigue habiendo pocas mujeres en estas carreras, ¿cómo se puede motivar a las jóvenes para que se animen a formarse en estas ramas?

Hay que romper estereotipos y cambiar la percepción colectiva. Hay una estereotipación de género. Si yo pregunto a alguien que se imagine a una persona que programa ordenadores no se va a imaginar a alguien como yo, sino a lo que ha visto en películas, series o libros. Los medios también tenéis un papel importante. En los años 80 había más mujeres que ahora, hay un sesgo de género, un sesgo humano como hablábamos antes que nos hace infravalorar sistemáticamente a las mujeres en igualdad de condiciones. Las ingenierías tienen fama de difíciles y hay chicas que se autocensuran aunque tengan el mejor expediente de su clase. Si lo tienen es por algo, hay que eliminar mitos.

¿Faltan referentes?

Si piensas en una persona famosa caes en Zuckerberg, Steve Jobs o Bill Gates, no en una mujer. Y hay otro factor más específico y es que en muchos ámbitos como la programación de videojuegos hay una cultura machista y misógina. Hay que tener tolerancia cero y ver cómo asegurarnos de que hay culturas diversas y que son amigables. Las carreras de ingeniería tienen más salidas y son también mejores para conciliar. Curiosamente en salud hay más mujeres cuando es más difícil conciliar. Hay que combatir barreras e inspirar a que haya más chicas ingenieras.