Entrevista

Liliana Acosta: "Muchos de los problemas que tenemos con la IA provienen de decisiones humanas"

La filósofa especializada en ética aplicada a la tecnología fundó en 2017 Thinker Soul, una consultoría dirigida a la digitalización de las empresas y a la innovación

La filósofa tecnológica Liliana Acosta, participante en el foro Cornellà Creació.

La filósofa tecnológica Liliana Acosta, participante en el foro Cornellà Creació. / IRENE VILÀ

Carles Planas Bou

Liliana Acosta es filósofa especializada en ética aplicada a la tecnología. En 2017 fundó Thinker Soul, una consultoría dirigida a la digitalización de las empresas y a la innovación. En los últimos años se ha centrado en reflexionar y divulgar sobre inteligencia artificial (IA), los efectos cognitivos de las redes sociales o corrientes de pensamiento como el Transhumanismo.

Este viernes, Acosta protagoniza una nueva edición de Cornellà Creació, foro de debate y de intercambio de ideas entre el mundo académico y empresarial. La consultora entablará una charla sobre este y otros temas con Agustí Sala, jefe de economía de El Periódico.

En los últimos años, Google Microsoft, los dos gigantes que lideran el desarrollo de la IA, han despedido a gran parte de su equipo de ética. ¿Por qué es preocupante ese movimiento?

La científica Timnit Gebru fue la primera mujer contratada para crear un departamento de ética en IA en Google. Ella y su equipo analizaron modelos de lenguaje y detectaron muchos problemas. Sin embargo, nadie les escuchaba o respondía, así que publicaron un paper en el que explicaban que esos sistemas funcionan como loros que repiten cosas. Por eso la despidieron de un departamento que después cerraron.

Cuando asesoro a empresas, mi trabajo es pelearme cada día con los ingenieros porque su concepto de ética difiere mucho de lo que es, ellos están interesados en producir. Lo que a mi me pasa en micro es lo que pasa en macro en todas esas empresas. No podemos esperar a usar una tecnología para ver si es buena o no, hay que concebirla para que lo sea por diseño, y eso es muy caro. Por eso muchos departamentos de éticos han sido recortados. Es un problema de tiempo y eficiencia de coste.

No podemos esperar a usar una tecnología para ver si es buena o no. Hay que concebirla para que lo sea por diseño, pero eso es muy caro.

Liliana Acosta

Se dice que la tecnología es neutral y que solo depende del uso que le den los usuarios. ¿Por qué esa idea no es cierta?

Tenemos que dejar de pensar así. La tecnología no puede ser neutral y menos cuando trabaja basándose en datos de personas. Si una IA tiene sesgos no es culpa suya, son sesgos humanos que hemos traducido a la máquina.

Pero esas empresas no explican con qué datos entrenan aplicaciones como ChatGPT. Su opacidad dificulta la detección de sesgos.

Para entrenar un modelo de IA se necesita un gran volumen de datos y sacarlos de Internet es mucho más barato que crear una base privada. El problema es que muchos de los datos que se extraen de la red ya están sesgados de base. OpenAI, por ejemplo, trabaja con 180.000 millones de parámetros. Eso hace que detectar un problema sea muy difícil. Incluso Sam Altman dijo que no entiende cómo funciona ChatGPT. Por eso los equipos de ética advierten que no se puede comercializar algo así antes de probarlo.

Cada vez más se piensa en las máquinas desde el miedo. Nos hacen temer que nos robarán el trabajo o que se rebelarán contra la humanidad. ¿Estamos haciendo el juego a las grandes empresas?

Pensamos en la IA como robots que subyugan a la humanidad, pero esa idea pertenece a la ciencia ficción, al cyberpunk. La IA actual se aleja mucho de eso. Lo peor es que muchos de los problemas que tenemos con algoritmos provienen de decisiones humanas. Es gracioso que tengamos miedo a la IA cuando somos los humanos los que creamos esos sesgos. La ética debe aplicarse a los humanos antes que a la IA.

Es gracioso que tengamos miedo a la IA cuando somos los humanos los que creamos sus sesgos

Liliana Acosta

Las empresas diseñan sus productos de IA para que imitien las conversaciones humanas o tengan voz de mujer. Esa simulación de lo humano despierta mucha fascinación, pero ¿deforma nuestra percepción de esta tecnología?

Desde que el humano tiene conciencia ha antropomorfizado lo que tiene alrededor porque le daba miedo y era una forma de dominarlo. También pasó con los robots. En los años 60 el MIT creó el proyecto Eliza, un sistema que podía comunicarse por teléfono con los usuarios. La gente se enganchó a ella y terminaron cerrando el proyecto.

Dotar la tecnología de apariencia humana nos da tranquilidad pero debemos tener cuidado porque podemos perder el sentido de la realidad. Debemos aplicar el pensamiento crítico. No porque un bot me hable significa que puede ser algo parecido a un humano. Por eso desde la ética pedimos que se identifiquen los contenidos generados con IA.

¿Cómo se están adaptando las empresas a la AI Act, la ley europea que regulará la IA?

No creo que la ley suponga ninguna disrupción. Las empreas lo ven como una obligación más, como ya pasó con la ley de protección de datos. Menos de un 30% de las empresas españolas aplican sistemas de IA en el centro de su negocio y normalmente son grandes compañías que ya tienen un departamento legal para adaptarse. Me asusta un poco que pueda frenar la inovación de 'startups' y pequeñas empresas, que son las que traen la disrupción. Aun así, desde el punto de vista ético puede ayudarnos, se ha hecho un gran trabajo remarcando los riesgos de las teconologías de IA.