El desafío ético de la inteligencia artificial

Ricardo Baeza-Yates desgrana las diez preguntas clave que debe hacerse antes, durante y después del desarrollo de un sistema de IA

Baeza-Yates junto a Nuria Oliver.

Baeza-Yates junto a Nuria Oliver. / DAVID REVENGA

En el marco de II Fórum Internacional de Inteligencia Artificial en Alicante, el experto Ricardo Baeza-Yates, director de Investigación en el Instituto para la IA Experiencial de la Universidad Northeastern en Silicon Valley, ofreció la primera conferencia magistral del día. Centrada en analizar sobre quién recae la responsabilidad de un buen o mal uso de la inteligencia artificial se cuestionó: ¿Está subordinada esta responsabilidad a la tecnología en sí misma? ¿Depende de sus creadores y de quienes la implementan?

A través de diez preguntas que, consideró, deben hacerse antes, durante y después del desarrollo de un sistema de IA, Ricardo Baeza-Yates desgranó algunos de los puntos más importantes tanto a la hora de desarrollar como de utilizar algoritmos que cumplan con principios «responsables» como la legitimidad y la competencia, la transparencia, la privacidad o el impacto ambiental. Todo para garantizar que se use de forma ética y beneficiosa para la sociedad.

Así, comenzó explicando que lo primero es analizar si el propósito y funcionamiento del sistema es realmente legítimo y aporta un beneficio para la sociedad. Algunos, recordó, han causado grandes daños y puso el ejemplo del episodio holandés en el que se acusó falsamente de fraude a 26.000 familias de pocos ingresos por la recepción de ayudas sociales.

Otra clave sería la de confirmar si con el algoritmo se está haciendo ciencia o simples conjeturas. Aquí hizo referencia a ciertos sistemas que pretenden predecir la orientación sexual o ideológica de una persona basándose en puntos cuestionables como la voz o el reconocimiento facial. Como tercera pregunta promolugó: «¿Tenemos permiso para llevar a cabo la idea del algoritmo? En el caso holandés, que terminó con la dimisión de un gobierno entero, el trabajador no lo tenía». 

«¿La solución es proporcional al problema?». Esta es otra de las preguntas necesarias. Un interrogante crítico porque la respuesta dependerá de la cultura: «La decisión para resolver un mismo problema no será igual en Europa que en Estados Unidos».

También es vital verificar que no existan sesgos en los datos y modelos. Al respecto, señaló que el mayor problema que puede haber es «que el sesgo se amplifique», por lo que es vital asegurarse de que no se hace daño a las personas con su uso. «¿Es mejor que tome la decisión un algoritmo sesgado pero justo o una persona cansada?», se preguntó retóricamente.

Desde su punto de vista, el algoritmo debería de evitar decisiones arbitrarias que generan discriminación sin pretenderlo. «Los datos no lo representan todo. Son una interpretación parcial de la realidad», apuntó. Con respecto a la regulación de la tecnología, el director de Investigación en el Instituto para la IA Experiencial de la Universidad Northeastern en Silicon Valley se cuestionó si es conveniente crear leyes específicas. «Yo creo que no porque la tecnología es muy complicada de regular y tenemos el problema de que existen riesgos altos y bajos. ¿Por qué no existen riesgos medios? De cualquier modo, medir el riesgo es algo muy difícil».

Otros puntos de su ponencia abarcaron la importancia de que los usuarios comprendan bien el impacto real y las limitaciones de los sistemas de inteligencia artificial porque «las explicaciones a veces pueden ser peligrosas». Y concluyó señalando que «me preocupa más la inteligencia ética de las personas que la de las máquinas». 

La ética en la IA, como se pudo ver a lo largo del Fórum, es un tema complejo y en evolución. Un asunto que requiere un esfuerzo continuo por parte de la sociedad, los creadores y los reguladores para garantizar que beneficie a la humanidad.