Baeza Yates: «Cada vez que se usa ChatGPT se está tirando medio litro de agua en el desierto»

El director de investigación del Instituto de IA Experiencial en Silicon Valley está más preocupado por la inteligencia natural que por la artificial aunque no es partidario de humanizar la tecnología

Baeza Yates junto a Nuria Oliver

Baeza Yates junto a Nuria Oliver / Alex Domínguez

J. Hernández

J. Hernández

El impacto ambiental de la inteligencia artificial también está comenzando a notarse. El uso masivo de algoritmos exige una gran capacidad de cálculo en grandes centros de datos con docenas de miles de servidores. En el caso de ChatGPT, aplicación que se especializa en el diálogo, el consumo de agua para mantener en funcionamiento el hardware y su refrigeración es enorme. Cinco preguntas a ChatGPT consumen medio litro de agua en el centro de datos de Microsoft de Iowa (EE UU).

Ricardo Baeza Yates, director de investigación en el Instituto de IA Experiencial de la Northeastern University, en Silicon Valley, pidió ayer durante su conferencia magistral en el II Fórum Europeo de Inteligencia Artificial un uso razonable de los algoritmos y pide «no humanizar la tecnología».

«¿Es ético tener un algoritmo privado? La respuesta es no. ¿Es seguro tener un algoritmo completamente público? La respuesta de nuevo es no», afirmó, tras instar a no usar ChatGPT para cosas importantes al margen del impacto que tiene. «Cada vez que se hace una conversación con ChatGPT se está tirando medio litro de agua en el desierto», recordó.

El experto afirmó que no está preocupado por la inteligencia artificial y que le preocupa más la inteligencia natural en respuesta a una de las preguntas de Nuria Oliver, directora de la Fundación Ellis Alicante y vicepresidenta de Ellis Europa. Oliver dijo del ingeniero chileno que está en el top de investigadores top a nivel mundial y es miembro de comités y asesor de gobiernos e instituciones. Baeza Yates aseguró durante su intervención que la inteligencia artificial ética no existe y que no debemos humanizar la tecnología. «¿Es la IA confiable? Contestar es complicado porque ponemos el peso de la confianza en las personas que lo usan».

En esta línea considera el abordaje ético de la tecnología un desafío multidisciplinar en el que los principios fundamentales vienen de «hacer el bien y ser justos. Los problemas éticos se producen cuando los valores entran en conflicto». De ahí que abogase por la realización de un análisis del impacto ético con «una valoración y testeo para hacer que se cumplan los principios y si el sistema falla hacer una auditoría». Así, puso como ejemplo el conflicto ético que surgió cuando en agosto de 2018 una mujer que cruzaba a pie con una bicicleta una calle de la localidad de Tempe, Arizona, fue atropellada por un vehículo autónomo de Uber que estaba en pruebas.

Los sistemas del coche detectaron a la peatón 5,6 segundos antes del choque pero no detuvieron el vehículo ya que no pudieron determinar si era un ciclista, un peatón o un objeto desconocido, o si se dirigía hacia el camino del vehículo. La conductora de respaldo estaba distraída mirando un programa en su móvil. «Con los autos sin conductor (self driving car) se puede salvar la vida a un conductor en estado de ebriedad pero matar a una mujer, un niño o a una persona mayor», lo que supone un conflicto ético.

El director de investigación en el Instituto de IA en Silicon Valley también se refirió a los sesgos en la tecnología como una pseudociencia. Así describió a los programas que pueden predecir la opción política de una persona en función de la voz; o los programas de reconocimiento facial para predecir la orientación sexual; o reconstruir el rostro en base a los mensajes de whatsApp. «Es pseudociencia pero fue aceptada en congresos de ordenadores», relató al auditorio.

En este sentido, se mostró crítico con la instalación de cámaras de reconocimiento facial en determinados espacios. «Se necesita permiso, consentimiento y una solución proporcional. Si ( a empresas o instalaciones) les preocupa la seguridad pongan un guardia». Los sesgos pueden estar en los datos y en el intercambio de información entre los usuarios del sistema. Un asunto que apareció más veces a lo largo de la sesión, pues la inteligencia artificial asocia la enfermería al sexo femenino; la belleza al cabello rubio y la piel clara; y la imagen de un presidente de Gobierno a personajes muy similares al exmandatario de Estados Unidos Donald Trump.