Las dos caras de la IA

Nuria Oliver y Aurelio López-Tarruella defienden las ventajas de la Inteligencia Artificial y ven limitada su amenaza. La Sede 5 de Distrito Digital fue el escenario del encuentro, en el que ChatGPT fue uno de los ponentes

El encuentro «Cómo responder al desafío de la Inteligencia Artificial», organizado por INFORMACIÓN, tuvo lugar en las instalaciones de la Sede 5  de Distrito Digital Comunitat Valenciana.

El encuentro «Cómo responder al desafío de la Inteligencia Artificial», organizado por INFORMACIÓN, tuvo lugar en las instalaciones de la Sede 5 de Distrito Digital Comunitat Valenciana. / ALEX DOMINGUEZ

Miriam Vázquez

Miriam Vázquez

La Inteligencia Artificial está en el centro de la cuarta revolución industrial en la cual la sociedad ya se encuentra inmersa. Esta tecnología es transversal y ya está transformando e impactando en todos los ámbitos y en cada uno de los trabajos. «Tenemos que asimilar que necesitamos la Inteligencia Artificial para abordar los retos del siglo XXI, no vamos a poder tener energías renovables, transporte eficiente y medicina de precisión sin la IA», aseguró Nuria Oliver, directora de Ellis Alicante, en el encuentro «Cómo responder al desafío de la Inteligencia Artificial», organizado por INFORMACIÓN.

Durante la jornada, que tuvo lugar en la Sede 5 de Distrito Digital Comunitat Valenciana, se abordaron las principales incertidumbres que surgen alrededor de la IA. El acto tuvo una gran acogida y contó con la presencia de Antonio Rodes, director general en SPTCV.

Nuria Oliver y Aurelio López-Tarruella hicieron especial hincapié en los retos de la IA.

Nuria Oliver y Aurelio López-Tarruella hicieron especial hincapié en los retos de la IA. / ALEX DOMINGUEZ

Toni Cabot, director del Club INFORMACIÓN, puso sobre la mesa diferentes cuestiones respecto a esta tecnología que es ya imparable. Nuria Oliver y Aurelio López-Tarruella, director de la Cátedra para el Desarrollo Responsable del Metaverso de la UA, analizaron el nuevo escenario y posibilidades que ha abierto la IA. Además, durante el coloquio se contó con la participación del propio ChatGPT.

Retos

Ambos ponentes hicieron especial hincapié en los retos que supone la Inteligencia Artificial. «Distingo tres tipos de amenazas: el uso de la IA con intenciones ilícitas, desarrollo con fines benévolos pero del que podemos perder el control y en tercer lugar, identifico que se va a desarrollar una IA que va a beneficiar a todos pero que va a tener consecuencias nocivas, que va a sustituir puestos de trabajo», destacó López-Tarruella.

Por su parte, Oliver planteó retos como la privacidad y la veracidad, pero también indicó que «las técnicas de Inteligencia Artificial de hoy en día, las que están detrás de ChatGPT por ejemplo, son técnicas que se conocen como de aprendizaje a partir de datos y se necesita que tengan una visión muy sesgada de la sociedad. Por lo tanto, tenemos el reto de los sesgos algorítmicos». Por otro lado, recalcó la gran asimetría que existe, «no es positivo que la Inteligencia Artificial esté definida y dominada por un conjunto muy pequeño de empresas norteamericanas y chinas».

Inteligencia Artificial específica

El futuro de la IA fue un punto clave durante la jornada. «Realmente la IA ya está transformando el mercado laboral pero la pregunta es ¿cómo queremos utilizarla y qué uso queremos hacer de ella?», incidió la directora de ELLIS Alicante. Oliver también señaló que aun no hemos tenido esa revolución social, «es la sociedad la que tiene que decidir cómo usar esta tecnología, pero no podemos tener esa revolución social si no sabemos de qué estamos hablando, tenemos que empezar a entender este mundo».

Coloquio: ¿Cómo responder al desafío de la IA?

Asimismo, López-Tarruella resaltó que cada vez tenemos más herramientas de IA específica «las cuales hacen que nuestro cerebro desarrolle nuevas competencias digitales». En este sentido, señaló que es imprescindible hacer una distinción entre Inteligencia Artificial específica y general.

«Hoy en día tenemos IA específica, son sistemas muy buenos haciendo una tarea, pero solo saben hacer esa tarea. Es decir, ChatGPT por muy bueno que sea es sólo a nivel textual y del lenguaje», explicó Nuria Oliver.

Chat GPT

ChatGPT también formó parte del encuentro respondiendo a las distintas cuestiones que se plantearon, los ponentes fueron haciendo un análisis de las respuestas que iba dando. «El gran modelo de lenguaje inicial no tenía realmente ningún tipo de filtro y ese afinamiento es fruto de humanos que dan feedback sobre si son aceptables las respuestas y que están generando datos para entrenar a estos sistemas. La realidad es que el modelo de lenguaje sigue teniendo los mismos sesgos y limitaciones, no se ha resuelto se ha puesto una capa por encima para evitar estos comportamientos no aceptables», sostuvo Nuria Oliver.

ChatGPT explicó que ha sido entrenado con muchos textos de Internet. En este punto, los ponentes destacaron que es por este motivo por el que OpenAI está siendo investigado por la Agencia Italiana de Protección de Datos, «no hay transparencia en los datos». Pero aun así, ChatGPT es la aplicación con una adopción más rápida en la historia de la humanidad, «que haya cientos de millones de personas utilizando una herramienta que no tiene ninguna garantía de veracidad es algo sobre lo que reflexionar», subrayó Nuria Oliver. A sus respuestas, López-Tarruella indicó que «lo que nos ha respondido es una cláusula de excención de responsabilidad».

La jornada contó con la participación de ChatGPT.

La jornada contó con la participación de ChatGPT. / ALEX DOMINGUEZ

Al preguntarle sobre su futuro, ChatGPT se centró en que OpenAI está trabajando para la reducción de sesgos y recalcó que hasta ahora la IA aprende de los datos generados por humanos. En este sentido, Oliver especificó que «las técnicas actuales son basadas en el aprendizaje a partir de datos y esos datos los hemos generado los humanos. Por tanto, ahora mismo no sería posible que la IA no dependiera de los humanos».

Regulación europea frente a los desafíos de la Inteligencia Artificial

«La Unión Europea está haciendo avances importantes en cuanto a regulación de la IA. El parlamento europeo ya ha adoptado un texto de compromiso, a final de año probablemente ya se podrá adoptar el reglamento de IA europeo», explicó Aurelio López-Tarruella, director de la Cátedra para el Desarrollo Responsable del Metaverso de la UA.

La Comisión Europea propuso hace dos años un ambicioso proyecto de reglamentación y los países miembros definieron sus posiciones a finales de 2022. Pero el examen parlamentario se alargó y se retrasó, ahora en los últimos meses y, coincidiendo con el surgimiento de polémicas sobre los peligros de las herramientas de IA capaces de crear textos o imágenes, esta regulación se ha vuelto a poner sobre la mesa.

Imagen de la jornada.

Imagen de la jornada. / ALEX DOMINGUEZ

«La regulación al final es necesaria pero proporcionada para que no genere obstáculos a la innovación», incidió López-Tarruella. En esta misma línea, Nuria Oliver recalcó que no todo desarrollo tecnológico conlleva un progreso, «hay que invertir en el desarrollo tecnológico que mejore la vida de las personas, del resto de seres vivos y del planeta en su conjunto. La regulación europea a la que se llegó a un acuerdo este jueves es un proceso de más de dos años, ha sido un proceso muy largo, Europa lleva años trabajando en esto».

El núcleo del borrador es crear una lista de reglas que sean impuestas únicamente a las aplicaciones consideradas como de «alto riesgo», una calificación que debe ser declarada por las propias empresas, a partir de los criterios establecidos por los legisladores. «Dependiendo del riesgo será la regulación más o menos estricta», aseguró Oliver, quien puso como ejemplo la regulación de la tecnología nuclear, «como sociedad hemos decidido que utilizarla para hacer armas nucleares no significa un progreso y por eso hay un pacto mundial para regular la generación de armamento nuclear y limitarlo, pero esa misma tecnología nuclear forma parte de la medicina, por ejemplo».