Inteligencia artificial para combatir las fake news

El Cenid impulsa un proyecto para detectar patrones comunes a través del lenguaje en los bulos que circulan en las redes sociales

En el centro de la imagen, Tomás Mayoral y Patricia Ruiz, flanqueados por Estela Saquete y Patricio Martínez.

En el centro de la imagen, Tomás Mayoral y Patricia Ruiz, flanqueados por Estela Saquete y Patricio Martínez. / AXEL ALVAREZ

J. A. Martínez

J. A. Martínez

Bulos, fake news, desinformación... una amenaza de la sociedad actual en las que los contenidos falsos se difunden de manera masiva a través de las redes y tras las que en muchas ocasiones se esconden oscuros intereses y que necesitan ser desmentidos para frenar sus efectos perniciosos. El Centro de Inteligencia Digital (CENID) ha organizado este jueves en el Parque Científico de la Universidad de Alicante una jornada dedicada a analizar esta amenaza para las democracias. El director del CENID, Manuel Palomar, aseguró que el tratamiento de la desinformación en los medios digitales y la detección de bulos desde las redes sociales han sido uno de los temas que les han preocupado, trabajando en la aplicación de las nuevas tecnologías para el tratamiento de la desinformación. En esta jornada intervinieron tres patas fundamentales en la lucha contra la desinformación: Estela Saquete, investigadora principal del proyecto del CENID contra la desinformación bautizado como NL4DISMIS; Patricia Ruiz, la coordinadora de Maldita Tecnología, el portal dedicado a investigar y desmentir bulos; y el director del Diario INFORMACIÓN, Tomás Mayoral, para dar el punto de vista de los medios tradicionales.

Estela Saquete ha destacado el proyecto del CENID para usar la inteligencia artificial en la detección de fake news. La investigación parte de la relación entre los modelos de lenguaje que permitan detectar uno de estos bulos. “Las fake news se crean con la intención de engañar. Contienen una alta carga de emociones que buscan tocar la fibra sensible. En ocasiones los datos falsos aparecen camuflados en medio de otras informaciones verdaderas", señaló. En definitiva, a veces están redactadas de manera en las que se puede detectar una serie patrones comunes.

Según Saquete, entre los motivos para difundir fake news de manera intencionada se encuentra el ganar dinero, conseguir influencia, generar miedo entre la población e incitar al odio. Entre estos elementos comunes a la fake news, están los titulares sensacionalistas que buscan el click y en el interior textos que se suelen mover en el terreno de la ambigüedad, explicó. Uno de los efectos más perniciosos se han comprobado durante la reciente pandemia con noticias sobre salud falsas, en las que muchas veces se pretenden vender remedios milagro. "Del análisis de los textos la máquina puede aprender mediante patrones lingüísticos, el estilo o el contexto que podemos encontrarnos ante una noticia falsa", aseguró. En este sentido, destacó que uno de los retos del proyecto sería la capacidad de generar texto de desmentido de manera inmediata, porque con las fake news cuanto más virales se hagan más difícil es demostrar después que sean falsas. Habrá quien ni siquiera vea el desmentido y se quede con el primer titular de impacto. De todos modos, subraya que el factor humano es también importante y que la inteligencia artificial es una herramienta.

Manel Palomar,  a la derecha, y Estela Saquete escuchan una de las conferencias.

Manel Palomar, a la derecha, y Estela Saquete escuchan una de las conferencias. / AXEL ALVAREZ

Por su parte, el director de INFORMACIÓN empezó analizando el fenómeno del llamado periodismo ciudadano, valorando que "es uno de los muchos de los errores que hemos cometido los medios tradicionales en el buenismo al que todos nos entregamos en aquellos años". A su juicio, "el periodismo ciudadano es mentira, porque cualquier ciudadano no puede dedicarse a ser periodista" y parte del problema de las fake news es la creencia de que cualquier puede ser generador de contenidos. En su intervención ha destacado el papel de los medios tradicionales. "Cada uno tendrá sus tendencias editoriales, algunos hasta usando la manipulación más burda, pero no hay una intención expresa de engañar. Hay un peso que nos obliga a ser verificadores", ha asegurado Mayoral.

Al otro lado, "el problema es que a veces se enfrentan a un público al que no le interesa la verdad y gente que de entrada piensa que lo que decimos es mentira y se informa por TikTok", aseguró. En esta momento, puso en valor el papel de los medios tradicionales, "deliberadamente no te van a engañar". A su juicio, una noticia falsa es fácil detectar y hay que fomentar el sentido crítico. "Un medio de comunicación ya es un filtro, porque los periodistas estamos hartos de dudar. Es lo que cualquier periodista debe hacer", dijo.

Desmintiendo bulos

Desde el portal Maldita Tecnología, Patricia Ruiz, coordinadora de este medio, incidió en que "en ocasiones las fake news no tienen la forma de una noticia tradicional. Puede ser una foto manipulada con inteligencia artificial, un mensaje en un foro o en un grupo de WhatsApp o un mensaje de audio". Al modo del periodismo de toda la vida se dedica a contratar si alguno de estos mensajes sospechosos son o no bulos. Durante los últimos meses, montajes fotográficos con inteligencia artificial difundidos a través de la redes sociales. Un montaje fotográfico sacado de la saga de Marvel de Pantera Negra como la versión de Netflix de Heidi, o los montajes de la falsa detención de Donald Trump. En su opinión, hay una crisis de confianza en los medios tradicionales y ya ni siquiera vale el dicho de ver para creer, "hay que poner en duda todo". Ruiz destacó la importancia de que que haya una persona controlando el proceso, en este uso de las tecnologías para detectar bulos. Pero a veces, "la persona que ha introducido los datos en la inteligencia artificial tiene su propio sesgo" y también defendió la necesidad de legislar para garantizar un uso ético.