Saltar al contenido principalSaltar al pie de página

Secciones

Inteligencia Artificial / Ciberseguridad

La IA desenmascara seudónimos y usuarios ocultos a gran escala con elevada precisión

Los modelos de lenguaje grande (LLMs) son capaces de identificar en forma rápida y económica a usuarios reales ocultos tras seudónimos en las redes sociales, según un nuevo estudio

Anonimato en riesgo: la IA desenmascara seudónimos.

Anonimato en riesgo: la IA desenmascara seudónimos. / Crédito: Kaptured by Kasia en Unsplash.

Pablo Javier Piacente / T21

Nuevos sistemas inteligentes pueden extraer pistas de identidad de entrevistas o publicaciones, navegar por la web de forma autónoma y comparar datos para identificar a personas reales. Alcanzan hasta un 68 % de recuperación con 90 % de precisión en pruebas controladas: la investigación plantea que el anonimato práctico en la red está en retroceso y sugiere medidas técnicas y regulatorias para proteger a periodistas, denunciantes y activistas.

Un estudio publicado en arXiv y desarrollado por especialistas de la Universidad Técnica de Berlín, en Alemania, y otros institutos de investigación, ha demostrado que la promesa de anonimato en línea está bajo amenaza: modelos de lenguaje grande (LLMs) de Inteligencia Artificial (IA) pueden vincular cuentas con seudónimos con identidades reales analizando patrones de escritura y microdatos, con niveles de precisión y coste que antes parecían inalcanzables.

El fin de la privacidad online lo está marcando la IA

La investigación describe cómo el sistema automatizado reproduce el proceso de investigación humano, para encontrar coincidencias entre perfiles dispersos. El método funciona en tres pasos: en principio, un LLM extrae rasgos de identidad a partir de textos sin estructura, en función de comentarios, estilo o referencias personales. A continuación, esos rasgos se usan para buscar "candidatos" mediante herramientas semánticas y, por último, un razonamiento adicional con el modelo confirma o rechaza coincidencias para reducir falsos positivos.

Según informa Ars Technica, las prueba realizadas por los investigadores confirman que las técnicas basadas en LLMs superan con creces a métodos clásicos que requieren datos estructurados. Los resultados son contundentes: en algunos escenarios los autores reportan hasta un 68 % de captura de verdaderos positivos y hasta un 90 % de precisión, mientras que las técnicas no basadas en LLMs alcanzaban tasas cercanas a cero en las mismas pruebas. Además, el coste del trabajo por cuenta ligada correctamente oscilaría entre 1 y 4 dólares, siendo accesible con recursos mínimos.

Referencia

Large-scale online deanonymization with LLMs. Simon Lermen et al. arXiv (2026). DOI:https://doi.org/10.48550/arXiv.2602.16800

El problema son los seudónimos que se usan en investigaciones con fines loables

No cabe duda que estas estrategias pueden ser muy útiles contra las diversas formas de delincuencia informática. Sin embargo, para usuarios que adoptan seudónimos por motivos legítimos, como en el caso de periodistas, denunciantes o activistas, la combinación de microdatos repetidos y potentes modelos de IA puede erosionar los mecanismos que antes ofrecían protección, según menciona Tech Xplore.

El estudio indica que cada fragmento de información que un usuario publica incrementa la probabilidad de relación entre perfiles y, por lo tanto, de identificación de los seudónimos. Los límites en el acceso a datos, como así también las auditorías y prácticas de resguardo de información, podrían ayudar a proteger el anonimato en casos en los cuales es necesario y se realiza por causas legítimas.

Tracking Pixel Contents