Neurociencias / Inteligencia Artificial

Logran restaurar la comunicación bilingüe en una persona con parálisis del habla

Los científicos combinaron un implante especializado con una aplicación de Inteligencia Artificial (IA)

Un área del cerebro parece funcionar de forma similar durante la comunicación en dos idiomas diferentes, el inglés y el español.

Un área del cerebro parece funcionar de forma similar durante la comunicación en dos idiomas diferentes, el inglés y el español. / Crédito: David Sánchez-Medina Calderón en Pixabay.

Pablo Javier Piacente

Al rastrear la actividad en el área del cerebro donde la intención de hablar se traduce en control sobre el tracto vocal, los investigadores descubrieron que tanto el inglés como el español producen señales consistentes en ese sector. De esta manera, pudieron entrenar a un sistema de IA y desarrollar un implante que logró devolver la capacidad de hablar en los dos idiomas al mismo tiempo a un paciente casi mudo.

Un equipo de neurocirujanos y especialistas en Inteligencia Artificial (IA) de la Universidad de California en San Francisco, en Estados Unidos, ha logrado restaurar el habla en un paciente que perdió esta capacidad después de un derrame cerebral: no solo recuperó la posibilidad de comunicarse, sino que además volvió a hacerlo tanto en inglés como en español, tal como sucedía antes de su problema de salud.

Los científicos publicaron los hallazgos en un nuevo estudio, que aparece en la revista Nature Biomedical Engineering. Para lograr estos resultados, utilizaron una interfaz cerebro-ordenador (BCI) implantada dentro del cráneo del paciente, además de aplicar técnicas de Inteligencia Artificial a los datos que proporcionó el dispositivo. De esta forma, pudieron recuperar la capacidad de comunicación bilingüe de la persona.

Representaciones compartidas en ambos idiomas

Según un artículo publicado en Medical Xpress, investigaciones anteriores han demostrado que es posible implantar una sonda en la superficie del cerebro para leer las ondas cerebrales, y luego aplicar técnicas de aprendizaje automático a los datos que proporciona, como medio para convertir algunas de las ondas cerebrales en palabras. Sin embargo, la nueva investigación ha llevado este enfoque un paso más allá, al conseguir el mismo objetivo en dos idiomas diferentes al unísono: el inglés y el español.

Pero el descubrimiento que hizo posible este logro fue la identificación de un sector en el cerebro que muestra representaciones articulatorias corticales compartidas, que persisten después de la parálisis y permiten la decodificación de múltiples idiomas, sin la necesidad de entrenar decodificadores específicos de cada idioma por separado. Esto hizo posible construir un clasificador de sílabas en inglés y español, con estructuras que permiten avanzar en los dos idiomas al mismo tiempo.

Decodificación simultánea en inglés y español

De acuerdo a un artículo publicado en Ars Technica, los especialistas rastrearon la actividad que se produce en un área del cerebro en la cual la intención de hablar se convierte en control sobre el tracto vocal: hallaron que tanto el idioma inglés como el español generan señales similares en este sector. Gracias a este nuevo conocimiento, lograron entrenar al sistema para que al recuperar frases en inglés pudiera acelerar al mismo tiempo su reconocimiento en español, o viceversa.

Vale destacar que los investigadores entrenaron al sistema de IA para reconocer 50 palabras en inglés, 50 palabras en español y algunas que eran idénticas en ambos idiomas. La aplicación demostró una precisión del 88% al determinar cuándo el paciente hablaba en español o en inglés, y de un 75% en la decodificación de palabras en general.

Referencia

A bilingual speech neuroprosthesis driven by cortical articulatory representations shared between languages. Alexander B. Silva et al. Nature Biomedical Engineering (2024). DOI:https://doi.org/10.1038/s41551-024-01207-5

TEMAS