El Mercurio | Gracias a microimplantes y en tiempo real, por primera vez logran leer los pensamientos
Matías Villarroel, director (s) de Tecnología Médica UNAB Concepción, comentó los alcances de este innovador proceso desarrollado en Estados Unidos.
Un gran paso dio un equipo de investigadores de la U. de Stanford al lograr, por primera vez, “leer” en tiempo real el habla interna de una persona —el monólogo que tiene lugar en su mente cuando piensa en hablar— y traducirlo en palabras en una pantalla, con una precisión de hasta el 74%.
Los investigadores registraron la actividad neuronal de cuatro personas con parálisis grave debido a esclerosis lateral amiotrófica (ELA) o un accidente cerebrovascular en el tronco encefálico.
Para ello les implantaron un conjunto de microelectrodos en la corteza motora, una región del cerebro responsable del habla.
Luego, les pidieron que intentaran hablar y, además, que imaginaran una serie de palabras. Así, hallaron que el intento de hablar y el habla interna activan regiones superpuestas del cerebro.
Poder leer y expresarse
Utilizando los datos del habla interna, el equipo entrenó modelos de inteligencia artificial para interpretar las palabras imaginadas.
Así se pudo decodificar frases imaginadas de un vocabulario de hasta 125.000 palabras con una precisión del 74%.
Este avance abre nuevas perspectivas para que personas que no pueden hablar puedan comunicarse fácil y fluidamente mediante tecnologías de interfaz cerebro-computador, conocidas como BCI.
“El principal avance es que, por primera vez, se logran frases completas del ‘habla interna’ —lo que una persona se dice por dentro— en tiempo real, sin que el usuario tenga que intentar mover los músculos del habla”, dice Matías Villarroel Vera, director (s) de la carrera de Tecnología Médica de la U. Andrés Bello sede Concepción.
“Además, el sistema funciona con un vocabulario amplio —de hasta 125.000 palabras— y solo puede activarse cuando la persona imagina una palabra clave para proteger su privacidad”, agregó.
Sistema avanzado
El sistema solo se activaba cuando el paciente piensa en la palabra “chitty chitty bang bang”, una película de los años 60. Se usó está palabra ya que no es algo que se suela usar cotidianamente.
“No es necesario mover los labios ni controlar la respiración, por lo que la comunicación puede volverse más fluida y natural», afirmó el docente UNAB.
Además, como utiliza señales cerebrales muy parecidas a las del habla real, el sistema puede reconocer frases completas con un vocabulario amplio”, dice Villarroel, máster en Aplicaciones de la Inteligencia Artificial en la Sanidad.