Crean un “traductor” que convierte las ondas cerebrales en palabras

Es una interfaz cerebro-computadora que podría ser el principio para un dispositivo que ayude a restaurar la función del habla a quienes padecen un desorden neurológico.

Uno de los grandes secretos del lenguaje es la forma en que el cerebro sintetiza el habla y lo convierte en palabras que después son emitidas por nuestro sistema vocal. Desde hace años, científicos, neurólogos y lingüistas han tratado de entender, con escasos resultados, cómo opera este mecanismo lógico. Sin embargo, un grupo de expertos, utilizando Inteligencia Artificial, concibió una interfaz cerebro-computadora (ICC) que traduce las ondas cerebrales en palabras. Lo que podría restaurar la función del habla en personas con un desorden neurológico.


utilizando Inteligencia Artificial, concibieron una interfaz cerebro-computadora (ICC) que traduce las ondas cerebrales en palabras

Para los autores de la investigación, se trata de una “prueba de principio” que constituye el primer paso hacia una ICC que restituya la capacidad de hablar a personas que no pueden hacerlo a causa de una enfermedades neurodegenerativas como el Parkinson, una apoplejía o la esclerosis lateral amiotrófica (ELA), o cuyo tracto vocal está dañado por un cáncer.

Este decodificador neuronal aprovecha las representaciones cinemáticas y sonoras en la corteza cerebral para sintetizar un mensaje. La investigación fue publicada por Gopala K. Anumanchipalli, Josh Chartier y Edward F. Chang, profesores de diferentes universidades estadounidenses en la publicación científica Nature.




 El dispositivo se ocupa de “leer” sus intenciones directamente del cerebro y usar esa información para controlar dispositivos externos o para mover las extremidades paralizadas, recuerdan los autores.

Los proyectos ICC que asistían a personas que perdían su capacidad oratoria requerían de movimientos musculares para su interpretación. El caso más conocido es el de Stephen Hawking, quien debía activar un sensor infarrojo colocado en sus gafas y el cursor en la pantalla de su computadora Intel producía un timbre metalizado.

La tecnología detrás del ICC reproduce virtualmente los órganos comprometidos en el lenguaje como los labios, la mandíbula, la lengua, y la laringe y traduce en palabras las señales cerebrales que hayan su correlato en los movimientos de estos miembros.

Un dispositivo podría restituit la capacidad de hablar a personas que padecen una enfermedades neurodegenerativas

Un dispositivo podría restituit la capacidad de hablar a personas que padecen una enfermedades neurodegenerativas

“Hemos pensado que si estos centros del lenguaje en el cerebro codifican los movimientos preferiblemente los sonidos, deberemos probar hacer lo mismo decodificando estas señales”, observó Anumanchipalli.

Para reconstruir el habla, en lugar de transformar las señales cerebrales directamente en señales de audio, los investigadores utilizaron un enfoque de dos etapas. Primero, diseñaron una red neuronal recurrente que decodificaba las señales neuronales en movimientos del tracto vocal. Luego, estos movimientos se usaron para sintetizar el habla.

“Demostramos que el uso de la actividad cerebral para controlar una versión simulada por ordenador del tracto vocal del participante nos permitió generar un discurso sintético con un sonido más natural y preciso que intentar extraer directamente los sonidos del habla del cerebro”, aclara Chang.

Para poner a punto el dispositivo los investigadores registraron la actividad de las áreas de la corteza del cerebro de cinco voluntarios que hablaban en voz alta. Y de allí analizaron las señales cerebrales que controlan los movimientos de los órganos comprometidos con el lenguaje y el sistema basado en la inteligencia artificial los convirtió en sonidos y palabras gracias a un sintetizador.

Para evaluar la claridad del habla sintetizada, los investigadores realizaron tareas de escucha basadas en la identificación de una sola palabra y la transcripción a nivel de oración. En la primera tarea, que evaluó 325 palabras, encontraron que los oyentes identificaban mejor las palabras a medida que aumentaba la longitud de la sílaba y el número de opciones de palabras (10, 25 o 50) disminuía, en consonancia con la percepción natural del habla.

El sistema es más prometedor respecto a los sintetizadores vocales actuales que utilizan los movimientos de la cabeza o de los ojos para controlar el curso de una computadora que selecciona las letras en modo de compilar una palabra.

Sin embargo, estos procesos son mucho más lentos del flujo normal del lenguaje cotidiano. Lo que implica que, para conseguir utilizar el decodificador en forma periódica, es necesario aún superar muchos desafíos.

Comentarios de Facebook