El desarrollo y la diversificación de una nueva tecnología de interfaz cerebro-computadora permitió a una mujer con parálisis grave y sin habla, comunicarse a través de un avatar digital que traduce señales cerebrales en habla modulada y expresiones faciales.
Científicos de la Universidad de California y de la Universidad de Berkeley desplegaron un dispositivo implantable impulsado por Inteligencia Artificial. Como resultado, Ann, que perdió la capacidad de hablar debido a un derrame cerebral pudo hacerlo e incluso, transmitir emociones utilizando un avatar digital parlante.
El avance genera esperanzas de que las interfaces cerebro-computadora transformen las vidas de las personas que han perdido la capacidad de hablar por accidentes cerebrovasculares o esclerosis lateral amiotrófica. Hasta ahora, los pacientes han tenido que depender de sintetizadores de voz frustrantemente lentos que implican deletrear palabras mediante seguimiento ocular o pequeños movimientos faciales que imposibilita una conversación natural.
La última tecnología utiliza pequeños electrodos implantados en la superficie del cerebro para detectar la actividad eléctrica en la parte que controla el habla y los movimientos faciales. Estas señales se traducen directamente en la voz y las expresiones faciales de un avatar digital, como sonreír, fruncir el ceño o sorprenderse.
«Nuestro objetivo es restaurar una forma de comunicación plena y encarnada, que es realmente la forma más natural de hablar con los demás. Nos acercamos a una solución real para los pacientes», afirmó el profesor Edward Chang, director del equipo de la Universidad de California.
Mujer con parálisis se comunica con avatar digital
Ann, una mujer de 47 años de edad, sufrió un derrame cerebral hace más de 18 años y perdió el control de todos los músculos de su cuerpo y ni siquiera podía respirar, logró comunicarse mediante un avatar digital. Su felicidad es inconmensurable.
Le tomó años de fisioterapia poder mover los músculos faciales para reír o llorar. Pero los que le habrían permitido hablar permanecieron inmóviles. “De la noche a la mañana me quitaron todo. Tenía una hija de 13 meses, un hijastro de 8 años y un matrimonio de 26 meses”, contó Ann mediante un dispositivo que le permite escribir con pequeños movimientos de su cabeza en la pantalla de una computadora. Durante los siguientes cinco años, Ann se acostó todas las noches con miedo de morir mientras dormía.
Hoy, Ann está ayudando a investigadores de UC San Francisco y UC Berkeley a desarrollar una nueva tecnología cerebro-computadora que permita que personas con parálisis grave se comuniquen de manera más natural a través de un avatar digital. Es la primera vez que a partir de señales cerebrales se sintetizan el habla o las expresiones faciales . El sistema también puede decodificar estas señales en texto a casi 80 palabras por minuto. Una gran mejora con respecto a las 14 palabras por minuto que ofrece su dispositivo actual.
Hablar a partir de señales cerebrales
Edward Chang, el presidente de cirugía neurológica de la UCSF, ha trabajado con interfaz cerebro-computadora durante más de una década. Desea que este último avance conduzca a un sistema aprobado por la FDA que permita el habla a partir de señales cerebrales.
Explicó que el equipo implantó un rectángulo delgado como un papel de 253 electrodos en la superficie del cerebro de Ann sobre una región crítica para el habla. Los electrodos interceptaron las señales cerebrales que, de no ser por el derrame cerebral, habrían controlado los músculos de la lengua, la mandíbula, la laringe y la cara.
Después de la implantación, Ann trabajó con el equipo para entrenar el algoritmo de inteligencia artificial del sistema para detectar sus señales cerebrales únicas para varios sonidos del habla repitiendo frases.
La computadora aprendió 39 sonidos distintivos y se utilizó un modelo de lenguaje estilo ChatGPT para traducir las señales en oraciones inteligibles. Luego se usó un avatar con una voz personalizada para que sonara como la voz de Ann antes de la lesión. Se partió de una grabación en la que ella habla en su boda.
La tecnología no era perfecta: decodificaba palabras incorrectamente el 28% de las veces. En una prueba que incluía más de 500 frases y generaba conversión de cerebro a texto a una velocidad de 78 palabras por minuto. En comparación con las 110 a 150 palabras que se pronuncian normalmente en una conversación natural.
Sin embargo, los científicos dijeron que los últimos avances en precisión, velocidad y sofisticación sugieren que la tecnología está ahora en un punto de ser útil a los pacientes.
Independencia e interacciones sociales
El profesor Nick Ramsey, neurocientífico de la Universidad de Utrecht en los Países Bajos, que no participó en la investigación, se mostró sorprendido por los logros. “Esto supone un gran salto con respecto a resultados anteriores”, dijo.
El siguiente paso crucial es crear una versión inalámbrica del BCI que pueda implantarse debajo del cráneo.
«Dar a las personas la capacidad de controlar libremente sus propias computadoras y teléfonos con esta tecnología tendría profundos efectos en su independencia e interacciones sociales», señaló David Moses, asistente de cirugía neurológica en la UCSF y coautor de la investigación.
Ann escribió: “Quiero que los pacientes me vean y sepan que su vida no ha terminado. Quiero mostrar que las discapacidades no tienen que detenernos ni frenarnos”.
Se enteró del estudio de Chang en 2021 después de leer sobre un hombre paralítico llamado Pancho, que ayudó al equipo a traducir sus señales cerebrales en texto mientras intentaba hablar. También había sufrido un derrame cerebral muchos años antes y no estaba claro si su cerebro todavía podía indicar los movimientos del habla.
No basta con pensar en algo. Una persona tiene que intentar hablar para que el sistema lo capte. Pancho se convirtió en la primera persona con parálisis en demostrar que era posible decodificar las señales del habla y el cerebro en palabras completas. Ahora con Ann, esta joven mujer con parálisis, ha logrado dar un paso adelante al comunicarse con su entorno a través de un avatar digital.