A los 30 años, una mujer identificada como Ann, sufrió un derrame cerebral que la dejó gravemente paralizada. Esto le ocasionó la pérdida del control de todos los músculos de su cuerpo y ni siquiera podía respirar. El accidente se produjo de repente una tarde, por razones que aún se desconocen.
Durante los cinco años siguientes, la mujer se acostaba todas las noches con miedo de morir mientras dormía. Tuvo que hacer fisioterapia durante años antes de poder mover los músculos faciales lo suficiente como para reír o llorar. Aun así, los músculos que le habrían permitido hablar permanecieron inmóviles. «De la noche a la mañana, me arrebataron todo», escribió Ann, usando un dispositivo que le permite escribir lentamente en la pantalla de una computadora con pequeños movimientos de la cabeza. «Tenía una hija de 13 meses, un hijastro de 8 años y un matrimonio de 26 meses».
La intervención de la paciente que recuperó el habla
En la actualidad, Ann está ayudando a investigadores de la Universidad de California en San Francisco y de la Universidad de California en Berkeley a desarrollar una nueva tecnología cerebro-computadora que algún día podría permitir a personas como ella comunicarse de forma más natural a través de un avatar digital que se parezca a una persona.
Es la primera vez que se sintetizan expresiones faciales o de voz a partir de señales cerebrales. El sistema también es capaz de decodificar estas señales en texto a una velocidad de casi 80 palabras por minuto, una gran mejora con respecto a las 14 palabras por minuto que emite su dispositivo de comunicación actual.
Edward Chang, MD, presidente de cirugía neurológica en la UCSF, quien trabajó en la tecnología, conocida como interfaz cerebro-computadora, o BCI, durante más de una década, espera que este último avance de investigación, publicado el 23 de agosto de 2023 en Nature, conduzca a un sistema aprobado por la FDA que permita el habla a partir de señales cerebrales en un futuro cercano.
«Nuestro objetivo es recuperar una forma de comunicación plena y corporal, que es la forma más natural de hablar con los demás», afirmó Chang, miembro del Instituto Weill de Neurociencias de la UCSF y profesor distinguido de la cátedra Jeanne Robertson. «Estos avances nos acercan mucho más a convertir esto en una solución real para los pacientes«.
En esta línea, el equipo implantó un rectángulo del grosor de un papel con 253 electrodos en la superficie del cerebro de Ann, sobre zonas que habían descubierto previamente que eran fundamentales para el habla. Los electrodos interceptaban las señales cerebrales que, de no haber sido por el derrame cerebral, habrían ido a los músculos de los labios, la lengua, la mandíbula y la laringe de Ann, así como a su cara. Un cable, enchufado a un puerto fijado a la cabeza de Ann, conectaba los electrodos a un banco de ordenadores.
Durante semanas, Ann trabajó con el equipo para entrenar los algoritmos de inteligencia artificial del sistema para que reconocieran sus señales cerebrales únicas para el habla. Esto conistió repetir diferentes frases de un vocabulario conversacional de 1024 palabras una y otra vez hasta que la computadora reconoció los patrones de actividad cerebral asociados con todos los sonidos básicos del habla.
«Fue emocionante verla pasar de ‘Vamos a intentar hacer esto’ a ver que sucedía más rápido de lo que nadie hubiera pensado», señaló Bill, el esposo de Ann quien viajó con ella desde Canadá para estar con ella durante el estudio. «Parece que se están presionando mutuamente para ver hasta dónde pueden llegar con esto».
En lugar de entrenar a la inteligencia artificial para que reconozca palabras completas, los investigadores crearon un sistema que decodifica las palabras a partir de componentes más pequeños llamados fonemas. Se trata de las subunidades del habla que forman las palabras habladas de la misma manera que las letras forman las palabras escritas. «Hola«, por ejemplo, contiene cuatro fonemas: «HH», «AH», «L» y «OW».
Con este método, la computadora solo necesitaba aprender 39 fonemas para descifrar cualquier palabra en inglés, lo que mejoró la precisión del sistema y lo hizo tres veces más rápido. «La precisión, la velocidad y el vocabulario son cruciales», resaltó Sean Metzger, quien desarrolló el decodificador de texto con Alex Silva, ambos estudiantes de posgrado en el Programa conjunto de Bioingeniería de la UC Berkeley y la UCSF. «Es lo que le da a Ann el potencial, con el tiempo, de comunicarse casi tan rápido como nosotros y de tener conversaciones mucho más naturales y normales», concluyó.