Un hito científico ha sido alcanzado por investigadores de la Universidad de California en Berkeley y San Francisco, quienes han desarrollado un innovador dispositivo capaz de decodificar la actividad cerebral asociada al habla y convertirla en palabras audibles casi en tiempo real. Este avance trascendental ha permitido que una mujer de 47 años, diagnosticada con tetraplejia y sin la capacidad de hablar durante 18 años, pudiera «volver a comunicarse» con el mundo.
El estudio, cuyos hallazgos fueron publicados este lunes en la prestigiosa revista Nature Neuroscience, aborda un desafío crucial en el campo de las neuroprótesis del habla: la latencia. Este término se refiere al tiempo que transcurre entre la intención de una persona de hablar y la producción real del sonido. El nuevo dispositivo logra minimizar significativamente este lapso, ofreciendo una comunicación mucho más fluida y natural.
Los científicos lograron este avance gracias a la aplicación de los últimos desarrollos en inteligencia artificial (IA). Desarrollaron un método de «transmisión» que sintetiza las señales cerebrales en habla audible de manera casi instantánea. «Nuestro enfoque de ‘streaming’ lleva la misma capacidad de decodificación rápida del habla de dispositivos como Alexa y Siri a las neuroprótesis», explicó Gopala Anumanchipalli, co-investigador principal del estudio. «Utilizando un tipo de algoritmo similar, descubrimos que podíamos decodificar datos neuronales y, por primera vez, hacer posible una transmisión de voz casi sincrónica. El resultado es una síntesis del habla más natural y fluida».
Para Edward Chang, otro de los científicos líderes del proyecto, esta tecnología representa un «enorme potencial» para mejorar la calidad de vida de individuos con parálisis severas que afectan su capacidad de comunicarse verbalmente. «Es emocionante que los últimos avances en IA estén acelerando enormemente las interfaces cerebro-ordenador para su uso práctico en el mundo real en un futuro próximo», afirmó Chang.
Como parte de un ensayo clínico, los equipos de Chang y Anumanchipalli implantaron la interfaz cerebro-computadora en una mujer de 47 años, identificada como Ann, quien sufría de tetraplejia desde hacía 18 años tras un accidente cerebrovascular que le impidió hablar o emitir sonidos.
Para entrenar el algoritmo de IA, los investigadores pidieron a Ann que observara indicaciones en una pantalla, como la frase «¿hola, cómo estás?», y que intentara pronunciarla mentalmente. Durante este proceso, se registró su actividad cerebral a través de electrodos implantados sobre su corteza sensomotora del habla. Los datos recopilados se utilizaron para entrenar una red neuronal de aprendizaje profundo, utilizando la actividad cerebral de Ann mientras «decía» internamente frases completas que abarcaban un vocabulario de 1.024 palabras únicas.
Posteriormente, este modelo entrenado se empleó para decodificar el habla en tiempo real, simultáneamente con la intención vocal de Ann. El sistema incluso fue capaz de producir audio imitando la voz de Ann, gracias a un clip de audio grabado antes de su lesión.
Cheol Jun Cho, otro de los autores del estudio, detalló el funcionamiento de la neuroprótesis: «Básicamente interceptamos las señales en las que el pensamiento se traduce en articulación (…). Así que lo que estamos descodificando es después de que se haya producido un pensamiento, después de que hayamos decidido qué decir, después de que hayamos decidido qué palabras utilizar y cómo mover los músculos del tracto vocal».
En investigaciones previas sobre dispositivos similares, el equipo había enfrentado el desafío de una significativa latencia en la decodificación, llegando a ser de unos 8 segundos para una sola frase. Sin embargo, con el nuevo método de «streaming», la salida audible se genera casi al instante en que el sujeto intenta hablar, según un comunicado de la Facultad de Ingeniería de la Universidad de California en Berkeley.
Tal vez te gustaría leer: Morena pospone discusión de reformas de seguridad e inteligencia para “no violar derechos humanos”, dice Monreal
Para verificar que el sistema no se limitaba a repetir patrones aprendidos durante el entrenamiento, los investigadores probaron su capacidad para sintetizar palabras que no formaban parte del vocabulario inicial. Utilizaron 26 palabras del alfabeto fonético de la OTAN, como «alpha» o «bravo». «Descubrimos que nuestro modelo lo hace bien, lo que demuestra que, efectivamente, está aprendiendo los componentes básicos del sonido o la voz», concluyó Anumanchipalli, resaltando el potencial de esta tecnología para transformar la vida de personas con graves dificultades de comunicación.
Con información de Milenio