Los implantes cerebrales que ayudan a hablar a las personas paralizadas acaban de batir nuevos récords

0

Dos nuevos estudios muestran que los dispositivos impulsados ​​por IA pueden ayudar a las personas paralizadas a comunicarse de forma más rápida y precisa.


Un investigador conecta un pedestal en la cabeza de un voluntario del estudio a una computadora externa. El pedestal está conectado a electrodos que descansan sobre la superficie del cerebro. FOTOGRAFÍA: NOAH BERG/UCSF

LA PARÁLISIS HABÍA ROBADO a las dos mujeres de su capacidad de hablar. Por un lado, la causa fue la esclerosis lateral amiotrófica o ELA, una enfermedad que afecta las neuronas motoras. La otra había sufrido un derrame cerebral en el tronco del encéfalo. Aunque no pueden enunciar claramente, recuerdan cómo formular palabras.

Ahora, después de ofrecerse como voluntarios para recibir implantes cerebrales, ambos pueden comunicarse a través de una computadora a una velocidad cercana al ritmo de una conversación normal. Al analizar la actividad neuronal asociada con los movimientos faciales involucrados al hablar, los dispositivos decodifican el discurso previsto a una velocidad de 62 y 78 palabras por minuto, respectivamente, varias veces más rápido que el récord anterior. Sus casos se detallan en dos artículos publicados el miércoles por equipos separados en la revista Nature .

"Ahora es posible imaginar un futuro en el que podamos restaurar una conversación fluida en alguien con parálisis, permitiéndole decir libremente lo que quiera con una precisión lo suficientemente alta como para que se entienda de manera confiable", dijo Frank Willett, científico investigador de Stanford. Laboratorio Traslacional de Prótesis Neurales de la Universidad, durante una conferencia de prensa el martes. Willett es autor de un artículo elaborado por investigadores de Stanford; el otro fue publicado por un equipo de la UC San Francisco.

Si bien es más lento que el ritmo de conversación natural de aproximadamente 160 palabras por minuto entre angloparlantes, los científicos dicen que es un paso emocionante hacia la restauración del habla en tiempo real utilizando una interfaz cerebro-computadora, o BCI. "Está cada vez más cerca de utilizarse en la vida cotidiana", afirma Marc Slutzky, neurólogo de la Universidad Northwestern que no participó en los nuevos estudios.

Un BCI recopila y analiza señales cerebrales y luego las traduce en comandos que debe ejecutar un dispositivo externo. Estos sistemas han permitido a personas paralizadas controlar brazos robóticos , jugar videojuegos y enviar correos electrónicos con la mente. Investigaciones anteriores realizadas por los dos grupos demostraron que era posible traducir el discurso previsto de una persona paralizada a texto en una pantalla, pero con velocidad, precisión y vocabulario limitados.

En el estudio de Stanford, los investigadores desarrollaron un BCI que utiliza la matriz Utah, un pequeño sensor cuadrado que parece un cepillo para el cabello con 64 cerdas en forma de agujas. Cada uno tiene un electrodo en la punta y juntos recopilan la actividad de las neuronas individuales. Luego, los investigadores entrenaron una red neuronal artificial para decodificar la actividad cerebral y traducirla en palabras que se muestran en una pantalla.

Paul Bennett, a la derecha, que está paralizada por ELA, ayuda a los investigadores de la universidad de Stanford a entrenar una IA que pueda traducir el habla que pretende expresar sonidos. FOTOGRAFÍA: STEVE FICH/UNIVERSIDAD DE STANFORD

Probaron el sistema en el voluntario Pat Bennett, el paciente de ELA, que ahora tiene 68 años. En marzo de 2022, un cirujano insertó cuatro de estos pequeños sensores en la corteza cerebral de Bennett, la capa más externa del cerebro. Cables delgados conectan los conjuntos a pedestales encima de su cabeza, que se pueden conectar a una computadora mediante cables.

En el transcurso de cuatro meses, los científicos entrenaron el software pidiéndole a Bennett que intentara decir oraciones en voz alta. (Bennett todavía puede producir sonidos, pero su habla es ininteligible). Con el tiempo, el software aprendió por sí solo a reconocer las distintas señales neuronales asociadas con los movimientos de los labios, la mandíbula y la lengua que ella hacía para producir diferentes sonidos. A partir de ahí, aprendió la actividad neuronal que corresponde a los movimientos utilizados para crear los sonidos que forman las palabras. Luego pudo predecir secuencias de esas palabras y unir oraciones en la pantalla de una computadora.

Con la ayuda del dispositivo, Bennett pudo comunicarse a una velocidad promedio de 62 palabras por minuto. El BCI cometió errores el 23,8 por ciento de las veces en un vocabulario de 125.000 palabras. El récord anterior era de solo 18 palabras por minuto, un récord establecido en 2021, cuando miembros del equipo de Stanford publicaron un artículo que describía un BCI que convertía la escritura imaginada de una persona paralizada en texto en una pantalla.

En el segundo artículo, los investigadores de la UCSF construyeron un BCI utilizando una matriz que se encuentra en la superficie del cerebro en lugar de dentro de él. Un rectángulo delgado como un papel tachonado con 253 electrodos, detecta la actividad de muchas neuronas en la corteza del habla. Colocaron esta matriz en el cerebro de una paciente con accidente cerebrovascular llamada Ann y entrenaron un modelo de aprendizaje profundo para descifrar los datos neuronales que recopilaba mientras movía los labios sin emitir sonidos. Durante varias semanas, Ann repitió frases de un vocabulario conversacional de 1.024 palabras.

Al igual que la IA de Stanford, el algoritmo del equipo de la UCSF fue entrenado para reconocer las unidades más pequeñas del lenguaje, llamadas fonemas, en lugar de palabras completas. Al final, el software pudo traducir el discurso previsto por Ann a una velocidad de 78 palabras por minuto, mucho mejor que las 14 palabras por minuto a las que estaba acostumbrada en su dispositivo de comunicación de tipo mecanografiado. Su tasa de error fue del 4,9 por ciento al decodificar oraciones de un conjunto de 50 frases, y las simulaciones estimaron una tasa de error de palabras del 28 por ciento utilizando un vocabulario de más de 39.000 palabras.

El grupo de la UCSF, dirigido por el neurocirujano Edward Chang, había utilizado previamente una matriz de superficie similar con menos electrodos para traducir el discurso de un hombre paralizado en texto en una pantalla. Su récord había sido de unas 15 palabras por minuto. Su BCI actual no sólo es más rápido, sino que va un paso más allá al convertir las señales cerebrales de Ann en un habla audible expresada por una computadora.

Los investigadores crearon un "avatar digital" para transmitir en voz alta el discurso previsto por Ann. Personalizaron a una mujer animada para que tuviera cabello castaño como el de Ann y usaron imágenes de video de su boda para hacer que la voz del avatar sonara como la de ella. "Nuestra voz y nuestras expresiones son parte de nuestra identidad, por lo que queríamos incorporar un discurso protésico que pudiera hacerlo más natural, fluido y expresivo", dijo Chang durante la conferencia de prensa del martes. Él cree que el trabajo de su equipo podría eventualmente permitir que las personas con parálisis tengan interacciones más personalizadas con sus familiares y amigos.

Ann, una sobreviviente de una derrame cerebral, puede comunicarse  usando un avatar digital que 
decodifica su discruso previsto. FOTOGRAFÍA: NOAH BERGER/UCSF

Hay compensaciones en los enfoques de ambos grupos. Los electrodos implantados, como los que utilizó el equipo de Stanford, registran la actividad de neuronas individuales, lo que tiende a proporcionar información más detallada que un registro de la superficie del cerebro. Pero también son menos estables porque los electrodos implantados se desplazan en el cerebro. Incluso un movimiento de uno o dos milímetros provoca cambios en la actividad registrada. "Es difícil grabar desde las mismas neuronas durante semanas seguidas, y mucho menos meses o años seguidos", dice Slutzky. Y con el tiempo, se forma tejido cicatricial alrededor del sitio de un electrodo implantado, lo que también puede afectar la calidad de una grabación.

Por otro lado, una matriz de superficie captura la actividad cerebral menos detallada pero cubre un área más grande. Las señales que registra son más estables que los picos de neuronas individuales, ya que se derivan de miles de neuronas, dice Slutzky.

Durante la sesión informativa, Willett dijo que la tecnología actual es limitada debido a la cantidad de electrodos que se pueden colocar de forma segura en el cerebro a la vez. "Al igual que una cámara con más píxeles produce una imagen más nítida, el uso de más electrodos nos dará una imagen más clara de lo que sucede en el cerebro", dijo.

Leigh Hochberg, neuróloga del Hospital General de Massachusetts y de la Universidad de Brown que trabajó con el grupo de Stanford, dice que hace 10 años pocas personas habrían imaginado que algún día sería posible decodificar los intentos de habla de una persona simplemente registrando su actividad cerebral. "Quiero poder decirles a mis pacientes con ELA, accidente cerebrovascular del tronco encefálico u otras formas de enfermedad o lesión neurológica, que podemos restaurar su capacidad para comunicarse de manera fácil, intuitiva y rápida", dice Hochberg.

Aunque siguen siendo más lentos que el habla típica, estos nuevos BCI son más rápidos que los sistemas de comunicación aumentativos y alternativos existentes, escribe Betts Peters, logopeda de la Universidad de Ciencias y Salud de Oregón. Estos sistemas requieren que los usuarios escriban o seleccionen mensajes usando los dedos o la mirada. "Poder seguir el ritmo de la conversación podría ser un enorme beneficio para muchas personas con problemas de comunicación, ya que les facilitaría la participación plena en todos los aspectos de la vida", dijo a WIRED por correo electrónico.

Reseña: En dos estudios publicados en la revista Nature, investigadores de la Universidad de Stanford y la Universidad de California, San Francisco, demostraron que los dispositivos impulsados ​​por IA pueden ayudar a las personas paralizadas a comunicarse de forma más rápida y precisa.

En el estudio de Stanford, los investigadores desarrollaron un dispositivo llamado BCI (interfaz cerebro-computadora) que utiliza un sensor llamado matriz Utah. Este sensor se implanta en el cerebro y recopila la actividad neuronal asociada con los movimientos faciales involucrados al hablar. Los investigadores entrenaron un modelo de aprendizaje automático para decodificar esta actividad neuronal y traducirla en palabras en una pantalla.

En el estudio de la UCSF, los investigadores desarrollaron un dispositivo similar llamado BCI que utiliza una matriz de superficie. Esta matriz se coloca en la superficie del cerebro y recopila la actividad neuronal de una zona más amplia. Los investigadores entrenaron un modelo de aprendizaje automático para decodificar esta actividad neuronal y traducirla en palabras en una pantalla.

En ambos estudios, los dispositivos permitieron a las personas paralizadas comunicarse a velocidades de hasta 78 palabras por minuto. Esto es mucho más rápido que los sistemas de comunicación existentes, que suelen tener velocidades de entre 10 y 20 palabras por minuto.

Los investigadores creen que estos dispositivos tienen el potencial de revolucionar la forma en que las personas paralizadas se comunican. Los dispositivos podrían permitirles participar más plenamente en la sociedad y mantener relaciones más cercanas con sus seres queridos.


Fecha en que fue consultada: 24/08/2023 | Fecha de publicación: 24/08/2023

Sin comentarios