Dos nuevos estudios muestran que los dispositivos impulsados por IA pueden ayudar a las personas paralizadas a comunicarse de forma más rápida y precisa.
LA PARÁLISIS HABÍA ROBADO
a las dos mujeres de su capacidad de hablar. Por un lado, la causa fue la
esclerosis lateral amiotrófica o ELA, una enfermedad que afecta las neuronas motoras. La otra había sufrido
un
derrame cerebral en el tronco del encéfalo. Aunque no pueden enunciar claramente, recuerdan cómo formular
palabras.
Ahora, después de ofrecerse como voluntarios
para
recibir implantes cerebrales, ambos pueden comunicarse a través de una computadora a una velocidad cercana
al
ritmo de una conversación normal. Al analizar la actividad neuronal asociada con los movimientos faciales
involucrados al hablar, los dispositivos decodifican el discurso previsto a una velocidad de 62 y 78
palabras
por minuto, respectivamente, varias veces más rápido que el récord anterior. Sus casos se detallan en dos
artículos publicados el miércoles por equipos separados en la revista Nature .
"Ahora es posible imaginar un futuro en el que
podamos restaurar una conversación fluida en alguien con parálisis, permitiéndole decir libremente lo que
quiera
con una precisión lo suficientemente alta como para que se entienda de manera confiable", dijo Frank
Willett,
científico investigador de Stanford. Laboratorio Traslacional de Prótesis Neurales de la Universidad,
durante
una conferencia de prensa el martes. Willett es autor de un artículo elaborado por investigadores
de
Stanford; el otro fue publicado por un
equipo
de la UC San Francisco.
Si bien es más lento que el ritmo de
conversación
natural de aproximadamente 160 palabras por minuto entre angloparlantes, los científicos dicen que es un
paso
emocionante hacia la restauración del habla en tiempo real utilizando una interfaz cerebro-computadora, o
BCI.
"Está cada vez más cerca de utilizarse en la vida cotidiana", afirma Marc Slutzky, neurólogo de la
Universidad
Northwestern que no participó en los nuevos estudios.
Un BCI recopila y analiza señales cerebrales y
luego las traduce en comandos que debe ejecutar un dispositivo externo. Estos sistemas han permitido a
personas
paralizadas controlar
brazos robóticos , jugar
videojuegos y enviar correos electrónicos con la mente. Investigaciones anteriores realizadas por
los
dos grupos demostraron que era posible traducir el discurso previsto de una persona paralizada a texto en
una
pantalla, pero con velocidad, precisión y vocabulario limitados.
En el estudio de Stanford, los investigadores
desarrollaron un BCI que utiliza la matriz Utah, un pequeño sensor cuadrado que parece un cepillo para el
cabello con 64 cerdas en forma de agujas. Cada uno tiene un electrodo en la punta y juntos recopilan la
actividad de las neuronas individuales. Luego, los investigadores entrenaron una red neuronal artificial
para
decodificar la actividad cerebral y traducirla en palabras que se muestran en una pantalla.
Probaron el sistema en el voluntario Pat
Bennett,
el paciente de ELA, que ahora tiene 68 años. En marzo de 2022, un cirujano insertó cuatro de estos pequeños
sensores en la corteza cerebral de Bennett, la capa más externa del cerebro. Cables delgados conectan los
conjuntos a pedestales encima de su cabeza, que se pueden conectar a una computadora mediante cables.
En el transcurso de cuatro meses, los
científicos
entrenaron el software pidiéndole a Bennett que intentara decir oraciones en voz alta. (Bennett todavía
puede
producir sonidos, pero su habla es ininteligible). Con el tiempo, el software aprendió por sí solo a
reconocer
las distintas señales neuronales asociadas con los movimientos de los labios, la mandíbula y la lengua que
ella
hacía para producir diferentes sonidos. A partir de ahí, aprendió la actividad neuronal que corresponde a
los
movimientos utilizados para crear los sonidos que forman las palabras. Luego pudo predecir secuencias de
esas
palabras y unir oraciones en la pantalla de una computadora.
Con la ayuda del dispositivo, Bennett pudo
comunicarse a una velocidad promedio de 62 palabras por minuto. El BCI cometió errores el 23,8 por ciento de
las
veces en un vocabulario de 125.000 palabras. El récord anterior era de solo 18 palabras por minuto, un
récord
establecido en 2021, cuando miembros del equipo de Stanford publicaron un artículo que describía un
BCI
que convertía la escritura imaginada de una persona paralizada en texto en una pantalla.
En el segundo artículo, los investigadores de
la
UCSF construyeron un BCI utilizando una matriz que se encuentra en la superficie del cerebro en lugar de
dentro
de él. Un rectángulo delgado como un papel tachonado con 253 electrodos, detecta la actividad de muchas
neuronas
en la corteza del habla. Colocaron esta matriz en el cerebro de una paciente con accidente cerebrovascular
llamada Ann y entrenaron un modelo de aprendizaje profundo para descifrar los datos neuronales que
recopilaba
mientras movía los labios sin emitir sonidos. Durante varias semanas, Ann repitió frases de un vocabulario
conversacional de 1.024 palabras.
Al igual que la IA de Stanford, el algoritmo
del
equipo de la UCSF fue entrenado para reconocer las unidades más pequeñas del lenguaje, llamadas fonemas, en
lugar de palabras completas. Al final, el software pudo traducir el discurso previsto por Ann a una
velocidad de
78 palabras por minuto, mucho mejor que las 14 palabras por minuto a las que estaba acostumbrada en su
dispositivo de comunicación de tipo mecanografiado. Su tasa de error fue del 4,9 por ciento al decodificar
oraciones de un conjunto de 50 frases, y las simulaciones estimaron una tasa de error de palabras del 28 por
ciento utilizando un vocabulario de más de 39.000 palabras.
El grupo de la UCSF, dirigido por el
neurocirujano
Edward Chang, había utilizado previamente una matriz de superficie similar con menos electrodos para traducir el discurso de un hombre
paralizado
en texto en una pantalla. Su récord había sido de unas 15 palabras por minuto. Su BCI actual no sólo es más
rápido, sino que va un paso más allá al convertir las señales cerebrales de Ann en un habla audible
expresada
por una computadora.
Los investigadores crearon un "avatar digital"
para transmitir en voz alta el discurso previsto por Ann. Personalizaron a una mujer animada para que
tuviera
cabello castaño como el de Ann y usaron imágenes de video de su boda para hacer que la voz del avatar sonara
como la de ella. "Nuestra voz y nuestras expresiones son parte de nuestra identidad, por lo que queríamos
incorporar un discurso protésico que pudiera hacerlo más natural, fluido y expresivo", dijo Chang durante la
conferencia de prensa del martes. Él cree que el trabajo de su equipo podría eventualmente permitir que las
personas con parálisis tengan interacciones más personalizadas con sus familiares y amigos.
Ann, una
sobreviviente de una derrame cerebral, puede comunicarse usando un avatar
digital que
decodifica
su
discruso previsto. FOTOGRAFÍA: NOAH BERGER/UCSF
|
Hay compensaciones en los enfoques de ambos
grupos. Los electrodos implantados, como los que utilizó el equipo de Stanford, registran la actividad de
neuronas individuales, lo que tiende a proporcionar información más detallada que un registro de la
superficie
del cerebro. Pero también son menos estables porque los electrodos implantados se desplazan en el cerebro.
Incluso un movimiento de uno o dos milímetros provoca cambios en la actividad registrada. "Es difícil grabar
desde las mismas neuronas durante semanas seguidas, y mucho menos meses o años seguidos", dice Slutzky. Y
con el
tiempo, se forma tejido cicatricial alrededor del sitio de un electrodo implantado, lo que también puede
afectar
la calidad de una grabación.
Por otro lado, una matriz de superficie
captura la
actividad cerebral menos detallada pero cubre un área más grande. Las señales que registra son más estables
que
los picos de neuronas individuales, ya que se derivan de miles de neuronas, dice Slutzky.
Durante la sesión informativa, Willett dijo
que la
tecnología actual es limitada debido a la cantidad de electrodos que se pueden colocar de forma segura en el
cerebro a la vez. "Al igual que una cámara con más píxeles produce una imagen más nítida, el uso de más
electrodos nos dará una imagen más clara de lo que sucede en el cerebro", dijo.
Leigh Hochberg, neuróloga del Hospital General
de
Massachusetts y de la Universidad de Brown que trabajó con el grupo de Stanford, dice que hace 10 años pocas
personas habrían imaginado que algún día sería posible decodificar los intentos de habla de una persona
simplemente registrando su actividad cerebral. "Quiero poder decirles a mis pacientes con ELA, accidente
cerebrovascular del tronco encefálico u otras formas de enfermedad o lesión neurológica, que podemos
restaurar
su capacidad para comunicarse de manera fácil, intuitiva y rápida", dice Hochberg.
Aunque siguen siendo más lentos que el habla
típica, estos nuevos BCI son más rápidos que los sistemas de comunicación aumentativos y alternativos
existentes, escribe Betts Peters, logopeda de la Universidad de Ciencias y Salud de Oregón. Estos sistemas
requieren que los usuarios escriban o seleccionen mensajes usando los dedos o la mirada. "Poder seguir el
ritmo
de la conversación podría ser un enorme beneficio para muchas personas con problemas de comunicación, ya que
les
facilitaría la participación plena en todos los aspectos de la vida", dijo a WIRED por correo
electrónico.
Reseña: En dos estudios
publicados
en la revista Nature, investigadores de la Universidad de Stanford y la Universidad de California, San
Francisco, demostraron que los dispositivos impulsados por IA pueden ayudar a las personas paralizadas
a
comunicarse de forma más rápida y precisa.
En el estudio de Stanford, los
investigadores
desarrollaron un dispositivo llamado BCI (interfaz cerebro-computadora) que utiliza un sensor llamado
matriz
Utah. Este sensor se implanta en el cerebro y recopila la actividad neuronal asociada con los
movimientos
faciales involucrados al hablar. Los investigadores entrenaron un modelo de aprendizaje automático para
decodificar esta actividad neuronal y traducirla en palabras en una pantalla.
En el estudio de la UCSF, los
investigadores
desarrollaron un dispositivo similar llamado BCI que utiliza una matriz de superficie. Esta matriz se
coloca
en la superficie del cerebro y recopila la actividad neuronal de una zona más amplia. Los investigadores
entrenaron un modelo de aprendizaje automático para decodificar esta actividad neuronal y traducirla en
palabras en una pantalla.
En ambos estudios, los dispositivos
permitieron a las personas paralizadas comunicarse a velocidades de hasta 78 palabras por minuto. Esto
es
mucho más rápido que los sistemas de comunicación existentes, que suelen tener velocidades de entre 10 y
20
palabras por minuto.
Los investigadores creen que estos
dispositivos tienen el potencial de revolucionar la forma en que las personas paralizadas se comunican.
Los
dispositivos podrían permitirles participar más plenamente en la sociedad y mantener relaciones más
cercanas
con sus seres queridos.
Fuente: https://www.wired.com/story/brain-implants-that-help-paralyzed-people-speak-just-broke-new-records/
Fecha en que fue consultada: 24/08/2023
|
Fecha de publicación: 24/08/2023