Llave para salir de la prisión de la ELA

Compartir

Un grupo de la Universidad de Málaga (UMA) diseña un sistema cerebro-computador que facilita la comunicación a enfermos de ELA y vence al conocido como síndrome de enclaustramiento.

El habla y la capacidad para comunicarse son dos capacidades que distinguen a los seres humanos del resto de las especies que pueblan la Tierra.

Las personas son comunicación, sin embargo hay enfermedades que atenúan o hacen que esta habilidad desaparezca por completo, para sumir a quien lo padece en un estado que los expertos denominan Síndrome de Enclaustramiento.

Síndrome de Enclaustramiento, consecuencia de la ELA

La pérdida de la capacidad para hablar o para comunicarse de cualquier otra forma sume a la persona en un vacío enorme, en una tortura sin igual que la deshumaniza y la condena a un aislamiento del que es muy difícil salir.

De ahí que grupos de investigación de todo el mundo trabajen en el desarrollo de sistemas para garantizar la capacidad para comunicarse a personas afectadas, por ejemplo, por enfermedades tan terribles como la Esclerosis Lateral Amiotrófica (ELA), un mal neuromuscular que cada año, en España, suma 900 nuevos casos.

El equipo UMA-BCI perteneciente al grupo de investigación DIANA (Diseño de Interfaces Avanzados), de la Universidad de Málaga, es uno de estos equipos científicos empeñados en ‘devolver el habla’ y sacar de su aislamiento a todas aquellas personas que están en una fase avanzada de la ELA y que han perdido la capacidad para comunicarse.

Interfaces de comunicación para personas enfermas

Este equipo, liderado por Ricardo Ron, lleva desde 2008 encadenando proyectos de investigación, en los que exploran interfaces de comunicación cerebro-computadora, cuyas aplicaciones van encaminadas a facilitar la vida de estas personas y permitirles recuperar algo de la normalidad que les ha arrebatado esta terrible enfermedad.

Buscan fórmulas para favorecer la comunicación, accionar mecanismos en un entorno domótico o, incluso, permitir cierta movilidad accionando una silla de ruedas eléctrica mediante el pensamiento. Son posibilidades que, hasta hace relativamente poco tiempo parecían pertenecer a la ciencia ficción, que hoy en día son posibles, y además, a un coste reducido.

UMA-BCI Speller, para pacientes de ELA

Una de sus últimas aportaciones ha sido la aplicación UMA-BCI-Speller, que es capaz de interpretar las reacciones del cerebro ante estímulos visuales en forma de letras o dibujos, con los que construye mensajes emitidos a través de un sintetizador de voz.

Se trata de un trabajo enmarcado en el Proyecto SICSE, financiado por INDRA S.A y la fundación Universia, y en el Proyecto LiCOM (Locked-in Communication), financiado por el Ministerio de Economía y Competitividad y la Unión Europea, que cuenta también con la participación de investigadores de la Universidad de Burdeos (Francia).

Muchos pensarán que eso ya existía y que personas tan conocidas como el físico Stephen Hawking, fallecido en 2018 a causa de la ELA, contaba con uno. Pero el equipo de la Universidad de Málaga ha sido capaz de construir un sistema mucho más barato, cuyo coste ronda los mil euros, para que puedan acceder a él el mayor número de enfermos de ELA posible.

Basado en las reacciones cerebrales

Y a diferencia del que empleaba el famoso científico, éste funciona a partir de las reacciones cerebrales ante estímulos visuales, ya que está dirigido a personas que incluso han perdido la capacidad de mover los ojos.

“Hay sistemas que sí detectan la mirada de un paciente, pero son diferentes al nuestro, ya que se basan en un movimiento del ojo. Pero cuando los pacientes llegan a perder la movilidad ocular ya no pueden utilizarlos. La alternativa que les queda, estamos hablando de personas totalmente paralizadas, es controlar un sistema a través de la actividad cerebral”, explica Ricardo Ron.

El equipo consta de un sistema para leer las señales electroencefalográficas, es decir, los impulsos eléctricos generados por el cerebro ante determinados estímulos; un equipo que amplifica esas señales y las envía al ordenador; y un programa informático que han creado ellos mismos, que supone la base fundamental de este proyecto y que puede descargarse de forma gratuita desde la web del Proyecto LiCOM.

Esta aplicación se basa en la plataforma BCI2000, a la que se añade una interfaz gráfica de usuario que facilita enormemente su configuración. De esta forma, los investigadores de la Universidad de Málaga han conseguido un equipo con un funcionamiento sencillo, con muchas opciones y fácilmente configurable.

Listo para usar en 15 minutos

Uno de los grandes avances de este sistema es su calibración sencilla. Bastan apenas diez o quince minutos, para que el equipo aprenda cómo son las señales cerebrales del usuario y sepa interpretarlas.

El funcionamiento de este equipo es relativamente simple, aunque detrás de todo ello ha habido años de trabajo. El sistema presenta letras en pantalla, que van parpadeando de manera aleatoria.

“Entonces, el sujeto cuenta mentalmente el número de veces que se ilumina una en concreto, la que desea seleccionar”, lo que provoca que se generen una serie de impulsos eléctricos, “un cambio en la actividad cerebral” que registran los electrodos. Por tanto, no se trata de adivinar el pensamiento, sino de interpretar las señales producidas ante unos estímulos determinados de antemano.

Letras, pictogramas y lo que se quiera más

UMA-BCI-Speller está configurada para que aparezcan letras y algunos pictogramas, pero se puede ampliar mucho más, para que un usuario tenga unas posibilidades de comunicación mayores.

Hay que tener en cuenta, dice Ricardo Ron, que está pensado para personas que tienen nulas capacidades de comunicación y para las que poder pedir un vaso de agua, por ejemplo, o simplemente decir ‘sí’ o ‘no’ ya les supone un avance extraordinario.

Un estímulo para una tarea concreta

“Se puede llegar a donde queramos, simplemente sería diseñar un estímulo para una tarea concreta. Todo depende de lo que se quiera ejecutar. Pero hablamos de personas totalmente paralizadas, a las que tenemos que ofrecerles una posibilidad de comunicación básica y también se le puede dar un sistema de control para realizar tareas sencillas, como una llamada de teléfono… son personas con una discapacidad muy alta, y no tiene sentido programar el sistema para arrancar un coche”, afirma el investigador malagueño.

Sin embargo, se está lejos de facilitar una conversación más o menos normal, debido a la cantidad de tiempo que se emplearía en la respuesta. Aunque también es cuestión de investigar más, de buscar más posibilidades para este sistema de comunicación para aquellas personas condenadas a vivir a espaldas del mundo que les rodea.

Plantillas y pictogramas personalizados

El siguiente paso lo están dando en el marco del proyecto SICCAU, en el que están ampliando las posibilidades de su aplicación, con nuevas estrategias de predicción de texto y técnicas que faciliten que los usuarios generen sus propias plantillas de imágenes y pictogramas.

El grupo de la Universidad de Málaga se ha encargado solamente de diseñar la aplicación informática y no tanto del desarrollo del resto de los componentes del sistema. “Como hay mucha oferta, decidimos que no merecía la pena crear un equipo nuevo, por eso hicimos un estudio sobre los productos que hay en el mercado, para ver cuál funciona mejor y tiene un coste reducido. Y hemos adaptado nuestro sistema a uno de ellos, cuyo precio ronda los mil euros”. Un precio muy inferior al que ellos emplean en el laboratorio, cuyo coste está estimado en unos 30.000.

Leer la mente de los usuarios

DIANA trabaja también en otros sistemas de comunicación cerebro-computador mucho más complejos, que van más allá de la traducción de un estímulo. En este caso sí se puede afirmar que trabajan en ‘leer la mente’ de los usuarios, aunque por ahora, la complejidad de este sistema lo limita a ejecutar tareas muy acotadas.

“Cuando una persona imagina hacer una operación matemática o mover una mano… esos pensamientos producen unos cambios de actividad cerebral que pueden ser registrados en una computadora”, aclara Ricardo Ron. Lo que ocurre es que, aparte de la complejidad del sistema, se necesita un entrenamiento del usuario muy tedioso, que puede ser de horas o, incluso, días.

Por el momento, han conseguido mover una silla de ruedas mediante el pensamiento, con comandos muy sencillo: adelante, atrás, izquierda y derecha. De momento es poco, pero los primeros pasos ya están dados y es cuestión de investigar más en este campo para lograr equipos que mejoren la calidad de vida de estas personas.

Estos sistemas de interfaz cerebro-computador están todavía en sus primeros desarrollos, pero todo apunta a que se avanzará más en esta tecnología, para hacer realidad lo que hasta hace poco era ciencia ficción. p

Dejar una respuesta

Please enter your comment!
Please enter your name here

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.