1 de julio de 2025

Control mental de dedos robóticos: un paso más hacia las interfaces cerebrales no invasivas

¿Qué es una interfaz cerebro-computadora?

Una BCI permite que el cerebro se comunique directamente con dispositivos externos, como una mano robótica, sin pasar por los canales habituales del cuerpo, como los nervios y los músculos. Es como hablarle directamente a una máquina con el pensamiento. Estas tecnologías son especialmente prometedoras para personas con parálisis o daños en el sistema nervioso.

Existen dos grandes tipos de BCI: las invasivas, que requieren implantes cerebrales quirúrgicos, y las no invasivas, que emplean sensores externos como los del EEG (electroencefalograma). Las primeras suelen tener mayor precisión, pero conllevan riesgos quirúrgicos y altos costos. Las segundas son más seguras y accesibles, aunque su precisión ha sido, hasta ahora, más limitada.

Un hito desde la no invasividad

El equipo liderado por el profesor Bin He, de Carnegie Mellon, ha sido pionero durante dos décadas en explorar el potencial de los EEG como herramienta para controlar dispositivos robóticos. Este tipo de sensores detectan la actividad eléctrica del cerebro a través del cuero cabelludo, sin necesidad de intervenciones quirúrgicas.

Ya habían demostrado que una persona podía pilotar un dron o mover un brazo robótico solo con el pensamiento. Ahora han dado un paso más complejo: controlar el movimiento individual de los dedos en una mano robótica con señales EEG en tiempo real.

El desafío de los dedos

Mover cada dedo por separado implica un grado de precisión motora muy alto. Piense en lo que requiere escribir en un teclado o abotonarse una camisa. Traducir intenciones cerebrales tan sutiles en movimientos robóticos a partir de señales EEG es como intentar distinguir un susurro en medio de una multitud.

La dificultad está en que el EEG tiene baja resolución espacial, lo que significa que las señales cerebrales recogidas desde el exterior del cráneo están bastante difusas. Aun así, el equipo de Carnegie Mellon logró decodificar en tiempo real intenciones de movimiento de dedos individuales.

Inteligencia artificial como aliada

Este avance fue posible gracias a una estrategia novedosa basada en aprendizaje profundo (deep learning). Se entrenó un sistema de IA para interpretar patrones en las señales EEG vinculados a movimientos o imaginación de movimientos (lo que se conoce como «motor imagery»).

El sistema fue afinado para traducir esas señales en comandos específicos para la mano robótica. En los experimentos, los participantes lograron ejecutar tareas que implicaban mover dos o tres dedos de forma coordinada, solo con pensar en esos movimientos.

Un futuro más accesible

Este tipo de control a nivel de dedo no solo es un logro técnico. Tiene implicaciones directas para la autonomía de millones de personas que han perdido movilidad. Desde tareas básicas como comer o vestirse hasta otras más complejas como escribir, podrían ser recuperadas mediante el uso de este tipo de manos robóticas controladas con la mente.

Bin He destaca que incluso mejoras modestas en la función de la mano pueden tener un impacto enorme en la calidad de vida de una persona. El objetivo a mediano plazo es avanzar hacia tareas aún más detalladas, como escribir en un teclado, lo cual requerirá un nivel aún mayor de decodificación.

Más allá de la discapacidad

Aunque estas investigaciones están centradas en poblaciones con algún tipo de discapacidad, sus aplicaciones podrían extenderse en el futuro a contextos industriales o de entretenimiento. Imaginar controlar una interfaz digital o un videojuego con la mente ya no suena a ciencia ficción.

Por ahora, el foco sigue estando en hacer que esta tecnología sea más precisa, asequible y fácil de usar. Y eso implica seguir refinando los modelos de IA, mejorar la sensibilidad de los sensores y ampliar la diversidad de movimientos que pueden detectarse.




☞ El artículo completo original de Natalia Polo lo puedes ver aquí

No hay comentarios.:

Publicar un comentario