Un “copiloto” de IA ayuda a personas a mover brazos robóticos
Ingenieros de la Universidad de California en Los Angeles (UCLA) desarrollaron un sistema de interfaz cerebro-computadora portátil no invasivo y que utiliza inteligencia artificial como “copiloto” para ayudar a inferir en la intención de los usuarios y completar tareas moviendo un brazo robótico o el cursor de una computadora, trabajo publicado en Nature Machine Intelligence.

Ingenieros de la Universidad de California en Los Angeles (UCLA) desarrollaron un sistema de interfaz cerebro-computadora portátil no invasivo y que utiliza inteligencia artificial como “copiloto” para ayudar a inferir en la intención de los usuarios y completar tareas moviendo un brazo robótico o el cursor de una computadora, trabajo publicado en Nature Machine Intelligence.
El estudio demuestra que la interfaz alcanza un nuevo nivel de rendimiento en sistemas de interfaz cerebro-computadora (BCI) no invasivos. Esto podría dar lugar a tecnologías que ayuden a personas con capacidades físicas limitadas, como personas con parálisis o afecciones neurológicas, a manipular y mover objetos con mayor facilidad y precisión.
El equipo de investigadores desarrolló algoritmos específicos para decodificar la electroencefalografía, un método para registrar la actividad eléctrica cerebral y extraer señales que reflejan las intenciones de movimiento. Además, emparejaron las señales decodificadas con una plataforma de inteligencia artificial basada en cámara que interpreta la dirección e intención del usuario en tiempo real.
Este sistema permite a las personas completar tareas mucho más rápido que sin la asistencia de la inteligencia artificial.
Puedes leer: ¿Por qué debería importarte cómo se construyen las casas, edificios y ciudades?
Jonathan Kao, líder del estudio y profesor asociado de ingeniería eléctrica e informática en la Escuela de Ingeniería Samueli de la UCLA, declaró que al usar inteligencia artificial para completar los sistemas de interfaz cerebro-computadora, buscaron vías mucho menos riesgosas e invasivas. Y en última instancia, querían desarrollar sistemas IA-BCI que ofrecieran autonomía compartida, permitiendo a las personas con trastorno de movimiento, como parálisis o ELA, recuperar cierta independencia para tareas cotidianas.
Hay que decir que los dispositivos BCI de vanguardia, implementados quirúrgicamente, pueden traducir señales cerebrales en comandos, pero los beneficios que ofrecen actualmente se ven superados por los riesgos y costos asociados con la neurocirugía para su implementación y, a más de dos décadas después de su primera demostración, estos dispositivos aún se limitan a pequeños ensayos clínicos piloto.
Mientras que los dispositivos BCI portátiles y otros dispositivos externos han demostrado un menor rendimiento en la detección fiable de señales cerebrales, para abordar esas limitaciones, los investigadores probaron su nueva BCI no invasiva asistida por inteligencia artificial con cuatro participantes. Tres sin discapacidades motoras y el último con una parálisis de la cintura para abajo.
Estos participantes utilizaron un gorro para registrar el electroencefalograma, mientras que los científicos utilizaron algoritmos decodificadores personalizados para traducir esas señales cerebrales en movimientos de un cursor de una computadora y de un brazo robótico. Simultáneamente, un sistema de inteligencia artificial con cámara integrada observó los movimientos decodificados, ayudando a los participantes a completar las dos tareas.
En la tarea del cursor debían moverlo por la pantalla de la computadora y alcanzar ocho objetivos, manteniéndolo en su lugar en cada uno durante al menos medio segundo.
En la segunda tarea debían activar un brazo robótico para mover cuatro bloques sobre una mesa desde sus posiciones originales hasta otras designadas.
Los resultados fueron que todos los participantes completaron ambas tareas significativamente más rápido con la asistencia de la inteligencia artificial. Cabe destacar que el participante paralizado completó la tarea del brazo robótico en aproximadamente seis minutos y medio con la asistencia de la inteligencia artificial, mientras que sin ella no logró completarla.
Quizás te interese: Ejercicio moderado: la clave para mejorar tu cerebro y microbiota
Asimismo, la BCI descifró las señales eléctricas cerebrales que codificaban las acciones previstas de los participantes. Mediante un sistema de visión artificial, la inteligencia artificial personalizada infirió la intención de los usuarios (no sus movimientos oculares) para guiar el cursor y colocar los bloques.
¿Qué buscarían mejorar?
Para Johannes Lee, doctorando en ingeniería electrónica e informática de la universidad estadounidense, coautor principal, asesorado por Kao, los próximos primeros pasos para los sistemas IA-BCI podrían incluir el desarrollo de copilotos más avanzados que muevan brazos robóticos con mayor velocidad y precisión, ofreciendo un tacto ágil que se adapte al objeto que el usuario desea agregar.
Así también la incorporación de datos de entrenamiento de mayor escala podría ayudar a la inteligencia artificial a colaborar en tareas más complejas y a mejorar la decodificación de la electroencefalografía.