Casa » Tecnología » MIT desarrolla tecnología para controlar robots con ondas cerebrales y gestos con las manos

MIT desarrolla tecnología para controlar robots con ondas cerebrales y gestos con las manos

El sistema del Laboratorio de Ciencias de la Computación e Inteligencia Artificial permite a las personas corregir errores de robots en tareas de opción múltiple.

Lograr que los robots hagan cosas no es fácil: por lo general, los científicos tienen que programarlos explícitamente o hacer que comprendan cómo se comunican los humanos a través del lenguaje.

Pero, ¿qué pasaría si pudiéramos controlar los robots de manera más intuitiva, utilizando solo gestos con las manos y ondas cerebrales?

Un nuevo sistema encabezado por investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) apunta a hacer exactamente eso, permitiendo a los usuarios corregir instantáneamente errores de robot con nada más que señales cerebrales y el movimiento de un dedo.

A partir del trabajo anterior del equipo centrado en actividades simples de elección binaria, el nuevo trabajo amplía el alcance de las tareas de selección múltiple, abriendo nuevas posibilidades para que los trabajadores humanos puedan administrar equipos de robots.

Al monitorear la actividad cerebral, el sistema puede detectar en tiempo real si una persona nota un error mientras un robot realiza una tarea. Usando una interfaz que mide la actividad muscular, la persona puede hacer gestos con las manos para desplazarse y seleccionar la opción correcta para que el robot ejecute.

El equipo demostró el sistema en una tarea en la que un robot mueve un taladro eléctrico a uno de tres posibles objetivos en el cuerpo de un avión simulado. Es importante destacar que demostraron que el sistema funciona con personas que nunca antes se habían visto, lo que significa que las organizaciones podrían implementarlo en la configuración del mundo real sin necesidad de capacitarlo sobre los usuarios.

"Este trabajo que combina la retroalimentación EEG y EMG permite las interacciones naturales entre humanos y robots para un conjunto más amplio de aplicaciones de lo que hemos podido hacer antes de usar solo la retroalimentación EEG", dice la Directora de CSAIL Daniela Rus, quien supervisó el trabajo. "Al incluir la retroalimentación muscular, podemos usar gestos para comandar espacialmente al robot, con muchos más matices y especificidad".

El candidato a doctorado Joseph DelPreto fue el autor principal de un artículo sobre el proyecto junto con Rus, el ex postdoctor de CSAIL Andres F. Salazar-Gomez, la ex investigadora científica de CSAIL Stephanie Gil, el investigador Ramin M. Hasani y el profesor de la Universidad de Boston Frank H. Guenther. El documento se presentará en la conferencia Robótica: Ciencia y Sistemas (RSS) que tendrá lugar en Pittsburgh la próxima semana.

En la mayoría de los trabajos anteriores, los sistemas generalmente solo podían reconocer las señales cerebrales cuando las personas se entrenaban a sí mismas para "pensar" de manera muy específica pero arbitraria y cuando el sistema estaba capacitado para tales señales. Por ejemplo, un operador humano podría tener que mirar diferentes pantallas de luces que corresponden a diferentes tareas del robot durante una sesión de entrenamiento.

No es sorprendente que estos enfoques sean difíciles de manejar de manera confiable, especialmente si trabajan en campos como la construcción o la navegación que ya requieren una concentración intensa.

Mientras tanto, el equipo de Rus aprovechó el poder de las señales cerebrales denominadas "potenciales relacionados con el error" (ErrPs), que los investigadores han descubierto que ocurren naturalmente cuando las personas notan errores. Si hay un ErrP, el sistema se detiene para que el usuario pueda corregirlo; Si no, continúa.

"Lo bueno de este enfoque es que no es necesario capacitar a los usuarios para que piensen de una manera prescrita", dice DelPreto. "La máquina se adapta a usted, y no al revés".

Para el proyecto, el equipo utilizó "Baxter", un robot humanoide de Rethink Robotics. Con la supervisión humana, el robot pasó de elegir el objetivo correcto 70 por ciento del tiempo a más del 97 por ciento del tiempo.

Para crear el sistema, el equipo aprovechó el poder de la electroencefalografía (EEG) para la actividad cerebral y la electromiografía (EMG) para la actividad muscular, colocando una serie de electrodos en el cuero cabelludo y el antebrazo de los usuarios.

Ambas métricas tienen algunas deficiencias individuales: las señales de EEG no siempre son detectables de manera confiable, mientras que las señales de EMG a veces pueden ser difíciles de mapear a movimientos que son más específicos que "mover a la izquierda o a la derecha". - Detecta y hace posible que el sistema funcione con nuevos usuarios sin capacitación.

"Al observar las señales musculares y cerebrales, podemos comenzar a detectar los gestos naturales de una persona junto con sus decisiones instantáneas sobre si algo va mal", dice DelPreto. "Esto ayuda a que la comunicación con un robot sea más como comunicarse con otra persona".

El equipo dice que un día podrían imaginar que el sistema sería útil para las personas mayores o los trabajadores con trastornos del lenguaje o movilidad limitada.

"Nos gustaría alejarnos de un mundo donde las personas tienen que adaptarse a las limitaciones de las máquinas", dice Rus. "Enfoques como este demuestran que es muy posible desarrollar sistemas robóticos que sean una extensión más natural e intuitiva de nosotros".