El prototipo de “lectura de la mente” del MIT utiliza un casco de electroencefalografíapara registrar la actividad del cerebro humano.

Investigadores estadounidenses han avanzado hacia la comunicación telepática de personas con robots, mediante el desarrollo de un dispositivo de “lectura de la mente” que les permite a los seres humanos corregir a una máquina instantáneamente utilizando solamente las ondas cerebrales.

El prototipo de interfaz cerebro-ordenador desarrollado por el Massachusetts Institute of Technology (MIT) le permite a un observador humano transmitir un mensaje inmediato de error a un robot, diciéndole que arregle un error cuando se equivoca.

La tecnología que les permite a los humanos interactuar con robots de forma intuitiva a través de sus pensamientos podría tener una amplia gama de aplicaciones industriales y médicas, desde extremidades robóticas hasta vehículos sin conductor.

“Imagina poder decirle instantáneamente a un robot que realice una acción determinada, sin necesidad de escribir un comando, pulsar un botón o siquiera decir una palabra”, dijo Daniela Rus, directora del Laboratorio de Informática e Inteligencia Artificial del MIT. “Un enfoque racionalizado como ése mejoraría nuestras habilidades para supervisar los robots de fábricas, los coches sin conductor y otras tecnologías que ni siquiera hemos inventado todavía”.

El prototipo del MIT utiliza un casco de electroencefalografía (EEG) para registrar la actividad del cerebro humano.

Aunque fue diseñado para manejar actividades simples de elección binaria — en este caso, ordenar objetos en dos categorías — la profesora Rus espera que después de más investigaciones les permitirá a las personas interactuar con robots más complejos.

Las interfaces entre cerebro y computadora son uno de los campos más activos de investigación científica. Otros laboratorios las están desarrollando para permitirles a las personas con discapacidad operar extremidades robóticas o para darles capacidad de comunicación a pacientes enclaustrados quienes están demasiado paralizados incluso como para parpadear.

El problema es que estos sistemas generalmente requieren un implante electrónico o, cuando se utiliza un EEG, una importante capacitación para hacer que la computadora reconozca las ondas cerebrales del usuario.

El equipo del MIT, en colaboración con neurocientíficos de la Universidad de Boston, se enfocó en las señales del cerebro denominadas potenciales relacionados con errores, o “ErrPs”, que el cerebro genera cuando detecta un error. Fueron capaces de detectar un patrón neuronal característico de las ondas cerebrales del observador que fue captado en una centésima de segundo por el algoritmo de aprendizaje de máquina del equipo.

“Mientras observas al robot, todo lo que tienes que hacer es mentalmente estar de acuerdo o en desacuerdo con lo que está haciendo”, explica la profesora Rus. “No tienes que entrenarte para pensar de una forma determinada. La máquina se adapta a ti y no al revés”.

El robot, llamado Baxter, reconoció señales de error de 12 voluntarios quienes no tenían capacitación o experiencia previa con EEG. Cuando el observador humano veía que Baxter intentaba colocar un objeto en la caja equivocada, la señal del cerebro llegaba a tiempo para que el robot corrigiera su maniobra. Como las señales ErrP pueden ser bastante débiles, el sistema también puede captar un fuerte mensaje cerebral “secundario de error” si el robot no ha corregido su error.

“Hoy en día, los robots no son grandes comunicadores . . . Piensa en las posibilidades si pudieran leer nuestros pensamientos”, dijo la profesora Rus, quien considera el desarrollo como una nueva era de lo que ella llama “robótica omnipresente”. La tecnología podría permitir que los pasajeros en los coches sin conductor se conviertan efectivamente en “copilotos”.

Wolfram Burgard, profesor de informática en la Universidad de Freiburg, quien no estuvo involucrado en el proyecto, dijo: “Este trabajo nos acerca a la elaboración de herramientas eficaces para robots y prótesis controlados por el cerebro. Teniendo en cuenta lo difícil que puede ser traducir el lenguaje humano a una señal significativa para los robots, la labor en esta área podría tener una profunda repercusión en el futuro de la colaboración entre humanos y robots”.

Fuente: Diario 26