Los científicos utilizan EBRAINS para enseñar a los robots a ver y tocar



La forma en que el cerebro nos permite percibir y navegar por el mundo es uno de los aspectos más fascinantes de la cognición. Al orientarnos, combinamos constantemente información de los seis sentidos de una manera aparentemente sin esfuerzo, una característica que incluso los sistemas de inteligencia artificial más avanzados luchan por replicar.

En la nueva infraestructura de investigación de EBRAINS, neurocientíficos cognitivos, modeladores computacionales y roboticistas ahora están trabajando juntos para arrojar nueva luz sobre los mecanismos neuronales detrás de esto, creando robots cuyo funcionamiento interno imita al cerebro.

“Creemos que los robots pueden mejorarse mediante el uso del conocimiento sobre el cerebro. Pero al mismo tiempo, esto también puede ayudarnos a comprender mejor el cerebro”, dice Cyriel Pennartz, profesor de Cognición y Neurociencias de Sistemas en la Universidad de Ámsterdam. .

En el Human Brain Project, Pennartz ha colaborado con los modeladores computacionales Shirin Dora, Sander Bohte y Jorge F. Mejias para crear arquitecturas de redes neuronales complejas para la percepción basada en datos de la vida real de ratas. Su modelo, denominado “MultiPrednet”, consta de módulos para entrada visual y táctil, y un tercero que los fusiona.

“Lo que pudimos replicar por primera vez es que el cerebro hace predicciones a través de diferentes sentidos”, explica Pennartz. “Para que puedas predecir cómo se sentirá algo mirándolo, y viceversa”.

La forma en que estas redes se “entrenan” se asemeja a cómo los científicos creen que nuestro cerebro aprende: generando constantemente predicciones sobre el mundo, comparándolas con las entradas sensoriales reales y luego adaptando la red para evitar futuras señales de error.

Para probar cómo funciona MultiPrednet en un cuerpo, los investigadores se asociaron con Martin Pearson en el Laboratorio de Robótica de Bristol. Juntos lo integraron en Whiskeye, un robot parecido a un roedor que explora de forma autónoma su entorno, utilizando cámaras montadas en la cabeza para los ojos y 24 bigotes artificiales para recopilar información táctil.

Los investigadores observaron los primeros indicios de que el modelo basado en el cerebro tiene una ventaja sobre los sistemas tradicionales de aprendizaje profundo: especialmente cuando se trata de navegación y reconocimiento de escenas familiares, MultiPredNet parece funcionar mejor, un descubrimiento que el equipo ahora investiga más a fondo.

Para acelerar esta investigación, el robot se ha recreado como una simulación en la plataforma Neurorobotics de la infraestructura de investigación EBRAINS. “Esto nos permite hacer experimentos de larga duración o incluso paralelos en condiciones controladas”, dice Pearson. “También planeamos utilizar las Plataformas de Computación Neuromórfica y de Alto Rendimiento para modelos mucho más detallados de control y percepción en el futuro”.

Todas las herramientas de código y análisis del trabajo están abiertas en EBRAINS, para que los investigadores puedan ejecutar sus propios experimentos. “Es una situación única”, dice Pennartz: “Pudimos decir, aquí hay un modelo interesante de percepción basado en la neurobiología, y sería genial probarlo a mayor escala con supercomputadoras y encarnado en un robot. Hacer esto es normalmente muy complicado, pero EBRAINS lo hace posible “.

Para comprender la cognición, necesitaremos explorar cómo actúa el cerebro como parte del cuerpo en un entorno. La neurociencia cognitiva y la robótica tienen mucho que ganar entre sí a este respecto. El Proyecto Cerebro Humano unió a estas comunidades y ahora, con nuestra infraestructura permanente, es más fácil que nunca colaborar “.

Katrin Amunts, directora de investigación científica del HBP

Pawel Swieboda, CEO de EBRAINS y director general de HBP, comenta: “Los robots del futuro se beneficiarán de las innovaciones que conectan los conocimientos de la ciencia del cerebro con la inteligencia artificial y la robótica. Con EBRAINS, Europa puede estar en el centro de este cambio hacia más IA y tecnología de inspiración biológica “.

.



Source link