sábado, 1 de noviembre de 2014

Más cerca de “los pensamientos” de los robots con la realidad aumentada

El desarrollo de modelos tecnológicos embebidos que combinan los elementos computacionales y las entidades físicas marcará el paso hacia una nueva generación de sistemas de ingeniería. La comunidad de desarrolladores y expertos en computación los han llamado sistemas ciberfísicos o, así como lo explican, sistemas cuyo funcionamiento se basa en una fuerte integración de elementos físicos con tecnologías de control, computación y comunicación.

Sus aplicaciones pueden variar desde los smartphones con gran capacidad de procesamiento hasta coches autónomos, pilotos automáticos, sistemas robóticos, redes de sensores inalámbricos, etc. Con este tipo de sistemas se abre una categoría superior de tecnologías que tiene el potencial de cambiar nuestras vidas de la misma forma que lo han hecho los dispositivos móviles en su momento, aunque diseñar los mecanismos complejos que los componen supone un proceso que está condicionado por muchos retos. 

Por este motivo se han puesto en marcha los experimentos hardware-in-the-loop que consisten en unas pruebas simuladas para desarrollar y comprobar el funcionamiento de los sistemas embebidos en tiempo real usando modelos matemáticos. El método ha sido experimentado también por un grupo de investigadores del MIT y, según explican, sus intenciones no se limitaron a verificar el rendimiento de los algoritmos en tiempo real, sino también de hacer visibles los patrones de comportamiento de las máquinas a los investigadores que gestionan estas pruebas. En concreto, su técnica les ha ayudado a descubrir una forma de leer “la mente” de los robots a través de la realidad aumentada.

Durante las simulaciones de las misiones robóticas era difícil entender porque los robots elegían accionar de alguna manera, así que el equipo desarrolló un sistema que mostrara de forma visual cómo estos toman las decisiones. Para ello, prepararon un escenario adaptado a la detección de los movimientos instalando 18 cámaras en un techo y después crearon un software para proyectar las intenciones en tiempo real, como por ejemplo la percepción de la máquina acerca de la posición de un obstáculo o las rutas posibles.

Los investigadores la han llamado tecnología realidad virtual medible (MVR), pero que, a diferencia de la realidad virtual convencional, representa visualmente las percepciones y la forma de entender del mundo de un robot. Para los líderes del proyecto, las proyecciones de lo que tiene pensado hacer un robot permite conectar sus percepciones con lo que está haciendo y de esta forma los desarrolladores ganan más conocimiento sobre el significado de sus acciones y en consecuencia mejoran los algoritmos mucho más rápido:

Tradicionalmente, los sistemas físicos y de simulación estaban separados. Tendrías que ir al nivel más bajo del código, descomponerlo y tratar de averiguar de dónde venían los problemas. Ahora tenemos la capacidad de mostrar información de bajo nivel de una manera física, por lo que no se tiene que profundizar en su código o reestructurar la visión de cómo funciona el algoritmo. Podrías ver el tiempo de desarrollo de las aplicaciones reducido de meses a unos días de trabajo”, comenta Shayegan Omidshafiei, uno de los autores de la investigación.

Unas de las aplicaciones en las que están trabajando les ayudará a mejorar los algoritmos de los drones creados para apagar los fuegos forestales o aumentar su rendimiento en los escenarios de entrega de paquetes. El equipo cree que el sistema permitirá a los ingenieros diseñar cualquier escenario y testear el prototipo antes de probarlo en el mundo real.

Imagen principal






from TICbeat http://ift.tt/1qhq6tb