Caminar a la casa de un amigo o recorrer los pasillos de una tienda de comestibles puede parecer una tarea sencilla, pero en realidad requiere capacidades sofisticadas. Esto se debe a que los humanos son capaces de comprender sin esfuerzo su entorno y detectar información compleja sobre patrones, objetos y su propia ubicación en el entorno.
¿Qué pasaría si los robots pudieran percibir su entorno de manera similar? Esa pregunta está en la mente de los investigadores del Laboratorio de Sistemas de Información y Decisión (LIDS) del MIT, Luca Carlone y Jonathan How. En 2020, un equipo dirigido por Carlone lanzó la primera versión de Kimera, una biblioteca de código abierto que permite a un solo robot construir un mapa tridimensional de su entorno en tiempo real, mientras etiqueta diferentes objetos a la vista. El año pasado, los grupos de investigación de Carlone y How (Laboratorio CHISPA y Laboratorio de controles aeroespaciales) introducido Kimera-Multi, un sistema actualizado en el que varios robots se comunican entre sí para crear un mapa unificado. Un 2022 papel asociados con el proyecto recibieron recientemente el premio de este año Transacciones IEEE sobre robótica Premio al mejor artículo en memoria de King-Sun Fu, otorgado al mejor artículo publicado en la revista en 2022.
Carlone, profesor asociado de aeronáutica y astronáutica de desarrollo profesional de Leonardo, y profesor de aeronáutica y astronáutica Richard Cockburn Maclaurin, habló con LIDS sobre Kimera-Multi y el futuro de cómo los robots podrían percibir e interactuar con su entorno.
P: Actualmente sus laboratorios se centran en aumentar el número de robots que pueden trabajar juntos para generar mapas 3D del entorno. ¿Cuáles son algunas de las posibles ventajas de ampliar este sistema?
Cómo: El beneficio clave depende de la coherencia, en el sentido de que un robot puede crear un mapa independiente, y ese mapa es autoconsistente pero no globalmente consistente. Nuestro objetivo es que el equipo tenga un mapa consistente del mundo; esa es la diferencia clave al tratar de formar un consenso entre robots en lugar de mapear de forma independiente.
carlo: En muchos escenarios también es bueno tener un poco de redundancia. Por ejemplo, si desplegamos un solo robot en una misión de búsqueda y rescate y algo le sucede a ese robot, no podrá encontrar a los supervivientes. Si varios robots están explorando, hay muchas más posibilidades de éxito. Ampliar el equipo de robots también significa que cualquier tarea determinada se puede completar en un período de tiempo más corto.
P: ¿Cuáles son algunas de las lecciones que ha aprendido de experimentos recientes y los desafíos que ha tenido que superar al diseñar estos sistemas?
carlo: Recientemente hicimos un gran experimento cartográfico en el campus del MIT, en el que ocho robots recorrieron hasta 8 kilómetros en total. Los robots no tienen conocimiento previo del campus ni GPS. Sus principales tareas son estimar su propia trayectoria y construir un mapa a su alrededor. Quiere que los robots comprendan el entorno como lo hacen los humanos; los humanos no sólo comprenden la forma de los obstáculos, para sortearlos sin golpearlos, sino que también comprenden que un objeto es una silla, un escritorio, etc. Está la parte semántica.
Lo interesante es que cuando los robots se encuentran, intercambian información para mejorar su mapa del entorno. Por ejemplo, si los robots se conectan, pueden aprovechar la información para corregir su propia trayectoria. El desafío es que si quieres llegar a un consenso entre robots, no tienes el ancho de banda para intercambiar demasiados datos. Una de las contribuciones clave de nuestro artículo de 2022 es implementar un protocolo distribuido, en el que los robots intercambian información limitada pero aún pueden ponerse de acuerdo sobre el aspecto del mapa. No envían imágenes de la cámara de un lado a otro, sino que solo intercambian coordenadas 3D específicas y pistas extraídas de los datos del sensor. A medida que continúen intercambiando dichos datos, podrán llegar a un consenso.
En este momento estamos construyendo mallas o mapas 3D codificados por colores, en los que el color contiene cierta información semántica, como "verde" corresponde a la hierba y "magenta" a un edificio. Pero como humanos, tenemos una comprensión mucho más sofisticada de la realidad y tenemos mucho conocimiento previo sobre las relaciones entre objetos. Por ejemplo, si estuviera buscando una cama, iría al dormitorio en lugar de explorar toda la casa. Si empiezas a comprender las complejas relaciones entre las cosas, podrás ser mucho más inteligente acerca de lo que el robot puede hacer en el entorno. Estamos tratando de pasar de capturar solo una capa de semántica a una representación más jerárquica en la que los robots comprendan habitaciones, edificios y otros conceptos.
P: ¿A qué tipos de aplicaciones podrían conducir Kimera y tecnologías similares en el futuro?
Cómo: Las empresas de vehículos autónomos están haciendo muchos mapas del mundo y aprendiendo de los entornos en los que se encuentran. El santo grial sería que si estos vehículos pudieran comunicarse entre sí y compartir información, entonces podrían mejorar los modelos y mapas mucho más rápido. Las soluciones actuales que existen son individualizadas. Si un camión se detiene a tu lado, no podrás ver en una dirección determinada. ¿Podría otro vehículo proporcionar un campo de visión que el suyo no tendría de otro modo? Esta es una idea futurista porque requiere que los vehículos se comuniquen de nuevas maneras y hay problemas de privacidad que superar. Pero si pudiéramos resolver esos problemas, se podría imaginar una situación de seguridad significativamente mejorada, donde se tendría acceso a los datos desde múltiples perspectivas, no solo desde su campo de visión.
carlo: Estas tecnologías tendrán muchas aplicaciones. Antes mencioné la búsqueda y el rescate. Imagine que desea explorar un bosque y buscar sobrevivientes, o mapear edificios después de un terremoto de una manera que pueda ayudar a los socorristas a acceder a las personas atrapadas. Otro entorno donde se podrían aplicar estas tecnologías es en las fábricas. Actualmente, los robots que se despliegan en las fábricas son muy rígidos. Siguen patrones en el suelo y realmente no son capaces de comprender lo que les rodea. Pero si pensamos en fábricas mucho más flexibles en el futuro, los robots tendrán que cooperar con los humanos y existir en un entorno mucho menos estructurado.
Deja una respuesta