3 domande: affinare la percezione e la mappatura dei robot | Notizie del MIT



carlone come MIT COPERCHI

Camminare verso la casa di un amico o curiosare tra i corridoi di un negozio di alimentari potrebbero sembrare compiti semplici, ma in realtà richiedono capacità sofisticate. Questo perché gli esseri umani sono in grado di comprendere senza sforzo ciò che li circonda e di rilevare informazioni complesse su modelli, oggetti e sulla propria posizione nell'ambiente.

E se i robot potessero percepire il loro ambiente in modo simile? Questa domanda è nella mente dei ricercatori del MIT Laboratory for Information and Decision Systems (LIDS), Luca Carlone e Jonathan How. Nel 2020, un team guidato da Carlone ha rilasciato la prima iterazione di Kimera, una libreria open source che consente a un singolo robot di costruire una mappa tridimensionale del suo ambiente in tempo reale, etichettando allo stesso tempo diversi oggetti in vista. Lo scorso anno i gruppi di ricerca di Carlone e How (Laboratorio SPARK E Laboratorio di controlli aerospaziali) introdotto Kimera-Multi, un sistema aggiornato in cui più robot comunicano tra loro per creare una mappa unificata. Un 2022 carta associati al progetto hanno recentemente ricevuto il premio di quest'anno Transazioni IEEE sulla robotica King-Sun Fu Memorial Best Paper Award, assegnato al miglior articolo pubblicato sulla rivista nel 2022.

Carlone, professore associato di aeronautica e astronautica presso Leonardo Career Development, e How, professore di aeronautica e astronautica Richard Cockburn Maclaurin, hanno parlato con LIDS di Kimera-Multi e del futuro di come i robot potrebbero percepire e interagire con il loro ambiente.

Q: Attualmente i vostri laboratori si concentrano sull'aumento del numero di robot che possono lavorare insieme per generare mappe 3D dell'ambiente. Quali sono alcuni potenziali vantaggi nel ridimensionare questo sistema?

Come: Il vantaggio principale dipende dalla coerenza, nel senso che un robot può creare una mappa indipendente e che la mappa è auto-coerente ma non coerente a livello globale. Il nostro obiettivo è che il team abbia una mappa coerente del mondo; questa è la differenza fondamentale nel cercare di formare un consenso tra i robot invece di mappare in modo indipendente.

Carlone: In molti scenari è anche utile avere un po' di ridondanza. Ad esempio, se schierassimo un singolo robot in una missione di ricerca e salvataggio e gli succedesse qualcosa, non riuscirebbe a trovare i sopravvissuti. Se più robot stanno esplorando, ci sono molte più possibilità di successo. Ampliare il team di robot significa anche che qualsiasi compito può essere completato in un periodo di tempo più breve.

Q: Quali sono alcune delle lezioni che hai imparato dai recenti esperimenti e le sfide che hai dovuto superare durante la progettazione di questi sistemi?

Carlone: Recentemente abbiamo condotto un grande esperimento di mappatura nel campus del MIT, in cui otto robot hanno percorso fino a 8 chilometri in totale. I robot non hanno alcuna conoscenza preliminare del campus e non hanno il GPS. Il loro compito principale è stimare la propria traiettoria e costruire una mappa attorno ad essa. Vuoi che i robot comprendano l'ambiente come fanno gli umani; gli esseri umani non solo comprendono la forma degli ostacoli, come aggirarli senza urtarli, ma capiscono anche che un oggetto è una sedia, una scrivania e così via. C'è la parte semantica.

La cosa interessante è che quando i robot si incontrano, si scambiano informazioni per migliorare la loro mappa dell'ambiente. Ad esempio, se i robot si connettono, possono sfruttare le informazioni per correggere la propria traiettoria. La sfida è che se vuoi raggiungere un consenso tra i robot, non hai la larghezza di banda per scambiare troppi dati. Uno dei contributi chiave del nostro documento del 2022 è l’implementazione di un protocollo distribuito, in cui i robot scambiano informazioni limitate ma possono comunque concordare l’aspetto della mappa. Non inviano avanti e indietro le immagini della telecamera, ma si scambiano solo coordinate 3D specifiche e indizi estratti dai dati del sensore. Mentre continuano a scambiarsi tali dati, possono formare un consenso.

In questo momento stiamo costruendo mesh o mappe 3D codificate a colori, in cui il colore contiene alcune informazioni semantiche, come “verde” corrisponde all’erba e “magenta” a un edificio. Ma come esseri umani, abbiamo una comprensione molto più sofisticata della realtà e abbiamo molte conoscenze pregresse sulle relazioni tra gli oggetti. Ad esempio, se cercassi un letto, andrei in camera da letto invece di esplorare l’intera casa. Se inizi a comprendere le complesse relazioni tra le cose, puoi essere molto più intelligente su ciò che il robot può fare nell’ambiente. Stiamo cercando di passare dall'acquisizione di un solo livello di semantica a una rappresentazione più gerarchica in cui i robot comprendono stanze, edifici e altri concetti.

Q: A quali tipi di applicazioni potrebbero portare Kimera e tecnologie simili in futuro?

Come: Le aziende produttrici di veicoli autonomi stanno mappando molto il mondo e imparando dagli ambienti in cui si trovano. Il Santo Graal sarebbe se questi veicoli potessero comunicare tra loro e condividere informazioni, quindi potrebbero migliorare modelli e mappe molto più rapidamente. Le soluzioni attuali disponibili sono personalizzate. Se un camion si ferma accanto a te, non puoi vedere in una certa direzione. Un altro veicolo potrebbe fornire un campo visivo che altrimenti il tuo veicolo non avrebbe? Si tratta di un’idea futuristica perché richiede che i veicoli comunichino in modi nuovi e ci sono problemi di privacy da superare. Ma se potessimo risolvere questi problemi, potresti immaginare una situazione di sicurezza notevolmente migliorata, in cui hai accesso ai dati da più prospettive, non solo dal tuo campo visivo.

Carlone: Queste tecnologie avranno moltissime applicazioni. Prima ho menzionato la ricerca e il salvataggio. Immagina di voler esplorare una foresta e cercare sopravvissuti o di voler mappare gli edifici dopo un terremoto in un modo che possa aiutare i primi soccorritori a individuare le persone intrappolate. Un altro ambiente in cui queste tecnologie potrebbero essere applicate sono le fabbriche. Attualmente, i robot utilizzati nelle fabbriche sono molto rigidi. Seguono schemi sul pavimento e non sono realmente in grado di comprendere l'ambiente circostante. Ma se si pensa a fabbriche molto più flessibili in futuro, i robot dovranno cooperare con gli esseri umani ed esistere in un ambiente molto meno strutturato.



Collegamento alla fonte

lascia un commento

L'indirizzo email non verrà pubblicato. I campi richiesti sono contrassegnati *

Puoi utilizzare questi tag e attributi HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

it_ITItalian