3 Fragen: Verbesserung der Roboterwahrnehmung und -kartierung | MIT-Nachrichten



carlone wie MIT Deckel

Zum Haus eines Freundes zu gehen oder durch die Gänge eines Lebensmittelgeschäfts zu schlendern mag wie eine einfache Aufgabe erscheinen, erfordert aber in Wirklichkeit ausgefeilte Fähigkeiten. Denn Menschen sind in der Lage, ihre Umgebung mühelos zu verstehen und komplexe Informationen über Muster, Objekte und ihren eigenen Standort in der Umgebung zu erkennen.

Was wäre, wenn Roboter ihre Umwelt auf ähnliche Weise wahrnehmen könnten? Diese Frage beschäftigt die Forscher Luca Carlone und Jonathan How vom MIT Laboratory for Information and Decision Systems (LIDS). Im Jahr 2020 veröffentlichte ein von Carlone geleitetes Team die erste Iteration von Kimera, eine Open-Source-Bibliothek, die es einem einzelnen Roboter ermöglicht, in Echtzeit eine dreidimensionale Karte seiner Umgebung zu erstellen und dabei verschiedene sichtbare Objekte zu beschriften. Letztes Jahr haben die Forschungsgruppen von Carlone und How (SPARK-Labor Und Labor für Luft- und Raumfahrtkontrollen) eingeführt Kimera-Multi, ein aktualisiertes System, bei dem mehrere Roboter untereinander kommunizieren, um eine einheitliche Karte zu erstellen. Ein 2022 Papier Das mit dem Projekt verbundene Projekt erhielt kürzlich den diesjährigen Preis IEEE-Transaktionen zur Robotik King-Sun Fu Memorial Best Paper Award, verliehen an den besten in der Zeitschrift im Jahr 2022 veröffentlichten Artikel.

Carlone, Leonardo Career Development Associate Professor für Luft- und Raumfahrt und How, Richard Cockburn Maclaurin-Professor für Luft- und Raumfahrt, sprach mit LIDS über Kimera-Multi und die Zukunft, wie Roboter ihre Umgebung wahrnehmen und mit ihr interagieren könnten.

Q: Derzeit konzentrieren sich Ihre Labore darauf, die Anzahl der Roboter zu erhöhen, die zusammenarbeiten können, um 3D-Karten der Umgebung zu erstellen. Welche potenziellen Vorteile bietet die Skalierung dieses Systems?

Wie: Der Hauptvorteil liegt in der Konsistenz, in dem Sinne, dass ein Roboter eine unabhängige Karte erstellen kann und diese Karte zwar selbstkonsistent, aber nicht global konsistent ist. Unser Ziel ist es, dass das Team über eine konsistente Weltkarte verfügt. Das ist der entscheidende Unterschied zwischen dem Versuch, einen Konsens zwischen Robotern zu bilden, im Gegensatz zur unabhängigen Kartierung.

Carlone: In vielen Szenarien ist es auch gut, über ein wenig Redundanz zu verfügen. Wenn wir beispielsweise einen einzelnen Roboter in einer Such- und Rettungsmission einsetzen und diesem Roboter etwas zustößt, kann er die Überlebenden nicht finden. Wenn mehrere Roboter die Erkundung durchführen, sind die Erfolgsaussichten viel größer. Die Vergrößerung des Roboterteams bedeutet auch, dass jede Aufgabe in kürzerer Zeit erledigt werden kann.

Q: Welche Lehren haben Sie aus den jüngsten Experimenten gezogen und welche Herausforderungen mussten Sie bei der Entwicklung dieser Systeme bewältigen?

Carlone: Kürzlich haben wir auf dem MIT-Campus ein großes Kartierungsexperiment durchgeführt, bei dem acht Roboter insgesamt bis zu 8 Kilometer zurückgelegt haben. Die Roboter haben keine Vorkenntnisse über den Campus und kein GPS. Ihre Hauptaufgabe besteht darin, ihre eigene Flugbahn abzuschätzen und darauf basierend eine Karte zu erstellen. Sie möchten, dass die Roboter die Umwelt genauso verstehen wie Menschen. Menschen verstehen nicht nur die Form von Hindernissen und verstehen, wie man sie umgeht, ohne sie zu treffen, sondern auch, dass es sich bei einem Objekt um einen Stuhl, einen Schreibtisch usw. handelt. Da ist der semantische Teil.

Das Interessante daran ist, dass die Roboter, wenn sie sich treffen, Informationen austauschen, um ihre Umgebungskarte zu verbessern. Wenn sich Roboter beispielsweise verbinden, können sie Informationen nutzen, um ihre eigene Flugbahn zu korrigieren. Die Herausforderung besteht darin, dass Sie nicht über die Bandbreite verfügen, um zu viele Daten auszutauschen, wenn Sie einen Konsens zwischen Robotern erzielen möchten. Einer der wichtigsten Beiträge unseres Papiers aus dem Jahr 2022 ist die Bereitstellung eines verteilten Protokolls, bei dem Roboter begrenzte Informationen austauschen, sich aber dennoch auf das Aussehen der Karte einigen können. Sie schicken keine Kamerabilder hin und her, sondern tauschen lediglich spezifische 3D-Koordinaten und aus den Sensordaten extrahierte Hinweise aus. Während sie weiterhin solche Daten austauschen, können sie einen Konsens erzielen.

Im Moment erstellen wir farbcodierte 3D-Netze oder Karten, in denen die Farbe einige semantische Informationen enthält, wie zum Beispiel „Grün“ entspricht Gras und „Magenta“ einem Gebäude. Aber als Menschen haben wir ein viel differenzierteres Verständnis der Realität und verfügen über umfangreiches Vorwissen über Beziehungen zwischen Objekten. Wenn ich beispielsweise ein Bett suchte, ging ich ins Schlafzimmer, anstatt das ganze Haus zu erkunden. Wenn Sie beginnen, die komplexen Zusammenhänge zwischen Dingen zu verstehen, können Sie viel besser einschätzen, was der Roboter in der Umgebung tun kann. Wir versuchen, von der Erfassung nur einer Ebene der Semantik zu einer eher hierarchischen Darstellung überzugehen, in der die Roboter Räume, Gebäude und andere Konzepte verstehen.

Q: Zu welchen Anwendungen könnten Kimera und ähnliche Technologien in der Zukunft führen?

Wie: Autonome Fahrzeughersteller kartieren die Welt in großem Umfang und lernen aus den Umgebungen, in denen sie sich befinden. Der heilige Gral wäre, wenn diese Fahrzeuge miteinander kommunizieren und Informationen austauschen könnten, dann könnten sie Modelle und Karten viel schneller verbessern. Die aktuellen Lösungen sind individualisiert. Wenn ein LKW neben Ihnen hält, können Sie nicht in eine bestimmte Richtung sehen. Könnte ein anderes Fahrzeug ein Sichtfeld bieten, das Ihr Fahrzeug sonst nicht hat? Dies ist eine futuristische Idee, da Fahrzeuge auf neue Weise kommunizieren müssen und Datenschutzprobleme zu lösen sind. Aber wenn wir diese Probleme lösen könnten, könnten Sie sich eine deutlich verbesserte Sicherheitssituation vorstellen, in der Sie aus mehreren Perspektiven Zugriff auf Daten haben, nicht nur aus Ihrem Sichtfeld.

Carlone: Diese Technologien werden viele Anwendungsmöglichkeiten haben. Vorhin habe ich Such- und Rettungsdienste erwähnt. Stellen Sie sich vor, Sie möchten einen Wald erkunden und nach Überlebenden suchen oder nach einem Erdbeben Gebäude kartieren, um Ersthelfern den Zugang zu eingeschlossenen Menschen zu erleichtern. Ein weiterer Einsatzort dieser Technologien könnten Fabriken sein. Derzeit sind Roboter, die in Fabriken eingesetzt werden, sehr starr. Sie folgen Mustern auf dem Boden und sind nicht wirklich in der Lage, ihre Umgebung zu verstehen. Aber wenn man über viel flexiblere Fabriken in der Zukunft nachdenkt, müssen Roboter mit Menschen kooperieren und in einer viel weniger strukturierten Umgebung existieren.



Quelllink

Hinterlasse eine Antwort

Deine Email-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Sie können diese HTML- Tags und -Attribute verwenden: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

de_DEGerman