Neue Simulationsmethode ermöglicht es Robotern, Objekteigenschaften genau zu erfassen
Massachusetts Institute of Technology, Cambridge, MA
Mit einer neuen Simulationsmethode können Roboter das Gewicht, die Weichheit und andere physikalische Eigenschaften eines Objekts allein durch das Aufheben erraten. (Bild:MIT News/iStock)Ein Mensch, der den Müll von einem Dachboden räumt, kann oft den Inhalt einer Kiste erraten, indem er sie einfach aufhebt und schüttelt, ohne sehen zu müssen, was sich darin befindet. Forscher vom MIT, Amazon Robotics und der University of British Columbia haben Robotern beigebracht, etwas Ähnliches zu tun.
Sie entwickelten eine Technik, die es Robotern ermöglicht, nur mithilfe interner Sensoren das Gewicht, die Weichheit oder den Inhalt eines Objekts zu ermitteln, indem sie es aufheben und sanft schütteln. Mit ihrer Methode, die keine externen Messwerkzeuge oder Kameras erfordert, kann der Roboter Parameter wie die Masse eines Objekts in Sekundenschnelle genau erraten.
Diese kostengünstige Technik könnte besonders bei Anwendungen nützlich sein, bei denen Kameras möglicherweise weniger effektiv sind, beispielsweise beim Sortieren von Objekten in einem dunklen Keller oder beim Räumen von Trümmern in einem Gebäude, das nach einem Erdbeben teilweise eingestürzt ist.
Der Schlüssel zu ihrem Ansatz ist ein Simulationsprozess, der Modelle des Roboters und des Objekts einbezieht, um schnell Eigenschaften dieses Objekts zu identifizieren, während der Roboter mit ihm interagiert.
Die Technik der Forscher eignet sich genauso gut zum Schätzen der Masse eines Objekts wie einige komplexere und teurere Methoden, die Computer Vision beinhalten. Darüber hinaus ist ihr dateneffizienter Ansatz robust genug, um viele Arten unvorhergesehener Szenarien zu bewältigen.
„Diese Idee ist allgemein, und ich glaube, wir kratzen nur an der Oberfläche dessen, was ein Roboter auf diese Weise lernen kann. Mein Traum wäre, dass Roboter in die Welt hinausgehen, Dinge in ihrer Umgebung berühren und bewegen und die Eigenschaften von allem, mit dem sie interagieren, selbstständig herausfinden“, sagte Peter Yichen Chen, Postdoktorand am MIT und Hauptautor einer Arbeit über diese Technik.
Die Methode des Forschungsteams nutzt die Propriozeption, also die Fähigkeit eines Menschen oder Roboters, seine Bewegung oder Position im Raum zu erfassen. Beispielsweise kann ein Mensch, der im Fitnessstudio eine Hantel hebt, das Gewicht dieser Hantel in seinem Handgelenk und Bizeps spüren, obwohl er die Hantel in der Hand hält. Auf die gleiche Weise kann ein Roboter die Schwere eines Objekts durch die vielen Gelenke in seinem Arm „spüren“.
„Ein Mensch kann die Gelenkwinkel unserer Finger oder das genaue Drehmoment, das wir auf ein Objekt ausüben, nicht sehr genau messen, ein Roboter jedoch schon. Wir machen uns diese Fähigkeiten zunutze“, sagte Co-Autor Chao Liu, ein MIT-Postdoktorand.
Während der Roboter ein Objekt anhebt, erfasst das System der Forscher Signale von den Gelenk-Encodern des Roboters, bei denen es sich um Sensoren handelt, die die Drehposition und Geschwindigkeit seiner Gelenke während der Bewegung erfassen.
Die meisten Roboter verfügen über Gelenk-Encoder in den Motoren, die ihre beweglichen Teile antreiben, fügte Liu hinzu. Dies macht ihre Technik kostengünstiger als andere Ansätze, da keine zusätzlichen Komponenten wie taktile Sensoren oder Vision-Tracking-Systeme erforderlich sind.
Um die Eigenschaften eines Objekts während Roboter-Objekt-Interaktionen abzuschätzen, stützt sich ihr System auf zwei Modelle:eines, das den Roboter und seine Bewegung simuliert, und eines, das die Dynamik des Objekts simuliert. „Für den Erfolg unserer Methode ist es wirklich wichtig, über einen genauen digitalen Zwilling der realen Welt zu verfügen“, fügte Chen hinzu.
Ihr Algorithmus „beobachtet“ die Bewegung des Roboters und des Objekts während einer physischen Interaktion und verwendet gemeinsame Encoderdaten, um rückwärts zu arbeiten und die Eigenschaften des Objekts zu identifizieren. Beispielsweise bewegt sich ein schwereres Objekt langsamer als ein leichtes, wenn der Roboter die gleiche Kraft aufwendet.
Sie verwenden eine Technik namens differenzierbare Simulation, die es dem Algorithmus ermöglicht, vorherzusagen, wie sich kleine Änderungen in den Eigenschaften eines Objekts, wie Masse oder Weichheit, auf die endgültige Gelenkposition des Roboters auswirken. Die Forscher erstellten ihre Simulationen mithilfe der Warp-Bibliothek von NVIDIA, einem Open-Source-Entwicklertool, das differenzierbare Simulationen unterstützt.
Sobald die differenzierbare Simulation mit den realen Bewegungen des Roboters übereinstimmt, hat das System die richtige Eigenschaft identifiziert. Der Algorithmus kann dies in Sekundenschnelle tun und muss nur eine reale Flugbahn des Roboters in Bewegung sehen, um die Berechnungen durchzuführen.
„Technisch gesehen sollten Sie in der Lage sein, den Parameter herauszufinden, den Sie identifizieren möchten, solange Sie das Modell des Objekts kennen und wissen, wie der Roboter Kraft auf dieses Objekt ausüben kann“, sagte Liu. Die Forscher nutzten ihre Methode, um die Masse und Weichheit eines Objekts zu ermitteln, ihre Technik konnte aber auch Eigenschaften wie das Trägheitsmoment oder die Viskosität einer Flüssigkeit in einem Behälter bestimmen.
Da ihr Algorithmus außerdem keinen umfangreichen Datensatz für das Training benötigt, wie einige Methoden, die auf Computer Vision oder externen Sensoren basieren, wäre er nicht so anfällig für Fehler, wenn er mit unsichtbaren Umgebungen oder neuen Objekten konfrontiert wird.
In Zukunft wollen die Forscher versuchen, ihre Methode mit Computer Vision zu kombinieren, um eine noch leistungsfähigere multimodale Sensortechnik zu entwickeln.
„Diese Arbeit versucht nicht, Computer Vision zu ersetzen. Beide Methoden haben ihre Vor- und Nachteile. Aber hier haben wir gezeigt, dass wir einige dieser Eigenschaften bereits ohne Kamera herausfinden können“, sagte Chen.
Sie möchten auch Anwendungen mit komplizierteren Robotersystemen wie Softrobotern und komplexeren Objekten wie schwappenden Flüssigkeiten oder körnigen Medien wie Sand erforschen. Langfristig hoffen sie, diese Technik nutzen zu können, um das Lernen von Robotern zu verbessern und es künftigen Robotern zu ermöglichen, schnell neue Manipulationsfähigkeiten zu entwickeln und sich an Veränderungen in ihrer Umgebung anzupassen.
Für weitere Informationen wenden Sie sich bitte an Melanie Grados unter Diese E-Mail-Adresse ist vor Spambots geschützt. Sie müssen JavaScript aktivieren, damit Sie es sehen können.; 617-253-1682.
Sensor
- Laserstrahl- vs. Elektronenstrahlschweißen:Wählen Sie den optimalen Prozess für Ihre Anwendungen
- 8051 Mikrocontroller-basierter Ultraschall-Objekterkennungsschaltkreis
- COVID-19 treibt die Entwicklung von Datenerfassung und Analytik voran
- Berührungsloser Tipp-/Neigungssensor
- Ein innovatives Bildgebungsverfahren für die dynamische optische Nanothermometrie
- Hall-Effekt-Magnetdesign:Frontal- und Slide-by-Konfigurationen
- Autonome Monteure montieren
- Der adaptive Hörsensor „lernt“ Hintergrundgeräusche, die Akkulaufzeit erhöht sich
- Bauen Sie ein drahtloses Roboterfahrzeug mit IR-Sensoren
- Prototyp-Treibstoffanzeige für Orbit