Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Sensor

Simulationsgestützte Pipelines passen Trainingsdaten für geschickte Roboter an

Motion Design INSIDER

PhysicsGen kann ein paar Dutzend Virtual-Reality-Demonstrationen in fast 3.000 Simulationen pro Maschine für mechanische Begleiter wie Roboterarme und -hände multiplizieren. (Bild:Entworfen von Alex Shipps/MIT CSAIL, unter Verwendung von Fotos der Forscher)

Wenn ChatGPT oder Gemini eine scheinbar fachmännische Antwort auf Ihre brennenden Fragen geben, ist Ihnen möglicherweise nicht bewusst, auf wie viele Informationen sie angewiesen sind, um diese Antwort zu geben. Wie andere beliebte Modelle der generativen künstlichen Intelligenz (KI) basieren diese Chatbots auf Backbone-Systemen, sogenannten Fundamentmodellen, die auf Milliarden oder sogar Billionen von Datenpunkten trainieren.

In ähnlicher Weise hoffen Ingenieure, Fundamentmodelle zu bauen, die einer Reihe von Robotern neue Fähigkeiten wie das Aufnehmen, Bewegen und Ablegen von Objekten an Orten wie Häusern und Fabriken beibringen. Das Problem besteht darin, dass es schwierig ist, Lehrdaten zwischen Robotersystemen zu sammeln und zu übertragen. Sie könnten Ihrem System beibringen, indem Sie die Hardware Schritt für Schritt mithilfe von Technologien wie Virtual Reality (VR) teleoperieren, aber das kann zeitaufwändig sein. Schulungen mit Videos aus dem Internet sind weniger lehrreich, da die Clips keine schrittweise, spezielle Anleitung für bestimmte Roboter bieten.

Ein simulationsgesteuerter Ansatz namens „PhysicsGen“ vom Computer Science and Artificial Intelligence Laboratory (CSAIL) des MIT und dem Robotics and AI Institute passt Robotertrainingsdaten an, um Robotern dabei zu helfen, die effizientesten Bewegungen für eine Aufgabe zu finden. Das System kann ein paar Dutzend VR-Demonstrationen in fast 3.000 Simulationen pro Maschine multiplizieren. Diese hochwertigen Anweisungen werden dann auf die präzisen Konfigurationen mechanischer Begleiter wie Roboterarme und -hände abgebildet.

PhysicsGen erstellt Daten, die über einen dreistufigen Prozess auf bestimmte Roboter und Zustände verallgemeinert werden können. Zunächst verfolgt ein VR-Headset, wie Menschen Objekte wie Blöcke mit ihren Händen manipulieren. Diese Interaktionen werden gleichzeitig in einem 3D-Physiksimulator abgebildet, der die Schlüsselpunkte unserer Hände als kleine Kugeln visualisiert, die unsere Gesten widerspiegeln. Wenn Sie beispielsweise ein Spielzeug umdrehen, sehen Sie 3D-Formen, die verschiedene Teile Ihrer Hände darstellen und eine virtuelle Version dieses Objekts drehen.

Die Pipeline ordnet diese Punkte dann einem 3D-Modell des Aufbaus einer bestimmten Maschine (z. B. eines Roboterarms) zu und verschiebt sie genau an die „Gelenke“, an denen sich ein System dreht und wendet. Schließlich nutzt PhysicsGen die Trajektorienoptimierung – im Wesentlichen die Simulation der effizientesten Bewegungen zur Erledigung einer Aufgabe –, sodass der Roboter weiß, wie er beispielsweise eine Kiste am besten neu positionieren kann.

Bei jeder Simulation handelt es sich um einen detaillierten Trainingsdatenpunkt, der einen Roboter durch mögliche Möglichkeiten zum Umgang mit Objekten führt. Bei der Implementierung in eine Richtlinie (den Aktionsplan, dem der Roboter folgt) verfügt die Maschine über verschiedene Möglichkeiten, eine Aufgabe anzugehen, und kann verschiedene Bewegungen ausprobieren, wenn eine davon nicht funktioniert.

„Wir erstellen roboterspezifische Daten, ohne dass Menschen spezielle Demonstrationen für jede Maschine neu aufzeichnen müssen“, sagte Lujie Yang, Doktorand am MIT. Student der Elektrotechnik und Informatik und CSAIL-Partner, der Hauptautor eines neuen Papiers zur Einführung des Projekts ist. „Wir skalieren die Daten auf autonome und effiziente Weise und machen Aufgabenanweisungen für ein breiteres Spektrum von Maschinen nutzbar.“

Die Generierung so vieler Lehrbahnen für Roboter könnte Ingenieuren schließlich dabei helfen, einen riesigen Datensatz zu erstellen, um Maschinen wie Roboterarme und geschickte Hände zu steuern. Die Pipeline könnte beispielsweise dazu beitragen, dass zwei Roboterarme zusammenarbeiten, um Lagerartikel aufzunehmen und sie für Lieferungen in die richtigen Kartons zu legen. Das System kann auch zwei Roboter dazu anleiten, in einem Haushalt bei Aufgaben wie dem Einräumen von Tassen zusammenzuarbeiten.

Das Potenzial von PhysicsGen erstreckt sich auch auf die Umwandlung von Daten, die für ältere Roboter oder andere Umgebungen entwickelt wurden, in nützliche Anweisungen für neue Maschinen. „Obwohl wir diese früheren Datensätze für einen bestimmten Robotertyp gesammelt haben, können wir sie wiederbeleben, um sie allgemeiner nutzbar zu machen“, sagte Yang. PhysicsGen hat aus nur 24 menschlichen Demonstrationen Tausende von simulierten Demonstrationen gemacht und dabei sowohl digitale als auch reale Roboter dabei unterstützt, Objekte neu auszurichten.

Yang und ihre Kollegen testeten ihre Pipeline zunächst in einem virtuellen Experiment, bei dem eine schwebende Roboterhand einen Block in eine Zielposition drehen musste. Der digitale Roboter führte die Aufgabe mit einer Genauigkeit von 81 Prozent aus, indem er auf dem umfangreichen Datensatz von PhysicsGen trainierte, eine Verbesserung um 60 Prozent gegenüber einem Ausgangswert, der nur durch menschliche Demonstrationen gelernt wurde.

Die Forscher fanden außerdem heraus, dass PhysicsGen die Zusammenarbeit virtueller Roboterarme bei der Manipulation von Objekten verbessern könnte. Ihr System erstellte zusätzliche Trainingsdaten, die zwei Roboterpaaren dabei halfen, Aufgaben bis zu 30 Prozent häufiger erfolgreich zu erledigen als eine rein von Menschen erlernte Basislinie.

In einem Experiment mit einem Paar realer Roboterarme beobachteten die Forscher ähnliche Verbesserungen, als die Maschinen zusammenarbeiteten, um eine große Kiste in die vorgesehene Position zu drehen. Wenn die Roboter von der beabsichtigten Flugbahn abwichen oder das Objekt falsch handhabten, konnten sie sich mitten in der Aufgabe erholen, indem sie alternative Flugbahnen aus ihrer Bibliothek mit Lehrdaten referenzierten.

Der leitende Autor Russ Tedrake, Toyota-Professor für Elektrotechnik und Informatik, Luft- und Raumfahrt sowie Maschinenbau am MIT, sagte, dass diese imitationsgesteuerte Datengenerierungstechnik die Stärken menschlicher Demonstration mit der Leistungsfähigkeit von Roboter-Bewegungsplanungsalgorithmen kombiniert.

„Schon eine einzige Demonstration durch einen Menschen kann das Bewegungsplanungsproblem viel einfacher machen“, sagte Tedrake, der auch Senior Vice President für große Verhaltensmodelle am Toyota Research Institute und CSAIL-Hauptforscher ist. „In Zukunft werden die Basismodelle vielleicht in der Lage sein, diese Informationen bereitzustellen, und diese Art von Datengenerierungstechnik wird eine Art Post-Training-Rezept für dieses Modell liefern.“

Bald könnte PhysicsGen auf ein neues Gebiet ausgeweitet werden:die Diversifizierung der Aufgaben, die eine Maschine ausführen kann. „Wir möchten PhysicsGen nutzen, um einem Roboter beizubringen, Wasser auszugießen, wenn er beispielsweise nur darauf trainiert wurde, Geschirr wegzuräumen“, sagt Yang. „Unsere Pipeline generiert nicht nur dynamisch ausführbare Bewegungen für bekannte Aufgaben; sie hat auch das Potenzial, eine vielfältige Bibliothek physischer Interaktionen zu erstellen, die unserer Meinung nach als Bausteine für die Bewältigung völlig neuer Aufgaben dienen können, die ein Mensch noch nicht demonstriert hat.“

Die Erstellung vieler allgemein anwendbarer Trainingsdaten könnte letztendlich dabei helfen, ein Basismodell für Roboter zu erstellen, obwohl MIT-Forscher warnen, dass dies ein etwas entferntes Ziel ist. Das von CSAIL geleitete Team untersucht, wie PhysicsGen riesige, unstrukturierte Ressourcen – wie Internetvideos – als Keime für Simulationen nutzen kann. Das Ziel:alltägliche visuelle Inhalte in reichhaltige, robotertaugliche Daten umzuwandeln, die Maschinen beibringen könnten, Aufgaben auszuführen, die ihnen niemand explizit gezeigt hat.

Yang und ihre Kollegen wollen PhysicsGen in Zukunft auch für Roboter mit unterschiedlichen Formen und Konfigurationen noch nützlicher machen. Um dies zu erreichen, planen sie, Datensätze mit Demonstrationen echter Roboter zu nutzen und zu erfassen, wie sich Robotergelenke statt menschlicher bewegen.

Die Forscher planen auch die Einbeziehung von Reinforcement Learning, bei dem ein KI-System durch Versuch und Irrtum lernt, damit PhysicsGen seinen Datensatz über von Menschen bereitgestellte Beispiele hinaus erweitert. Sie können ihre Pipeline mit fortschrittlichen Wahrnehmungstechniken erweitern, um einem Roboter zu helfen, seine Umgebung visuell wahrzunehmen und zu interpretieren, sodass die Maschine die Komplexität der physischen Welt analysieren und sich an sie anpassen kann.

Derzeit zeigt PhysicsGen, wie KI uns dabei helfen kann, verschiedenen Robotern beizubringen, Objekte derselben Kategorie, insbesondere starre Objekte, zu manipulieren. Die Pipeline könnte Robotern bald dabei helfen, die besten Möglichkeiten für den Umgang mit weichen Gegenständen (wie Früchten) und verformbaren Gegenständen (wie Ton) zu finden, aber diese Interaktionen sind noch nicht einfach zu simulieren.

Quelle 


Sensor

  1. Lenovo fügt den Novelda-UWB-Sensor für die Personenerkennung in ThinkPad hinzu
  2. Array für kinetische Induktivitätsdetektoren für ferne Infrarot-Mikrowellen (FIR MKID).
  3. Automatisches Beobachtungsmanagementsystem, neues Tool zur Koordinierung des Teleskopnetzwerks
  4. Linda Godwin:915 Stunden im Weltraum, zwei historische Weltraumspaziergänge und eine NASA-Karriere
  5. KI-Beschleunigungsstrategien revolutionieren Embedded-Computing-Architekturen
  6. Überlegungen zum Beleuchtungsdesign für robotergestützte Chirurgie-Sichtsysteme
  7. Ultradünner, energieeffizienter Fotodetektor mit integriertem Gorilla-Glas
  8. Transformieren Sie die Patientenversorgung mit implantierbaren Sensoren für die interne Überwachung in Echtzeit
  9. Funktionsprinzip von RTD-Sensoren und seine Anwendungen
  10. 5 Ws von Roboterhelfern im Gesundheitswesen