Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Industrial Internet of Things >> Sensor

Filter verbessert die Robotersicht bei der 6D-Poseschätzung

Roboter sind gut darin, identische, sich wiederholende Bewegungen auszuführen, wie beispielsweise eine einfache Aufgabe auf einem Fließband. Aber ihnen fehlt die Fähigkeit, Objekte wahrzunehmen, wenn sie sich durch eine Umgebung bewegen. Eine aktuelle Studie wurde von Forschern der University of Illinois at Urbana-Champaign, NVIDIA, der University of Washington und der Stanford University zur 6D-Objektposenschätzung durchgeführt, um einen Filter zu entwickeln, der Robotern eine bessere räumliche Wahrnehmung verleiht, damit sie Objekte manipulieren und navigieren können genauer durch den Raum.

Während die 3D-Pose Standortinformationen auf der X-, Y- und Z-Achse liefert – die relative Position des Objekts in Bezug auf die Kamera – liefert die 6D-Pose ein viel vollständigeres Bild. Ähnlich wie bei der Beschreibung eines fliegenden Flugzeugs muss der Roboter die drei Dimensionen der Ausrichtung des Objekts kennen:Gieren, Neigen und Rollen. In realen Umgebungen ändern sich alle sechs dieser Dimensionen ständig.

Der Filter wurde entwickelt, um Robotern bei der Analyse räumlicher Daten zu helfen. Der Filter betrachtet jedes Partikel oder jede einzelne Bildinformation, die von Kameras erfasst wird, die auf ein Objekt gerichtet sind, um Beurteilungsfehler zu reduzieren.

In einem bildbasierten 6D-Pose-Schätzungs-Framework verwendet ein Partikelfilter Proben, um die Position und Ausrichtung zu schätzen. Jedes Teilchen ist wie eine Hypothese – eine Vermutung über die Position und Ausrichtung, die geschätzt werden muss. Der Partikelfilter verwendet die Beobachtung, um den Wichtigkeitswert der Informationen von den anderen Partikeln zu berechnen und eliminiert die falschen Schätzungen.

Bisher gab es kein System, um die vollständige Verteilung der Orientierung des Objekts abzuschätzen. Dies liefert wichtige Unsicherheitsinformationen für die Robotermanipulation. Der neue Filter verwendet 6D-Objekt-Pose-Tracking im Rao-Blackwellized-Partikelfilter-Framework, bei dem die 3D-Rotation und die 3D-Translation eines Objekts getrennt werden. Dies ermöglicht dem neuen Ansatz namens PoseRBPF, die 3D-Translation eines Objekts zusammen mit der vollständigen Verteilung über die 3D-Rotation effizient zu schätzen. Infolgedessen kann Pose-RBPF Objekte mit beliebigen Symmetrien verfolgen und gleichzeitig angemessene spätere Verteilungen beibehalten.

Weitere Informationen erhalten Sie von Lois Yok-soulian unter Diese E-Mail-Adresse ist vor Spambots geschützt! JavaScript muss aktiviert werden, damit sie angezeigt werden kann.; 217-244-2788.


Sensor

  1. Was ist die Realität von Robot Vision?
  2. Was ist ein Filter?
  3. Automatische Bildverfolgung von Objekten
  4. Ein mobiler Roboter mit visueller Hindernisvermeidung
  5. Künstliche Intelligenz hilft Robotern, Objekte durch Berührung zu erkennen
  6. Omrons TM Cobot beschleunigt Integration und Programmierung
  7. Stanford-Ingenieure entwickeln einen hockenden, vogelähnlichen Roboter
  8. Handgeführte Roboter
  9. Autonomer Roboter öffnet Türen
  10. Servobewegung verbessert den Roboterbetrieb