Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Manufacturing Technology >> Herstellungsprozess

Ein mobiler Roboter mit visueller Hindernisvermeidung

Zusammenfassung:

Der Zweck dieses Berichts besteht darin, das Konzept der Entwicklung und Implementierung eines mobilen Roboters zu diskutieren und zu demonstrieren, der in der Lage ist, Hindernisse mithilfe einer USB-Webcam visuell zu erkennen und zu vermeiden. Das System wurde auf die Raspberry Pi-Hardware portiert, einen Linux-basierten 35-Dollar-Computer. Dieser Blog beleuchtet die wichtigen Konzepte, die erforderlich waren, um die erfolgreiche Implementierung eines mobilen Roboters zu realisieren, der in einer Indoor-Umgebung navigieren kann. Die vorgeschlagene Lösung soll in einer Lagerumgebung verwendet werden, um Waren von einem Ort zum nächsten zu transportieren, ohne dass menschliche Bediener erforderlich sind.

Einleitung:

Roboter gibt es bereits auf dem Markt, aber diese Roboter sind teuer in der Anschaffung und wurden absichtlich für den Einsatz in einer einzigen Umgebung wie Lagerhallen, Schlachtfeldern oder zu Hause entwickelt. Diese Roboter sind in der Lage, Hindernisse mit passiven Sensoren wie Ultraschallsensoren und Infrarotsensoren zu erkennen und werden aufgrund ihrer Mobilität auf der Bodenoberfläche manchmal als autonome Fahrzeuge bezeichnet. Traditionell sind diese autonomen Systeme meist mit passiven Sensoren wie Ultraschall-Distanzsensoren, Infrarotsensoren oder GPS ausgestattet, um ihre Position und Umgebung zu erfassen. Das Vorhandensein dieser Sensoren ermöglicht es dem Roboter, Kollisionen mit Hindernissen zu vermeiden, wenn er mit Hindernissen platziert wird (Wang J. et al., 2011). Mit der Weiterentwicklung der kostengünstigen eingebetteten Computersystemtechnologie mit hoher Verarbeitungsleistung ist es jedoch möglich, ein zuverlässigeres und kostengünstigeres Verfahren zum Entwerfen autonomer Roboter zu verwenden, die in der Lage sind, Hindernisse zu erkennen. Ein mögliches Verfahren wäre die Verwendung eines Computer-Vision-Algorithmus, der visuell in der Lage wäre, Hindernisse zu erkennen und zu vermeiden. Die sensorbasierte Methode zum Erkennen von Hindernissen ist auf die Nähe der Hindernisse in Bezug auf die Entfernung des Roboters beschränkt, mit der visuellen Methode ist es jedoch möglich, das Hindernis zu erkennen und zu identifizieren, bevor das Hindernis umgangen wird.

Lösungsvorschlag und Artefakt:

Das Ziel dieses Berichts ist es, einen autonomen Roboter zu entwickeln, der in der Lage ist, Hindernisse mithilfe einer an einen Raspberry Pi angeschlossenen USB-Webcam zu erkennen und zu umgehen. Dieser Bericht stellt das Grundkonzept mobiler Roboter und die Technologien vor, die derzeit in Innenräumen eingesetzt werden. Die folgenden Schritte wurden durchgeführt, um das Vorschlagssystem zu implementieren:

Darüber hinaus wurden die folgenden Ziele erreicht, um das vorgeschlagene System vollständig zu verwirklichen:

Hardware- und Softwareliste:

Das vorgeschlagene System wurde auf einem Raspberry Pi mit einer USB-Webcam implementiert, um Bilder aufzunehmen. Im Folgenden finden Sie eine Liste der Hardware und Software, die erforderlich waren, um den vorgeschlagenen autonomen Roboter vollständig zu realisieren.

Hardware:

Softwarepaket:

Das vorgeschlagene System ist in der Lage, Hindernisse in verschiedenen Entfernungen zu erkennen. Dies wurde durch den visuellen Loming-Algorithmus inspiriert und wurde erreicht, indem die minimale Anzahl von Pixeln innerhalb des Codes definiert wurde, während der Abstand zwischen der Kamera und dem Hindernis gemessen wurde.

Abbildung – Der experimentelle Aufbau, der verwendet wurde, um die Beziehung zwischen dem Projektkreis und dem Abstand des Hindernisses vom Roboter zu finden

Die oben gezeigte Anordnung kann im Labor getroffen werden, um den Abstand zwischen dem Hindernis (Kreis) und dem Roboter zu messen, um das Verhältnis zwischen den minimalen Pixelzahlen zu bestimmen, die dem tatsächlichen Abstand des Hindernisses vom Roboter entsprechen. Wie aus dem obigen Diagramm und der Diskussion in Kapitel 2 hervorgeht, ist die Größe des Kreises größer, wenn der Kreis näher beieinander liegt, während er kleiner ist, wenn der Kreis weiter entfernt ist. Daher könnte eine Reihe von Tests durchgeführt werden, die Distanzmessungen des Hindernisses zum Roboter ermöglichen, wenn die Anzahl der Pixel innerhalb des Algorithmus geändert wird. Das Hindernis wird wie im Diagramm oben gezeigt bewegt, um die richtige Entfernung zu finden, in der der Algorithmus das Hindernis erkennt.

Abbildung – Das Konzept des Visual Loming ist von der Medizin inspiriert

Flussdiagramm des Gesamtsystems:

Das folgende Flussdiagramm erklärt, wie der vorgeschlagene Vision-basierte Roboter mit Raspberry Pi und dem SimpleCV-Framework entworfen werden würde. Wie in Abbildung 6 gezeigt, wird eine USB-Webcam an Raspberry Pi als Eingang für den Computer angeschlossen. Die USB-Webcam scannt eingehende Frames nach einer bestimmten geometrischen Form, z. B. einem Kreis, der auf Hindernissen platziert wird. Der Grund, die Hindernisse mit einer geometrischen Form, d. h. einem Kreis, zu markieren, wurde lediglich entschieden, um die Zeit bei der Vorbereitung des Algorithmus zu reduzieren. Normalerweise erfolgt die visuelle Hinderniserkennung mithilfe von zwei Kameras, die eine Stereovision erzeugen, um den Abstand zwischen dem Roboter und den Hindernissen zu beurteilen (Neves &Matos, 2013). Daher wurde die Erkennung einer geometrischen Form, d. h. von Kreisen, mit einer einzigen Kamera erreicht, indem der Radius des Kreises berechnet wurde, was dem Roboter helfen würde, den Abstand des Roboters und der Hindernisse zu erkennen. Diese Methode zum Erkennen eines Hindernisses wurde von der von Sachin &Paolo (1998) vorgeschlagenen Vision Loming-Methode inspiriert.

Das vorgeschlagene System wird eine USB-Kamera enthalten, die an einen Raspberry Pi angeschlossen wird. Raspberry Pi führt ein Python-Skript aus, das Bilder im Video aufnimmt, während es nach einer geometrischen Form, z. B. Kreisen, sucht. Wenn der Kreis erkannt wird, zieht das Skript basierend auf der Position des Kreises auf dem Bildschirm die GPIO-Port-Pins nach oben oder unten, die verwendet werden, um die Richtung des Roboters zu steuern.

Struktur des Computer-Vision-Algorithmus:

Der Algorithmus wurde auf einem mit Ubuntu betriebenen Laptop vorbereitet, bevor er auf einen Raspberry Pi portiert wurde. Dies liegt daran, dass Ubuntu und Raspbian Varianten von Linux sind, was die Portierung und Implementierung des Algorithmus zwischen den Plattformen erleichtert. Dies gab mir die Flexibilität, mit dem Algorithmus zu arbeiten, ohne ständig eine Verbindung zu meinem Raspberry Pi herstellen zu müssen. Daher wurde der Algorithmus unabhängig implementiert, ohne sich um die Hardwareschnittstelle zu kümmern.

Der erste Schritt beim Entwerfen eines Vision-basierten Systems besteht darin, die Region of Interest (ROI) auszuwählen, die das Hindernis erkennt und uns bei der Vorbereitung des Algorithmus hilft. Der ROI ist in diesem Fall ein schwarzer Kreis, der vom Algorithmus erkannt würde. Nach der Erkennung digitalisiert der Algorithmus das Bild, sodass nur der interessierende Bereich im Hintergrund sichtbar ist. Der Algorithmus würde die Koordinaten des Kreises auf dem Bildschirm messen und die Koordinaten in Bezug auf den Bereich des Bildschirms messen, in dem der Kreis erfasst wurde. Wenn die Koordinate in die Mitte des Bildschirms fällt, bewegt der Algorithmus den Roboter entsprechend, wie zuvor beschrieben.

Vor dem Schreiben des Algorithmus musste die Bildschirmauflösung festgelegt werden, mit der der Raspberry Pi das Hindernis erkennen und verfolgen kann. Da Raspberry Pi ein Computer mit geringer Leistung mit einer Systemtaktfrequenz von 700 MHz und einem begrenzten RAM von 512 MB ist, würde ein hochauflösender Videoeingang viel Rechenleistung verbrauchen, was das System schließlich unzuverlässig machen würde. Daher muss ein Mittelweg gewählt werden, der für den Raspberry Pi-Computer ausreicht, um die Daten der Kamera zu verarbeiten.

Nach mehreren Versuchen und Irrtümern wurde eine Auflösung von 320 × 240 ausgewählt, wie im späteren Abschnitt beschrieben. Diese Auflösung reichte aus, um die unterschiedlichen Farbräume und geometrischen Formen zu erkennen. Im Experiment wurde auch festgestellt, dass diese Auflösung nicht zu einer Verzögerung des Eingangsvideos führte, wie dies bei einer höheren Auflösung der Fall war, insbesondere 640 × 480 und höher. Dies wird ausführlich in Abschnitt 4 dieses Berichts erörtert.

Der erste Schritt zum Erkennen eines Hindernisses aus dem Bild bestand darin, den Bildschirm in drei verschiedene Segmente zu unterteilen, wie in Abbildung 8 gezeigt. Dies geschah, um die Position des Hindernisses zu erkennen und zu verfolgen, damit die jeweilige motorische Aktion wie in der Beschreibung beschrieben ausgeführt werden konnte Vorherige Sektion. Für dieses Designprojekt werden die Hindernisse durch ein spezielles Symbol, z. B. einen Kreis, dargestellt; daher würde das Vorhandensein eines Kreises das Vorhandensein eines Hindernisses im Algorithmus registrieren.

Für weitere Details:Ein mobiler Roboter mit Vision-basierter Hindernisvermeidung


Herstellungsprozess

  1. Was ist die Realität von Robot Vision?
  2. Raspberry Pi-basierter wandvermeidender Roboter – FabLab NerveCentre
  3. Webgesteuerter Raspberry Pi-Roboter mit Video
  4. Recycling-Sortierroboter mit Google Coral
  5. Lösen von Wartungsproblemen bei mobiler Zusammenarbeit
  6. Hindernisvermeidung durch künstliche Intelligenz
  7. Desinfektionsroboter mit UV-Licht
  8. Hindernisse vermeiden Roboter mit Servomotor
  9. Einfacher Hindernissensor mit Arduino
  10. Robot kombiniert einen kollaborativen Roboterarm mit einer mobilen Plattform