Industrielle Fertigung
Industrielles Internet der Dinge | Industrielle Materialien | Gerätewartung und Reparatur | Industrielle Programmierung |
home  MfgRobots >> Industrielle Fertigung >  >> Manufacturing Equipment >> Industrieroboter

Was ist die Realität von Robot Vision?

Robot Vision oder visionsgesteuerte Robotersysteme sind ein neuartiges Mittel, mit dem viele Hersteller die Einschränkungen beim Einspannen und Positionieren vermeiden, die bei Standard-Industrierobotern auftreten.

Diese Einschränkungen bestehen, weil ein Roboter typischerweise einem begrenzten oder präzisen Programm folgen muss, um einen wiederholbaren Prozess mit einer zuverlässigen Ausgabe durchzuführen. Sie können sich diese wie das Zusammenschweißen eines Autochassis oder die Hilfe bei der Montage von Komponenten auf einem Massenmontageband vorstellen – dies sind präzise und hoch wiederholbare Vorgänge, die erhebliche und präzise Einrichtungskosten rechtfertigen können, während sie sich dennoch rentieren.

In vielen Fällen macht jedoch die Vielfalt der Teile oder deren Größe und Volumen ein solches präzises Einspannen einfach unpraktisch. Robot Vision bietet ein alternatives Mittel, um die immer noch sehr repetitiven Prozesse zu erfüllen. Mit spezialisierter Technologie zusätzlich zu Vision-Kapazitäten kann Robot Vision auch die Tür zu „selbstprogrammierenden“ Lösungen öffnen, die nicht nur die Grenzen bestehender Jigging-Einschränkungen überwinden, sondern es Robotern tatsächlich ermöglichen, in Echtzeit auf nie dagewesene Prozesszeiten zu reagieren Teile und Positionen – alles mit dem Mehrwert keine manuelle Programmierung .

Wo Roboter heute eingesetzt werden

Roboter werden häufig von Automobilherstellern und anderen Massenmarktunternehmen eingesetzt. Es wird geschätzt, dass fast 40 % der nordamerikanischen Fertigungsroboter im Automobilsektor eingesetzt werden. Diese Roboter montieren Fahrzeuge und wenden Produktionsprozesse auf ihre Teile oder das Endprodukt an.

Dies funktioniert für diese Art von Hersteller, weil Autos 1) teuer in der Anschaffung sind, 2) teuer in der Herstellung sind, 3) große Losgrößen haben (es gibt viele Automodelle, die Zehntausende oder sogar Hunderttausende Einheiten pro Jahr verkaufen), 4) sehen Sie nur alle 5 bis 7 Jahre größere Designänderungen.

Pick and Place-Szenarien - ein Kern Einsatz neuer Roboter-Vision-Anwendungen - ändern sich langsam das Make-up von Robotern in der Herstellung von Firmen, ihre Vorteile sind jedoch im Allgemeinen immer noch auf Großserienanwendungen mit begrenztem Produktmix ausgerichtet. Quelle:St. Louis Fed.

Trotz der Art und Weise, in der Branchen wie die Automobilindustrie und die Elektronik verschiedene Arten von Roboteroperationen vorangetrieben haben, sind Roboter selbst nicht so reaktionsschnell auf andere Formen von Operationen geworden. Roboter oder maschinelles Sehen haben versucht, dies zu ändern, indem sie Robotern die Erfassungsfähigkeiten geben, um in Echtzeit auf ihre Umgebung zu reagieren oder Schlüsselobjekte zu identifizieren und sie im Weltraum zu manipulieren.

Nach heutigem Stand haben sich die meisten dieser Vorgänge ziemlich wiederholt – denken Sie an Palettier-, Pick-and-Place- oder automatisierte Vorgänge, bei denen ein Roboter kleine Teile und Komponenten im Raum identifizieren und montieren oder verbinden muss. Diese Anwendungen funktionieren nach wie vor mit neuen Anwendungen der künstlichen Intelligenz können Industrieroboter, die maschinelles Sehen verwenden, jedoch genauso reaktionsschnell wie menschliche Facharbeiter in industriellen Umgebungen werden, was vor allem den Herstellern von High-Mix-Produkten zugute kommt.

Wie Robot Vision bisher erprobt wurde

Versuche mit Roboter-Vision wurden durch statische Bilder, Radar, Lidar oder andere Formulierungen unternommen, während Fortschritte in der Computer-Vision auch andere Möglichkeiten zur Entwicklung autonomerer Roboter geschaffen haben.

Die bekanntesten Formen der Robotervision, die wir heute in den Medien sehen, sind selbstfahrende Autos, autonome mobile Roboter und „Picker“-Roboter. Selbstfahrende Autos funktionieren, während sie sich noch in der Entwicklung befinden und langsam einen starken Sicherheitsnachweis erreichen, auf Straßen und Autobahnen im Wesentlichen autonom.

Autonomes Fahren nutzt effektiv eine Kombination aus Karten, GPS und Situationsbewusstsein, um zu bewerten, wohin es fährt und welche Hindernisse im Weg sind, während es auch im Allgemeinen die verschiedenen Probleme von Verkehr, Ampeln, Stoppschildern, Fußgängern, Geschwindigkeitsbegrenzungen und Objekten im Straße, um an ihr Ziel zu gelangen. Diese Technologie ist bereits heute in Autos wie Tesla und von anderen Marken in Form von Spurassistenten und verschiedenen Sicherheitsfunktionen verfügbar, die die eigenen Fähigkeiten des Fahrers erweitern.

Autonome mobile Roboter werden hauptsächlich in Lagerhallen und manchmal in Paketzustellungs- oder Fernüberwachungsszenarien (wie beispielsweise einer Drohne) eingesetzt. In diesen Situationen wird KI auch verwendet, um allgemeine visuelle Informationen zu verarbeiten und spezifische Ziele zu identifizieren. Doordash hat bereits damit begonnen, kleine Lieferroboter einzusetzen, um Lebensmittel an ihr Ziel zu bringen.

Im obigen Beispiel wird maschinelles Sehen verwendet, um die Position von Kleinteilen im Raum zu erkennen, um einen maschinengestützten Robotermontageprozess durchzuführen. Eine manuelle Programmierung ist erforderlich, um den Montagebereich innerhalb dessen festzulegen, was der Roboter „sehen“ kann, aber letztendlich passen sie sich nicht an unterschiedliche Arten von Teilen oder Prozessanforderungen während des Prozesses an. Quelle:Kinemetrix.

Verschiedene Lagerroboter wurden auch als geeignet für die Materialhandhabung und sogar für das Packen angesehen, während „Picker“-Roboter, die auf Technologien wie denen von Covariant basieren, es Robotern ermöglichen, zwischen Objekten auf einem Förderband zu unterscheiden und sie zu verpacken oder zu sortieren, sei es für den Großhandel oder den Einzelhandelsversand . Das geht in Sachen Robot Vision noch einen Schritt weiter, denn es soll zwischen verschiedenen Arten von Teilen unterscheiden und diese adäquat sortieren – ein großer Fortschritt, aber noch beschränkt auf Lageranwendungen, Materialhandling und nicht wertschöpfungs- oder handwerksbasiert Prozesse.

Für Wertschöpfungsprozesse wurde Robot Vision auf vielfältige Weise eingesetzt, sie sind jedoch oft Teil noch programmatischer Maschinen-Frameworks, die in Bezug auf Programmierung oder Teilemischungen nicht unbedingt in Echtzeit funktionieren. Gleichzeitig werden sie mehr denn je gebraucht. Zwischen sozialer Distanzierung, der Rentenkrise der Babyboomer und dem Fachkräftemangel bei jüngeren Arbeitnehmern haben Unternehmen nicht genügend Automatisierungsmöglichkeiten, um die Produktionsleistung aufrechtzuerhalten, ohne die Kosten in die Höhe zu treiben – für sich selbst, für Kunden und Verbraucher.

Warum Robot Vision Durchbrüche bei der Selbstprogrammierung ermöglicht

Die Kombination von Robot Vision mit effektiver und auf Prozesse spezialisierter KI ist der letzte Schritt, um Fabriken und Einrichtungen echte Autonomie am Arbeitsplatz zu verleihen.

Bei Omnirobotic haben wir Infrarotsensorsysteme entwickelt, die es Robotern ermöglichen, Formen zu visualisieren und zu interpretieren, wenn sie vor ihnen platziert werden. Dieses System verfügt über eine ausreichende Tiefenwahrnehmung und ein ausreichendes Sichtfeld, um ein digitalisiertes Bild verschiedener Teile, Formen und Positionen in einer Fertigungsumgebung in einem ähnlichen Ausmaß zu erzeugen, wie es ein Facharbeiter „im eigenen Kopf“ haben könnte. Mithilfe von KI kann unser System dann einzigartige Roboterbewegungen in Echtzeit erzeugen, die sowohl den herkömmlichen Programmierprozess abkürzen als auch es Robotern ermöglichen, unabhängig von der Teilevielfalt oder vielen gängigen Herstelleranforderungen autonom zu funktionieren.

Diese Technologie berücksichtigt eine Vielzahl von Prozessbeschränkungen. Benötigen Sie beispielsweise bei einem Spritzverfahren einen bestimmten Werkzeugtyp? Ist ein Abstand zwischen Werkzeug und Teil erforderlich? Gibt es nur Gesichter von Teilen, die lackiert werden müssen?

>

Nachdem Sie diese Funktionen spezifiziert haben, profitieren Sie letztendlich vom maschinellen Sehen, das direkt beim Identifizieren, Interpretieren der Ausrichtung von Teilen und Generieren einer einzigartigen Roboterbewegung verwendet wird, um dies zu erreichen. All diese Anforderungen erfordern letztlich eine klare „Arbeitsteilung“ innerhalb der KI, mit der sie verarbeitet werden. Durch die Identifizierung von Teile-, Prozess- und Verfahrensparametern können Maschinen endlich alle notwendigen Informationen interpretieren, die es einem Roboter ermöglichen, durch Roboter-Vision nahezu in Echtzeit zu programmieren.

Industrieroboter

  • CNC-Maschine
  • Industrieroboter
  • Industrielle Ausrüstung
    1. Was ein autonomer Roboter kann und was nicht
    2. Was ist der wahre Unterschied zwischen einem autonomen Roboter und einer HMI?
    3. Verstehen des Cashflow-Effekts von Robotern
    4. Was zum Teufel ist ein selbstprogrammierender Roboter?
    5. Die Roboter auf Trab halten
    6. Knickgelenkte Roboter:Leitfaden für den bekanntesten Industrieroboter
    7. Kartesische Roboter:Leitfaden für die skalierbarste Robotertechnologie
    8. Welche Vorteile bietet ein Industrieroboter?
    9. Welche Jobs haben Roboter geschaffen?
    10. COBOTS vs. Industrieroboter:Was ist der Unterschied?