Schritt-für-Schritt-Anleitung:Bereitstellen von Bin Picking Studio mit dem ABB Robotics Add-In
Am 11. Dezember 2025 haben wir gemeinsam mit ABB Robotics ein exklusives Webinar mit dem Titel „Mastering Complex Automation with 3D Vision-Guided Robotics“ veranstaltet.
Ziel war es, einen großen Fortschritt in der industriellen Automatisierung zu demonstrieren:den Zusammenbruch der traditionellen Mauern zwischen fortschrittlichen 3D-Bildverarbeitungssystemen und Roboterzellen.
Seit Jahren fordern Hersteller einen einheitlichen Ansatz für visionsgesteuerte Robotik – einen, der die Komplexität beseitigt und den Einsatz beschleunigt. Wir sind dieser Forderung nachgekommen, indem wir unser Locator Studio und Bin Picking Studio direkt in das ABB Robotics One-Ökosystem und die OmniCore-Steuerung integriert haben.
Im folgenden Leitfaden führen wir Sie durch die technischen Besonderheiten dieser Integration. Von Hardwareverbindungen bis zum endgültigen Blockprogrammierungsassistenten.
Hier erfahren Sie genau, wie Sie Ihre erste KI-Anwendung zur Bin-Picking-Anwendung mit dem neuen Photoneo-Add-in für ABB starten.
1. Grundlagen der Hardwareverbindung
Die Grundlage einer zuverlässigen Anwendung beginnt mit der physischen Einrichtung. Wählen Sie zunächst den geeigneten Scanner für Ihre Szene aus:Verwenden Sie den PhoXi 3D-Scanner für statische Umgebungen oder die MotionCam-3D, wenn Ihre Anwendung dynamische Szenen umfasst oder die Vernetzung des Bereichs direkt vor dem Roboter erfordert.
Anschließend schließen Sie den Industrie-PC mit der Locator- oder Bin Picking Studio-Lizenz an. Dieser PC verfügt über sechs spezifische Ethernet-Ports. Sie müssen Port 1 für die Roboterkommunikation und Port 2 für die Internetverbindung verbinden. Die Ports 3 bis 6 sind für Ihre Scangeräte reserviert.
2. Add-In installieren
Die Installation ist ein schneller, siebenminütiger Vorgang, der direkt auf der Robotersteuerung durchgeführt wird. Laden Sie das Installationspaket von der Photoneo-Website auf einen USB-Stick herunter und stecken Sie ihn in das ABB FlexPendant.
Navigieren Sie im Hauptmenü zu „Controller-Software“, wählen Sie „Neues Add-In installieren“ und wählen Sie das Photoneo-Paket.
Der wichtigste Schritt hierbei ist die Auswahl der richtigen Vorlage, die zu Ihrer physischen Konfiguration passt.
Hand-Auge-Konfiguration (links), Extrinsische Konfiguration (rechts)Wenn Ihre Kamera auf einem Ständer montiert ist, wählen Sie das Extrinsic Setup (wählen Sie „Basic“ für einzelne Geräte oder „Multiple Vision“ für mehrere). Wenn die Kamera am Roboterflansch montiert ist, wählen Sie das Hand-Auge-Setup. Für Hand-Auge können Sie festlegen, ob der Roboter für Scans anhalten soll („Multi-View Static“) oder während der Bewegung scannen soll („Multi-View Dynamic“).
Der Installationsvorgang ist unkompliziert und dauert etwa sieben Minuten – gerade genug Zeit, um einen Kaffee zu trinken.
- Herunterladen und speichern: Laden Sie das Installationspaket von der Photoneo-Website herunter und speichern Sie es auf einem USB-Stick.
- USB einstecken: Stecken Sie den Stick in den USB-Anschluss des ABB FlexPendant.
- Add-in auswählen: Gehen Sie zum ABB-Hauptmenü -> Controller-Software -> Neues Add-In installieren .
- Installieren: Wählen Sie das Photoneo-Add-In aus und klicken Sie auf „Weiter“.
- Vorlage auswählen: Das ist entscheidend. Wählen Sie die Vorlage aus, die Ihrer physischen Einrichtung entspricht:
3. Netzwerkkonfiguration
Nach der Installation erscheint ein neues Photoneo-Symbol im ABB-Hauptmenü. Wenn Sie dies öffnen, werden die Netzwerkeinstellungen angezeigt, in denen Sie zwischen öffentlichen und privaten Netzwerken wechseln können.
Das System verfügt über vordefinierte Adressen für die visuelle Steuerung und das Robotersystem (normalerweise über den Verwaltungsanschluss oder die DSQC 1100-E/A-Karte).
Wenn Sie benutzerdefinierte IP-Adressen eingeben müssen, validiert das System diese sofort. Eine blinkende grüne Schaltfläche „Speichern“ zeigt den Erfolg an.
Bei privaten Netzwerken können Sie mit der Funktion „Zum Photoneo-Server umleiten“ sowohl den Roboter als auch die Photoneo-Software über eine einzige Schnittstelle steuern.
Öffnen Sie nach der Installation das neue Photoneo-Symbol im ABB-Hauptmenü. Sie sehen drei Abschnitte:
- Handbuch (links): Eine Anleitung, die Ihnen hilft, schnell loszulegen.
- Netzwerkeinstellungen (Mitte):
- Sie können zwischen öffentlichen und privaten Netzwerken wählen.
- Adressen sind für den visuellen Controller und das Robotersystem vordefiniert (eine Verbindung zum Management-Port oder zur DSQC 1100-E/A-Karte wird erwartet).
- Wenn Sie eine IP ändern, validiert das System sie; Bei Erfolg blinkt die Schaltfläche „Speichern“ grün.
Weiterleitung zum Photoneo-Server (rechts): Eine leistungsstarke Funktion für private Netzwerke, die Ihnen an einem Ort die volle Kontrolle über beide Roboterfunktionen und die Photoneo-Software gibt.
4. Bin Picking Studio (BPS) einrichten
Wenn das Netzwerk aktiv ist, wechseln Sie zum Bin Picking Studio, um die Anwendungslogik zu definieren.
Erstellen Sie zunächst eine neue Lösung mit einer eindeutigen ID und definieren Sie dann die Hardware:Wählen Sie Ihr Robotermodell aus, laden Sie ein CAD-Modell Ihres Greifers hoch (STL unter 1 MB) und legen Sie den Tool Center Point (TCP) fest. Hier definieren Sie auch die Greifmethode, einschließlich Annäherungsvektoren und linearer Pfade.
Auswahl der Roboter in Bin Picking StudioAls nächstes konfigurieren Sie die Vision und Umgebung. Fügen Sie Ihr Bildverarbeitungssystem hinzu und wählen Sie das neuronale Netzwerk zur Objekterkennung aus.
Auf der Registerkarte „Umgebung“ können Sie STL-Modelle Ihrer Arbeitszelle importieren, um Kollisionsobjekte zu definieren und Testscans auszulösen, um zu überprüfen, ob die Punktwolke mit Ihrem digitalen Robotermodell übereinstimmt.
Schließlich können Sie unter „Einstellungen“ die Auswahlprioritäten optimieren und „Automatische Snapshots“ aktivieren, um bei der Fehlersuche bei fehlgeschlagenen Auswahlen zu helfen.
Hier ist eine kurze Schritt-für-Schritt-Übersicht:
Schritt A:Projekt und Hardware
- Neue Lösung: Erstellen Sie ein Projekt mit einer eindeutigen ID (wird vom Roboterprogramm verwendet, um diese spezifische Lösung aufzurufen).
- Roboter: Wählen Sie den Namen, die Reichweite und die Nutzlast Ihres Roboters aus.
- Greifer: Laden Sie ein CAD-Modell hoch (STL-Datei unter 1 MB), definieren Sie den Tool Center Point (TCP) und legen Sie die Invarianz fest.
- Greifmethode: Definieren Sie Pfadphasen (z. B. Annäherung, linearer Pfad, Positionstoleranz). Hier können Sie vordefinierte Roboterroutinen auslösen.
Schritt B:Vision und Umwelt
- Vision-System: Fügen Sie bis zu vier Systeme hinzu. Konfigurieren Sie den Kalibrierungstyp, die Sensor-ID und das Scanprofil.
- Lokalisierung: Wählen Sie das neuronale Netzwerk zur Objekterkennung und anfänglichen Greifpunktplatzierung.
- Umgebung:
- Szene: Legen Sie Kollisionsobjekte fest (einfache Formen oder importierte STLs Ihrer Arbeitszelle).
- Roboter: Bewegen Sie den Roboter, sehen Sie sich aktuelle Positionen an und legen Sie Achsengrenzen fest.
- Vision: Lösen Sie einen Scan aus, um zu überprüfen, ob die Punktwolke mit Ihrem Robotermodell übereinstimmt.
- Einstellungen: Passen Sie die Kommissionierpriorität, Winkelgrenzen und Kollisionsparameter genau an. Tipp:Aktivieren Sie „Automatische Snapshots“ für fehlgeschlagene Aktionen, um die Fehlerbehebung zu erleichtern.
Schritt C:Bereitstellen
- Produktionsmodus: Vollständig betriebsbereit; akzeptiert Anfragen direkt vom Roboter.
- Simulationsmodus: Simuliert Roboterbewegungen anhand realer oder simulierter Daten. Ideal zum Testen der Gelenkgrenzen und des Greiferdesigns.
5. Roboterprogramm und -kalibrierung
Passen Sie nun das Programm des Roboters an Ihre Anwendung an.
Bevor Sie das System starten, müssen Sie das interne Programm des Roboters anpassen. Aktivieren Sie zunächst die Firewall in RobotStudio, insbesondere für „Rapid Sockets“ im privaten Netzwerk, und starten Sie die Steuerung neu.
Anschließend müssen Sie dem Roboter bestimmte physische Positionen beibringen. Bewegen Sie den Roboter mit dem richtigen Arbeitsobjekt und Werkzeug, um die Positionen „Home“, „Beginn der Behälterkommissionierung“ und „Ende der Kommissionierung“ zu definieren.
Sie müssen außerdem die Öffnungs-/Schließsignale Ihres Greifers den Routinen AttachGripper und DetachGripExcerptper zuordnen.
Platzieren Sie zur Kalibrierung das entsprechende Werkzeug im Arbeitsbereich – eine Kugel für extrinsische Setups oder ein Markermuster für Hand-Auge.
MarkierungsmusterDie CalibPositions-Routine enthält neun Zielpositionen. Passen Sie diese Ziele so an, dass das Sichtsystem in jeder Pose eine klare Sicht auf die Markierung hat, ohne dass es zu Kollisionen kommt. Führen Sie die Kalibrierungsroutine aus und stellen Sie sicher, dass das Endergebnis unter 2 mm liegt.
- Firewall (entscheidend):
- Aktivieren Sie die Firewall in RobotStudio.
- Firewall für Rapid Sockets aktivieren im privaten Netzwerk.
- Starten Sie die Robotersteuerung neu.
- IP-Konfiguration: Geben Sie in der Photoneo-Web-App die richtigen IP-Adressen für den Roboter und die visuelle Steuerung ein.
- Werkzeug- und Lastdaten: Geben Sie dies manuell ein oder führen Sie LoadIdentify aus Serviceroutine.
- Ziele lehren: Bewegen Sie den Roboter (mit dem richtigen Arbeitsobjekt und Werkzeug), um Folgendes zu lehren:
- Home-Position.
- Bin-Picking-Position starten.
- Entnahmeposition beenden.
- Signallogik: Ordnen Sie Ihre Greifersignale (Öffnen/Schließen) den Routinen AttachGripper und DetachGripper zu.
Kalibrierungsroutine
- Vorbereiten: Platzieren Sie Ihr Kalibrierungswerkzeug (Markermuster für Hand-Auge, Kugel für Extrinsisch) im Arbeitsbereich.
- Lehrpositionen: Die CalibPositions-Routine verfügt über neun Ziele. Passen Sie sie so an, dass das Bildverarbeitungssystem den Marker in jeder Pose ohne Kollision erkennt.
- Kalibrierung ausführen: Führen Sie die Photoneo-Kalibrierungsroutine auf dem Roboter aus.
Prüfergebnis: Streben Sie ein Ergebnis unter 2 mm an .
6. Der Assistent:Blockprogrammierung
Sie benötigen keine tiefen Programmierkenntnisse.
Der letzte Schritt besteht darin, die Anwendungslogik mithilfe des Blockprogrammierungsassistenten zu erstellen, wodurch eine komplexe Codierung überflüssig wird. Sie sehen Blöcke mit der Bezeichnung HE (Hand-Auge) oder X (Extrinsisch).
Ein Standard-Workflow beginnt mit einem Initialisierungsblock (der IPs und Home-Positionen enthält), gefolgt von einer While-Schleife, die zur kontinuierlichen Ausführung auf TRUE gesetzt ist. Innerhalb der Schleife stapeln Sie einfach die erforderlichen Aktionen:einen Scan-Block zum Durchführen der Lokalisierung, einen Pick-Block zum Greifen des Teils und einen Place-Block zum Freigeben.
Der Place-Block enthält sogar einen „Annäherungs“-Parameter, der automatisch eine sichere Position 100 mm über dem Absetzpunkt berechnet. Sobald die Blöcke angeordnet sind, klicken Sie einfach auf „Übernehmen“, um die Anwendung bereitzustellen.
Mit dem Assistenten können Sie die Anwendungslogik mithilfe einfacher Blöcke mit der Bezeichnung HE erstellen (Hand-Auge) oder X (Extrinsisch).
Beispiellogikablauf:
- Initialisierungsblock: Geben Sie die Vision-Controller-IP, die Vision-System-ID sowie die Ausgangs-, Start- und Endpositionen ein.
- While-Schleife: Setzen Sie das Argument für den kontinuierlichen Betrieb auf TRUE.
- Scan-Block:
- Scan-Pose: Nutzen Sie eine bestehende Position oder erstellen Sie eine neue.
- Vision-ID: Wählt aus, welches System die Lokalisierung durchführt.
- Wartezeit: Optionaler Parameter, um sicherzustellen, dass der Roboter vor dem Scannen stabil ist.
- Block auswählen: Stellt sicher, dass das Objekt erfolgreich ausgewählt wurde.
- Block platzieren: Definiert den Abgabeort.
- Ansatzparameter: Erstellt automatisch eine Position 100 mm über dem Objekt für Annäherung und Freigabe.
Letzter Schritt: Klicken Sie auf Übernehmen .
Sie sind jetzt bereit, Ihre allererste KI-basierte Bin-Picking-Anwendung mit Photoneo und der Omnicore-Plattform auszuführen. Sehen Sie sich das Webinar noch heute an, um alles über seine Leistungsfähigkeit und Vorteile sowie Erfolgsgeschichten aus der Praxis zu erfahren!
Automatisierungssteuerung System
- Automatisierung:Roboterserie zur Unterstützung größerer Maschinen erweitert
- Reduzierung der Komplexität für Engineer-to-Order-Hersteller endlich möglich
- Regionale Arbeitskräftekonferenz beim JWCC, um Unternehmen bei der Bewältigung des Arbeitskräftemangels und bei der Anpassung an die Zukunft zu helfen
- Neue Handwerkszeuge:Können Roboter das Handwerk im Möbelbau wiederbeleben?
- Halter-CNC-Automatisierung fügt Halfprint-Halter Compact hinzu
- Digital Factory:Rockwell Automation erwirbt Plex Systems
- Benötigt Ihr Unternehmen einen Chief Automation Officer?
- Industrie 4.0:Jetzt ist die Extrusion an der Reihe
- Wie Digital Worker es Unternehmen ermöglichen, schneller zu liefern
- Die Bestellungen für Schneidwerkzeuge in den USA steigen im Februar auf Monatsbasis