Anzeige
Anzeige

Bedienkonzepte für Einsteiger

Einfache Konfiguration von Roboter und Vision Sensor

Gerade bei kleinen Losgrößen hängt die Wirtschaftlichkeit eines Prozesses entscheidend vom Automatisierungsgrad ab. Eine effiziente Automatisierungslösung für Pick&Place-Prozesse sind Vision-geführte Roboter. Die fortgeschrittene Software-Integration von Roboter und Vision Sensor ermöglicht inzwischen Einsteigern ihre Anwendung in kurzer Zeit umzusetzen, auch ohne Vorwissen in den Bereichen Robotik und Vision.

Der Vision-Sensor Visor Robotic verfügt über eine App, die auf der Robotersteuerung von Universal Robots Robotern läuft und eine komfortable Konfiguration der Anwendung ermöglicht. (Bild: SensoPart Industriesensorik GmbH)

Der Vision-Sensor Visor Robotic verfügt über eine App, die auf der Robotersteuerung von Universal-Robots-Robotern läuft und eine komfortable
Konfiguration der Anwendung ermöglicht. (Bild: SensoPart Industriesensorik GmbH)

Viele Anwender möchten komplexe Automatisierungsaufgaben lösen, scheuen aber noch die – tatsächlich oder vermeintlich – komplizierte Konfiguration und Programmierung einer Robotikanwendung. Sowohl Robotik- als auch Sensorhersteller haben auf dieses Problem reagiert und statten ihre Geräte zunehmend mit einer intuitiv bedienbaren Konfigurationssoftware aus. So ermöglichen die Vision-Sensoren der Reihe Visor auch Anwendern ohne Kenntnisse in der industriellen Bildverarbeitung eine erfolgreiche Einrichtung der Sensoren für viele typische Prüfaufgaben. Dasselbe gilt für moderne Robotersteuerungen, die den Anwender mittels vorkonfigurierter Abläufe Schritt für Schritt durch den Konfigurationsprozess führen. Der Vision-Sensor Visor Robotic verfolgt dieses Konzept konsequent weiter, denn er verfügt über eine Schnittstellenapplikation, die auf der Robotersteuerung von Robotern des Herstellers Universal Robots (UR) läuft und eine einfache Konfiguration der Anwendung ermöglicht.

Mit dem Visor Robotic lassen sich auch kurze Takte bis unter 100ms realisieren, denn die auswertung erfolgt im eigenen Prozessor des Sensors. (Bild: SensoPart Industriesensorik GmbH)

Mit Visor Robotic lassen sich auch kurze Takte bis unter 100ms realisieren, denn die Bildauswertung erfolgt im eigenen Prozessor des Sensors. (Bild: SensoPart Industriesensorik GmbH)

Vision-Sensor liefert Lagedaten

Bei der Zuführung über Warenträger ist ohne Einbindung von Vision-Systemen für jede Teileform eine spezielle Ausführung erforderlich, denn nur exakt ausgerichtete Teile können vom Roboter aufgenommen werden. Zudem müssen die Trays selbst mittels mechanischer Zentriereinheiten exakt ausgerichtet werden. Wird der Roboter dagegen von einem Vision-Sensor mit den Lagedaten versorgt, kann er auch schräg oder versetzt liegende Teile problemlos greifen. Auch wenn in einer Handling- oder Montageaufgabe Teileformen häufig wechseln, ist die Sensorlösung gegenüber mechanischen Systemen im Vorteil. Mit der Nutzung eines Vision-Sensors verschiebt sich der Entwicklungsaufwand für das Einlernen neuer Teile weg von der mechanischen Konstruktion hin zum Einlernen neuer Teile per Mausklick. Eine weitere typische Anwendung ist das robotergeführte Positionieren von Bauteilen, etwa das passgenaue Platzieren von Schrauben, die Montage von Clips oder das Auftragen von Klebern. Durch Detektion der Lage des Bauteils mit einem Vision-Sensor kann die Position der Roboterbahn exakt nachgeführt bzw. korrigiert werden.

Eine zentrale Rolle kommt der Qualität der Bildverarbeitung zu, denn der Roboter kann nur so präzise arbeiten, wie es ihm die Bilddaten vorgeben. Der Visor Robotic verfügt z.B. über unterschiedliche Bildauswertungsalgorithmen (sogenannte Detektoren), die je nach Art des Teils und Anwendung eine optimale Detektionsrate ermöglichen. Am häufigsten kommt dabei der Konturdetektor zum Einsatz, der die charakteristische Teileform anhand der Bauteilkanten erkennt. Fehlt eine charakteristische Form, kommt der Blob-Detektor zur Anwendung. Dieser erkennt auch unregelmäßig geformte Objekte zuverlässig durch einen Vergleich von Vorder- und Hintergrund. Speziell für die Kooperation mit dem Roboter verfügt der Visor Robotic außerdem über spezielle Funktionen, die ein Greifen der detektierten Teile erleichtert. So kann bei loser Zuführung mittels einer Greifer-Freiraumprüfung überprüft werden, ob das angelieferte Teil einen ausreichenden Abstand zu benachbart liegenden Teilen aufweist. Durch Vorgabe eines Greifer-Offsets kann dem Roboter so mitgeteilt werden, dass ein Teil nicht mittig, sondern z.B. mit einem seitlichen Anfasser gegriffen werden soll.

Ablauf der Konfiguration

Der Visor Robotic kann aufgrund flexibler Datenausgabe praktisch mit jedem Roboter kommunizieren. Besonders einfach ist die Kommunikation mit Robotern des Herstellers Universal Robots. Dort können Hersteller von Peripherigeräten wie Greifern oder Vision-Sensoren passende Apps programmieren, die auf der Steuerung laufen. Lediglich die Details der Bildaufnahme und -auswertung werden noch in der Konfigurationssoftware des Vision-Sensors durchgeführt. Dies macht Sinn, denn der Anwender hat in der Visor-Software am PC viel differenziertere Möglichkeiten, die passende Einstellung für die Objekterkennung vorzunehmen, als auf einem Roboter-Panel. Das wird wichtig z.B. bei Teilen mit spiegelnden Oberflächen und ähnlichen schwierigen Detektionssituationen. Die Einrichtungsschritte, welche die Kommunikation mit dem Roboter direkt betreffen, wie die Kalibrierung zwischen Roboter- und Kamerakoordinatensystem erfolgen jedoch über die Steuerung des Roboters. Auch roboterseitig erfolgt die Einrichtung von Anwendungen intuitiv. Vorgefertigte Abläufe erleichtern das Erstellen der Anwendung ohne aufwändige Programmierarbeiten. Über die Funktion Visor Pick in der Robotersteuerung wird die Roboterbahn im Detail festgelegt, z.B. die Umfahrung von Hindernissen auf dem Weg zum Greifpunkt. Außerdem lässt sich mit dieser Funktion definieren, wo gegriffene Teile abgelegt bzw. montiert werden sollen.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Mit einer speziell entwickelten Anlage sortiert Matrium Jedec-Trays, in denen elektronische Bauelemente transportiert werden. Um bis zu 2.500 verschiedene Typen dieser Trays sicher voneinander unterscheiden zu können, nutzt die Firma das Software-Tool CVB Polimago.‣ weiterlesen

www.stemmer-imaging.de

Anzeige

Last year Photoneo announced the release of Bin Picking Studio - a sophisticated yet simple suite ready to take on any bin picking challenge. However, some applications can run with much lighter tools, containing fewer features and a narrower scope of priorities. This was the reason for the development of the Locator tool.‣ weiterlesen

www.photoneo.com

Anzeige

Die lüfterlosen Eagle-Eyes- Box-PCs bieten KI-gestützte Überwachung und Predictive Maintenance mithilfe des EKit-Softwarepakets.‣ weiterlesen

www.efcotec.com

Einfache, kostengünstige Integration, hohe Datenraten und trotzdem heiß diskutiert: die MIPI-CSI-2-Schnittstelle für professionelle Embedded Systeme. Was steckt hinter der Debatte und wovon hängen Akzeptanz und Verbreitung von MIPI ab?‣ weiterlesen

www.phytec.de

Seit einiger Zeit kommen verstärkt Zeilenkameras mit Farbsensoren zum Einsatz. Die Sensoren verfügen über mehrere Zeilen, von denen jede Zeile mit einem anderen Farbfilter versehen ist. Speziell hierfür wurde die Coloretto-Objektive entwickelt.‣ weiterlesen

www.optmv.net

Stemmer Imaging hat mit Canon Europe eine Vereinbarung über den Vertrieb des Canon-Portfolios an professionellen Kameras und Großformatobjektiven für den industriellen Bildverarbeitungs-Markt in Europa unterzeichnet.‣ weiterlesen

www.stemmer-imaging.de

Anzeige
Anzeige
Anzeige