Anzeige

Vielfältige Kooperation

In die Robotersteuerung integrierte Bildverarbeitung

Schon lange gehört die Hardware für die Bildverarbeitung bei Fanuc zur Standardausstattung der Robotersteuerung. Schließlich integriert das Unternehmen seit über 30 Jahren eigene Visionsysteme. Neue Tools sollen jetzt Bin-Picking-Applikationen, MRK-Arbeitsplätze aber auch ganz normale Applikationen vereinfachen.

Wenn mehrere Roboter an einem Band ungeordnet ankommende Produkte aufnehmen und geordnet ablegen sollen, war bislang höchste Konzentration des Programmierers gefordert. Mit der Software iRPick Tool: kommt jetzt Bewegung ins Thema: Das Programmieren wird einfacher und die Roboter arbeiten besser zusammen – bis hin zu der Situation, wo der Stillstand an einem Roboterplatz von den anderen Maschinen kompensiert wird. Das Tool dient dem Line-Tracking in Einzel- und Mehrfachroboterlinien. Es bietet Anfängern und Experten eine einfache Bedienung und ermöglicht es, sowohl Standard- als auch angepasste Konfigurationen zu erstellen. Das Tool ist in erster Linie für Anlagen gedacht, in denen mehrere Roboter von einem Band – linear oder zirkular – picken. Dabei lassen sich Puffer einrichten, was den Ausstoß – also die Zahl der Picks pro Zeiteinheit – annähernd konstant hält. Das neue Feature ‚Dynamic Load Balance‘ hilft, die Produktionsrate hochzuhalten. Gibt es an einer Roboterstation einen unvorhergesehenen Stillstand, läuft das Band trotzdem weiter und die anderen Roboter teilen sich die Picks auf. iRPick Tool kann auch ohne iRVision verwendet werden und ermöglicht auch, da als Open-Source-Programm entwickelt, die Integration Fanuc-fremder Sensoren. Zusätzlich lassen sich mit der Simulationssoftware Roboguide Bewegungsstudien und Taktzeituntersuchungen präzise im Vorfeld einer Anwendung ermitteln.

In jede Robotersteuerung von Fanuc ist die Hardware des eigenen Bildverarbeitungssystems integriert, sowohl in den Controller R-30iB als auch in die kleinere R-30iB-Mate-Steuerung. Eines der zentralen Elemente des Bildverarbeitungssystems iRVision ist der 3D-Area-Vision-Sensor. Vor allem Bin-Picking-Applikationen lassen sich damit vergleichsweise komfortabel und prozesssicher umsetzen. „Der Komfort beginnt lange vor der ersten Aufnahme“, so Frank Schwabe, Visionspezialist bei Fanuc. Durch die Integration der Hardware in die Robotersteuerung entfallen unnötige Verkabelungen, Steckersuche und all das, was Schnittstellen so an Überraschungen bereit halten. Lediglich die Software mit den jeweiligen Optionen muss aufgespielt und das entsprechende Tool ausgewählt werden. Vielleicht erschließen nicht jede neue Software-Option und jedes Feature zusätzliche Anwendungen. Beim Stichwort ‚reflektierende Oberflächen‘ sind Anwender jedoch auch für eine höhere Prozesssicherheit dankbar. Die neue Software-Generation umfasst z.B. Filterfunktionen, mit denen sich Werkstücke aus durchsichtigem Material oder stark reflektierenden Oberflächen besser als bisher erkennen lassen. In der Software lassen sich die Filter aktivieren; gerechnet wird dann im Roboter-Controller – und das sowohl für 2D-Applikationen, als auch für den 3D-Area-Vision-Sensor. Zum neuen iRVision-System gehört auch die elegante Variante eines 2D-Prozesses, bei der die Kamera nicht mehr eigens kalibriert werden muss. Außerdem kann nach Konturen gesucht werden, die von der Kamera nicht komplett zu sehen sind. Praktisch ist eine solche Funktion, wenn beim Bin Picking Teile übereinander liegen. Dann werden zunächst zwei, drei Referenzteile erfasst und deren Merkmale automatisch gespeichert – ohne dass ein aufwendiges Setup erforderlich wäre. Im laufenden Betrieb erkennt das System dann auch halbe Kreise als Teil eines als Merkmal gespeicherten Kreises. Schwabe weiter: „Selbstverständlich kann man wie bisher die Auswahl am PC auch nachbearbeiten. Aber die ersten Erkennungsmerkmale erfasst der Sensor automatisch über die Steuerung.“

Virtuelle Bildverarbeitung

Auch wenn man großes Augenmerk darauf legt, laufende Prozesse sicherer und komfortabler zu gestalten, geht die Entwicklungsrichtung dahin, die Machbarkeit einer Anwendung schon in einer frühen Projektphase zu überprüfen. Ein Beispiel dafür ist die USB-Kamera von Fanuc. Damit lassen sich reale Bilder in die virtuelle Welt übertragen. In der Simulationssoftware Roboguide können die Aufnahmen dann schon für erste Überlegungen zur Gestaltung einer Vision-Applikation verwendet werden. Für belastbare Aussagen braucht man zusätzlich exakte Maße, z.B. aus den CAD-Daten. Dann sind schnelle Pickaufgaben offline gut zu programmieren. So dient Roboguide dazu, Anlagenlayouts zu überprüfen, Taktzeitangaben einzugrenzen und so die Zahl der einzusetzenden Roboter zu ermitteln. Mit welcher Beleuchtung man am besten arbeitet und unter welchen Bedingungen dann beim Bin Picking die besten Ergebnisse erzielt werden, erfordert nach wie vor praktische Versuche.

Bild ermittelt Greifposition

Entscheidend komfortabler ist beim Area-Sensor das Ermitteln der Greifposition aus den Bilddaten: Unabhängig von Konturen ´vereinzelt´die Software die zu greifenden Teile. Dabei müssen keine Positionen mehr geteacht werden. In der Steuerung werden aus den Bildinformationen die Greifpositionen ermittelt. Die Funktion selbst ist durchaus Stand der Technik, allerdings braucht das neue System keine hinterlegten Bilder und Positionen. Im einfachsten Fall reichen Flächenpunkte zur Orientierung des Roboters auf einen Greifpunkt hin. Nach dem Setup ist der Greifvorgang auch sicher hinsichtlich Kollisionen. Der Hinweg ist so sicher wie der Rückweg. Denn das Tool rechnet automatisch auch die Bahn für den Roboter. Nicht zu unterschätzen bei einem integrierten System wie bei Fanuc: Alle Bewegungsrichtungen sind für alle Subsysteme wie Roboter, Greifer oder Fördereinrichtungen von vornherein definiert. Eine weitere Abstimmung ist nicht zwingend erforderlich – was sich bei einer Inbetriebnahme durchaus materialschonend auswirken kann. „Hochaktuell“, so Frank Schwabe, „ist derzeit die Kombination von Visionsystem und dem kollaborativem Roboter CR-35iA.“ Interessenten gehe es einerseits um die Automatisierung des Maschinenbeladens, ohne andererseits aus unterschiedlichen Gründen auf den Bediener an der Maschine verzichten zu wollen.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Die Sonderschau ´Der Mensch in der Smart Factory´ des VDMA Robotik+Automation in Halle B4 der automatica (19.-22. Juni, München) greift aktuelle Fragestellungen auf: Wie kann der Mensch im Mittelpunkt bleiben? Welche Rolle spielt der analoge Mensch in der digitalen Fabrik? „Fingerfertigkeit und Adaptivität des Menschen werden unerreicht bleiben, doch Assistenzsysteme bringen manuelle Montagevorgänge erstmals auf die geforderte Null-Fehler-Qualität.“, so Patrick Schwarzkopf (Bild), Geschäftsführer, VDMA Robotik+Automation.

www.automatica-muenchen.de

Anzeige

Bereits 150 Anmeldungen gibt es für das International Vision Standrad Meeting (IVSM), das vom 14.-18. Mai in Frankfurt/Main stattfindet und dieses Mal von Silicon Software und dem VDMA IBV ausgerichtet wird. Einen Überblick über die Themenblöcke z. B. zu OPC Vision oder GenICam finden Sie unter dem folgenden Link.

ivsm2018.silicon.software

Anzeige

Was es alles Neues zu USB 3.1 gibt und wo genau die Unterschiede zwischen USB 3.1 Generation 1 und 2 liegen hat Flir (ehemals Point Grey) auf eine Homepage zusammengefasst. Was zudem für USB 3.2 zu erwarten ist, wird ebenfalls auf der Homepage beschrieben.

www.ptgrey.com

Anzeige

Zusammen mit den Umsätzen von zwei im Laufe des vergangenen Geschäftsjahres integrierten Unternehmen (Matrix Vision und ISS) legte Balluff beim Umsatz im Jahr 2017 um +21,4% auf 459Mio. Euro zu (2016: 378 Mio. Euro).

www.balluff.de

Anzeige

Die 3D-Linienprofilsensoren Gocator Modelle 2430 und 2440 bieten optimale Leistungen beim Scannen von dunklen Materialien, wie Reifenprofil und -flanke sowie Gummiplatten und vieles mehr. Mit der 2MP Bildverarbeitungstechnologie erreichen sie eine Messfrequenz von bis zu 5kHz und bieten eine hohe Wiederholgenauigkeit für das Scannen von dunklen Materialien.

www.lmi3D.com

Anzeige

Sony announced the release of a back-illuminated, time-of-flight (ToF) image sensor which is 1/2-type, VGA resolution and delivers improved depth sensing performance. The new sensor is part of the DepthSense lineup, a group of depth-sensing image sensor products with range finding capability.

www.sony.net

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige