Vielfältige Kooperation

In die Robotersteuerung integrierte Bildverarbeitung

Schon lange gehört die Hardware für die Bildverarbeitung bei Fanuc zur Standardausstattung der Robotersteuerung. Schließlich integriert das Unternehmen seit über 30 Jahren eigene Visionsysteme. Neue Tools sollen jetzt Bin-Picking-Applikationen, MRK-Arbeitsplätze aber auch ganz normale Applikationen vereinfachen.

Wenn mehrere Roboter an einem Band ungeordnet ankommende Produkte aufnehmen und geordnet ablegen sollen, war bislang höchste Konzentration des Programmierers gefordert. Mit der Software iRPick Tool: kommt jetzt Bewegung ins Thema: Das Programmieren wird einfacher und die Roboter arbeiten besser zusammen – bis hin zu der Situation, wo der Stillstand an einem Roboterplatz von den anderen Maschinen kompensiert wird. Das Tool dient dem Line-Tracking in Einzel- und Mehrfachroboterlinien. Es bietet Anfängern und Experten eine einfache Bedienung und ermöglicht es, sowohl Standard- als auch angepasste Konfigurationen zu erstellen. Das Tool ist in erster Linie für Anlagen gedacht, in denen mehrere Roboter von einem Band – linear oder zirkular – picken. Dabei lassen sich Puffer einrichten, was den Ausstoß – also die Zahl der Picks pro Zeiteinheit – annähernd konstant hält. Das neue Feature ‚Dynamic Load Balance‘ hilft, die Produktionsrate hochzuhalten. Gibt es an einer Roboterstation einen unvorhergesehenen Stillstand, läuft das Band trotzdem weiter und die anderen Roboter teilen sich die Picks auf. iRPick Tool kann auch ohne iRVision verwendet werden und ermöglicht auch, da als Open-Source-Programm entwickelt, die Integration Fanuc-fremder Sensoren. Zusätzlich lassen sich mit der Simulationssoftware Roboguide Bewegungsstudien und Taktzeituntersuchungen präzise im Vorfeld einer Anwendung ermitteln.

In jede Robotersteuerung von Fanuc ist die Hardware des eigenen Bildverarbeitungssystems integriert, sowohl in den Controller R-30iB als auch in die kleinere R-30iB-Mate-Steuerung. Eines der zentralen Elemente des Bildverarbeitungssystems iRVision ist der 3D-Area-Vision-Sensor. Vor allem Bin-Picking-Applikationen lassen sich damit vergleichsweise komfortabel und prozesssicher umsetzen. „Der Komfort beginnt lange vor der ersten Aufnahme“, so Frank Schwabe, Visionspezialist bei Fanuc. Durch die Integration der Hardware in die Robotersteuerung entfallen unnötige Verkabelungen, Steckersuche und all das, was Schnittstellen so an Überraschungen bereit halten. Lediglich die Software mit den jeweiligen Optionen muss aufgespielt und das entsprechende Tool ausgewählt werden. Vielleicht erschließen nicht jede neue Software-Option und jedes Feature zusätzliche Anwendungen. Beim Stichwort ‚reflektierende Oberflächen‘ sind Anwender jedoch auch für eine höhere Prozesssicherheit dankbar. Die neue Software-Generation umfasst z.B. Filterfunktionen, mit denen sich Werkstücke aus durchsichtigem Material oder stark reflektierenden Oberflächen besser als bisher erkennen lassen. In der Software lassen sich die Filter aktivieren; gerechnet wird dann im Roboter-Controller – und das sowohl für 2D-Applikationen, als auch für den 3D-Area-Vision-Sensor. Zum neuen iRVision-System gehört auch die elegante Variante eines 2D-Prozesses, bei der die Kamera nicht mehr eigens kalibriert werden muss. Außerdem kann nach Konturen gesucht werden, die von der Kamera nicht komplett zu sehen sind. Praktisch ist eine solche Funktion, wenn beim Bin Picking Teile übereinander liegen. Dann werden zunächst zwei, drei Referenzteile erfasst und deren Merkmale automatisch gespeichert – ohne dass ein aufwendiges Setup erforderlich wäre. Im laufenden Betrieb erkennt das System dann auch halbe Kreise als Teil eines als Merkmal gespeicherten Kreises. Schwabe weiter: „Selbstverständlich kann man wie bisher die Auswahl am PC auch nachbearbeiten. Aber die ersten Erkennungsmerkmale erfasst der Sensor automatisch über die Steuerung.“

Virtuelle Bildverarbeitung

Auch wenn man großes Augenmerk darauf legt, laufende Prozesse sicherer und komfortabler zu gestalten, geht die Entwicklungsrichtung dahin, die Machbarkeit einer Anwendung schon in einer frühen Projektphase zu überprüfen. Ein Beispiel dafür ist die USB-Kamera von Fanuc. Damit lassen sich reale Bilder in die virtuelle Welt übertragen. In der Simulationssoftware Roboguide können die Aufnahmen dann schon für erste Überlegungen zur Gestaltung einer Vision-Applikation verwendet werden. Für belastbare Aussagen braucht man zusätzlich exakte Maße, z.B. aus den CAD-Daten. Dann sind schnelle Pickaufgaben offline gut zu programmieren. So dient Roboguide dazu, Anlagenlayouts zu überprüfen, Taktzeitangaben einzugrenzen und so die Zahl der einzusetzenden Roboter zu ermitteln. Mit welcher Beleuchtung man am besten arbeitet und unter welchen Bedingungen dann beim Bin Picking die besten Ergebnisse erzielt werden, erfordert nach wie vor praktische Versuche.

Bild ermittelt Greifposition

Entscheidend komfortabler ist beim Area-Sensor das Ermitteln der Greifposition aus den Bilddaten: Unabhängig von Konturen ´vereinzelt´die Software die zu greifenden Teile. Dabei müssen keine Positionen mehr geteacht werden. In der Steuerung werden aus den Bildinformationen die Greifpositionen ermittelt. Die Funktion selbst ist durchaus Stand der Technik, allerdings braucht das neue System keine hinterlegten Bilder und Positionen. Im einfachsten Fall reichen Flächenpunkte zur Orientierung des Roboters auf einen Greifpunkt hin. Nach dem Setup ist der Greifvorgang auch sicher hinsichtlich Kollisionen. Der Hinweg ist so sicher wie der Rückweg. Denn das Tool rechnet automatisch auch die Bahn für den Roboter. Nicht zu unterschätzen bei einem integrierten System wie bei Fanuc: Alle Bewegungsrichtungen sind für alle Subsysteme wie Roboter, Greifer oder Fördereinrichtungen von vornherein definiert. Eine weitere Abstimmung ist nicht zwingend erforderlich – was sich bei einer Inbetriebnahme durchaus materialschonend auswirken kann. „Hochaktuell“, so Frank Schwabe, „ist derzeit die Kombination von Visionsystem und dem kollaborativem Roboter CR-35iA.“ Interessenten gehe es einerseits um die Automatisierung des Maschinenbeladens, ohne andererseits aus unterschiedlichen Gründen auf den Bediener an der Maschine verzichten zu wollen.

Das könnte Sie auch interessieren

Neuer Geschäftsführer bei Omron Electronics

 

Zuvor war Kluger als Managing Director Europe und Vice President Business Development für Adept Technology, später für Omron Adept Technologies tätig. Außerdem ist er als ehrenamtliches Vorstandsmitglied im Fachverband Robotik des VDMA aktiv.

www.industrial.omron.eu

Jahresabschluss und Verä;nderungen bei Stemmer

Am 30. Juni hat der global tätige Bildverarbeiter Stemmer Imaging sein Geschäftsjahr 2016/2017 mit einem Umsatz von 88,7Mil.€ und einem währungsbereinigten Wachstum von 6% abgeschlossen. Der Abschluss stellt auch das Ende einer Ära dar.

www.stemmer-imaging.de

Zylinderkopf-Volumenprüfung

Der 3D Snapshot Sensor Gocator 3210 mit integrierter Zylinderkopf-Volumenprüfung wurde speziell für die Kammervolumeninspektion von Zylinderköpfen in kleinen bis mittelgroßen Verbrennungsmotoren entwickelt. Die Sensoren produzieren hochauflösende 3D-Scans und Messergebnisse mit einer Genauigkeit von +/-0,04cm3 in weniger als 5Sek., selbst bei Brennkammern und Kolben mit glänzenden Oberflächen. Eine 2MP Stero-Kamera minimiert Abschattungen.

www.lmi

Verbesserte Genauigkeiten für Messmaschinen

Für das hochgenaue Messen wurde die Auswerte-Elektronik Quadra-Chek 3000 entwickelt. Moderne Videowerkzeuge werten das Kamerabild von Mess- und Profilprojektoren, Messmikroskopen oder Videomessmaschinen aus. Die integrierte Fehlerkompensation verbessert die mechanische Genauigkeit der Messmaschine. Filterfunktionen verhindern, dass Verschmutzungen auf dem zu messenden Objekt oder auf der Optik der Messmaschine das Ergebnis verfälschen. Bei der Auswertung des Kamerabildes erkennt die Elektronik Kanten und legt darauf Messpunkte fest.

www.heidenhain.de

Anzeige
Sicherheit ab dem ersten Teil

Die Möglichkeit des korrelationsfreien Messens ermöglicht in der Produktionslinie bereits für das erste Bauteil die notwendige Sicherheit über die Maßhaltigkeit. Damit können Unternehmen darauf verzichten, in regelmäßigen Abständen ihre Karosserieteile auf einem Koordinatenmessgerät (KMG) nachzumessen und die erkannten Abweichungen zwischen Inline und KMG als Korrekturwerte auf die Inline-Messanlagen zu übertragen.

www.zeiss.de

Anzeige
Deep Learning Algorithmen für CNNs

Der Matlab Release 2017a enthält eine Reihe neuer Funktionen sowie die Automated Driving System Toolbox. R2017a enthält zudem Aktualisierungen und Fehlerbehebungen für 86 vorhandene Produkte. Beispielsweise werden in der Neural Network Toolbox verschiedene Deep-Learning-Algorithmen zum Trainieren von neuronalen Faltungsnetzwerken (CNNs) für Regressionsaufgaben mit mehreren GPUs auf PCs, auf Clustern und in der Cloud angeboten, sowie die Deep-Learning-Visualisierung für die von einem CNN-Modell erlernten Funktionen mithilfe von Bildoptimierung. Zudem stehen Funktionen zur Übertragung von Gewichtungen von vortrainierten CNN-Modellen (Alexnet, VGG-16 und VGG-19) und Modellen von Caffe Model Zoo zur Verfügung.

www.mathworks.de

Anzeige