Vielfältige Kooperation

In die Robotersteuerung integrierte Bildverarbeitung

Schon lange gehört die Hardware für die Bildverarbeitung bei Fanuc zur Standardausstattung der Robotersteuerung. Schließlich integriert das Unternehmen seit über 30 Jahren eigene Visionsysteme. Neue Tools sollen jetzt Bin-Picking-Applikationen, MRK-Arbeitsplätze aber auch ganz normale Applikationen vereinfachen.

Wenn mehrere Roboter an einem Band ungeordnet ankommende Produkte aufnehmen und geordnet ablegen sollen, war bislang höchste Konzentration des Programmierers gefordert. Mit der Software iRPick Tool: kommt jetzt Bewegung ins Thema: Das Programmieren wird einfacher und die Roboter arbeiten besser zusammen – bis hin zu der Situation, wo der Stillstand an einem Roboterplatz von den anderen Maschinen kompensiert wird. Das Tool dient dem Line-Tracking in Einzel- und Mehrfachroboterlinien. Es bietet Anfängern und Experten eine einfache Bedienung und ermöglicht es, sowohl Standard- als auch angepasste Konfigurationen zu erstellen. Das Tool ist in erster Linie für Anlagen gedacht, in denen mehrere Roboter von einem Band – linear oder zirkular – picken. Dabei lassen sich Puffer einrichten, was den Ausstoß – also die Zahl der Picks pro Zeiteinheit – annähernd konstant hält. Das neue Feature ‚Dynamic Load Balance‘ hilft, die Produktionsrate hochzuhalten. Gibt es an einer Roboterstation einen unvorhergesehenen Stillstand, läuft das Band trotzdem weiter und die anderen Roboter teilen sich die Picks auf. iRPick Tool kann auch ohne iRVision verwendet werden und ermöglicht auch, da als Open-Source-Programm entwickelt, die Integration Fanuc-fremder Sensoren. Zusätzlich lassen sich mit der Simulationssoftware Roboguide Bewegungsstudien und Taktzeituntersuchungen präzise im Vorfeld einer Anwendung ermitteln.

In jede Robotersteuerung von Fanuc ist die Hardware des eigenen Bildverarbeitungssystems integriert, sowohl in den Controller R-30iB als auch in die kleinere R-30iB-Mate-Steuerung. Eines der zentralen Elemente des Bildverarbeitungssystems iRVision ist der 3D-Area-Vision-Sensor. Vor allem Bin-Picking-Applikationen lassen sich damit vergleichsweise komfortabel und prozesssicher umsetzen. „Der Komfort beginnt lange vor der ersten Aufnahme“, so Frank Schwabe, Visionspezialist bei Fanuc. Durch die Integration der Hardware in die Robotersteuerung entfallen unnötige Verkabelungen, Steckersuche und all das, was Schnittstellen so an Überraschungen bereit halten. Lediglich die Software mit den jeweiligen Optionen muss aufgespielt und das entsprechende Tool ausgewählt werden. Vielleicht erschließen nicht jede neue Software-Option und jedes Feature zusätzliche Anwendungen. Beim Stichwort ‚reflektierende Oberflächen‘ sind Anwender jedoch auch für eine höhere Prozesssicherheit dankbar. Die neue Software-Generation umfasst z.B. Filterfunktionen, mit denen sich Werkstücke aus durchsichtigem Material oder stark reflektierenden Oberflächen besser als bisher erkennen lassen. In der Software lassen sich die Filter aktivieren; gerechnet wird dann im Roboter-Controller – und das sowohl für 2D-Applikationen, als auch für den 3D-Area-Vision-Sensor. Zum neuen iRVision-System gehört auch die elegante Variante eines 2D-Prozesses, bei der die Kamera nicht mehr eigens kalibriert werden muss. Außerdem kann nach Konturen gesucht werden, die von der Kamera nicht komplett zu sehen sind. Praktisch ist eine solche Funktion, wenn beim Bin Picking Teile übereinander liegen. Dann werden zunächst zwei, drei Referenzteile erfasst und deren Merkmale automatisch gespeichert – ohne dass ein aufwendiges Setup erforderlich wäre. Im laufenden Betrieb erkennt das System dann auch halbe Kreise als Teil eines als Merkmal gespeicherten Kreises. Schwabe weiter: „Selbstverständlich kann man wie bisher die Auswahl am PC auch nachbearbeiten. Aber die ersten Erkennungsmerkmale erfasst der Sensor automatisch über die Steuerung.“

Anzeige

Virtuelle Bildverarbeitung

Auch wenn man großes Augenmerk darauf legt, laufende Prozesse sicherer und komfortabler zu gestalten, geht die Entwicklungsrichtung dahin, die Machbarkeit einer Anwendung schon in einer frühen Projektphase zu überprüfen. Ein Beispiel dafür ist die USB-Kamera von Fanuc. Damit lassen sich reale Bilder in die virtuelle Welt übertragen. In der Simulationssoftware Roboguide können die Aufnahmen dann schon für erste Überlegungen zur Gestaltung einer Vision-Applikation verwendet werden. Für belastbare Aussagen braucht man zusätzlich exakte Maße, z.B. aus den CAD-Daten. Dann sind schnelle Pickaufgaben offline gut zu programmieren. So dient Roboguide dazu, Anlagenlayouts zu überprüfen, Taktzeitangaben einzugrenzen und so die Zahl der einzusetzenden Roboter zu ermitteln. Mit welcher Beleuchtung man am besten arbeitet und unter welchen Bedingungen dann beim Bin Picking die besten Ergebnisse erzielt werden, erfordert nach wie vor praktische Versuche.

Bild ermittelt Greifposition

Entscheidend komfortabler ist beim Area-Sensor das Ermitteln der Greifposition aus den Bilddaten: Unabhängig von Konturen ´vereinzelt´die Software die zu greifenden Teile. Dabei müssen keine Positionen mehr geteacht werden. In der Steuerung werden aus den Bildinformationen die Greifpositionen ermittelt. Die Funktion selbst ist durchaus Stand der Technik, allerdings braucht das neue System keine hinterlegten Bilder und Positionen. Im einfachsten Fall reichen Flächenpunkte zur Orientierung des Roboters auf einen Greifpunkt hin. Nach dem Setup ist der Greifvorgang auch sicher hinsichtlich Kollisionen. Der Hinweg ist so sicher wie der Rückweg. Denn das Tool rechnet automatisch auch die Bahn für den Roboter. Nicht zu unterschätzen bei einem integrierten System wie bei Fanuc: Alle Bewegungsrichtungen sind für alle Subsysteme wie Roboter, Greifer oder Fördereinrichtungen von vornherein definiert. Eine weitere Abstimmung ist nicht zwingend erforderlich – was sich bei einer Inbetriebnahme durchaus materialschonend auswirken kann. „Hochaktuell“, so Frank Schwabe, „ist derzeit die Kombination von Visionsystem und dem kollaborativem Roboter CR-35iA.“ Interessenten gehe es einerseits um die Automatisierung des Maschinenbeladens, ohne andererseits aus unterschiedlichen Gründen auf den Bediener an der Maschine verzichten zu wollen.

Das könnte Sie auch interessieren

Laut einer aktuellen Studie von Yole soll sich der Markt für industrielle Bildverarbeitungskameras von 2Mrd.USD (2017) auf 4Mrd.USD bis 2023 verdoppeln. Wachstumstreiber für Machine Vision seien dabei vor allem nicht-industrielle Anwendungen und auch der Markt für autonome Fahrzeuge.

www.i-micronews.com

Anzeige

Seit dem 1. Februar ist die deutsche Niederlassung von Edmund Optics in Mainz in der Isaac-Fulda-Allee 5 zu finden. Durch den Umzug agiert Edmund Optics mit der zu Beginn des Jahres akquirierten Itos GmbH nun gestärkt vom Standort Mainz.

www.edmundoptics.de

Anzeige

Lucid Vision Labs hat die derzeit weltweit kleinste GigE Vision PoE-Kamera namens Phoenix entwickelt. Der Kunde erhält mit diesem Modell ein flexibles Kameradesign zu einem angemessenen Preis-/Leistungsverhältnis. Zusätzlich zeichnet sich die Kamera durch ein kompaktes NF-Mount 5MP Objektiv sowie optional den neuen ix Industrial Ethernet Anschlüssen aus.‣ weiterlesen

www.thinklucid.com

Anzeige

In Zusammenarbeit mit dem CDTM-Institut der TU München hat Framos ein Wearable entwickelt, das mit Hilfe von 3D-Echtzeit-Technologie Sehbehinderte im Alltag unterstützt. Die Brillen sind mit Intel RealSense Stereokameras ausgestattet, wobei intelligente Algorithmen die visuellen Signale in haptische und akustische Informationen übersetzen. Die Audioinformation basiert auf der Erkennung von Objekten und Schriften, die haptische Rückmeldung über Positionen und Distanzen erhalten die Sehbehinderten über ein mit Vibrationsmotoren ausgestattetes Armband.

www.framos.com

Anzeige

Ein halbes Jahr nach Beginn der Geschäftstätigkeit der evotron GmbH & Co. KG hat die Schulungs- und Beratungsplattform evotronAcademy ihre Arbeit in Suhl, aufgenommen. Mit Technologiewissen und praxisgerechtem Applikations-Know-How zu industrieller Bildverarbeitung werden im ersten Halbjahr 2018 bereits dreizehn Schulungen angeboten.

www.evotron-gmbh.de

Die Jenoptik AG hat ihr Geschäftsjahr 2017 erfolgreich abgeschlossen. Nach vorläufigen Berechnungen ist der Unternehmensumsatz im Vergleich zum Vorjahr um 9,2% auf rund 748Mio.€ gestiegen. Für das Geschäftsjahr 2018 peilt der Jenoptik-Vorstand ein Umsatzziel von 790 bis 810Mio.€ an. Im Mittelpunkt der zukünftigen Strategie ‚More Light‘ steht der Fokus auf photonische Technologien und entsprechende Produkte bei allen Initiativen und Entwicklungen des Unternehmens.

www.jenoptik.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige