Kollisionsfreies Greifen

Extrem schnelles Bin Picking für Kleinroboter

Schnelles, zuverlässiges und sicheres Bin Picking ist derzeit eine der spannendsten Herausforderungen in der Automation. Anders als beim herkömmlichen Pick&Place liegen die Werkteile ungeordnet in einem Kasten, im Zusammenspiel von leistungsstarker Bildverarbeitung und Robotersteuerung kann der Roboter die Teile erkennen, selektieren und sicher greifen.

Ein kurzes Video von der letzten Motek mit dem Bin Picking-System von Denso Robotics ist auf Youtube zu sehen www.youtube.com/watch?v=RoOKgUPxlYg.

Bislang ist es aber noch in vielen Industriezweigen, z.B. Automobilbau, bei vielen Aufgaben einfacher, Werkteile unsortiert zu verarbeiten; in der Regel geschieht dies (selbst nach mechanischer Vorbereitung wie Rüttelförderbänder) durch manuelle Entnahme oder Sortierung bzw. Beladung. Mechanische oder manuelle Entnahme weisen aber viele Nachteile auf: Fehlerhäufigkeit, Kosten, großer Platzbedarf, Unflexibilität. Die robotergestützte Entnahme oder Beladung kann hier deullich mehr Effizienz, Geschwindigkeit und Genauigkeit bringen. Für kleine Werkteile gibt es aber bislang noch kein wirklich zufriedenstellendes, marktreifes Bin Picking, denn die Bildverarbeitung benötigte bisher hohe Rechnerleistungen und viel Zeit. Schließlich müssen große Datenmengen in Echtzeit verarbeitet werden. Doch gerade Geschwindigkeit und Genauigkeit sind entscheidend, damit diese Anwendung wirtschaftlich ist. Wichtig ist ferner das problemlose Zusammenspiel von Kamera, 3D-Bilderkennung und Robotersteuerung; denn das Objekt in der Kiste muss nicht nur identifiziert, sondern der Roboter auch genau geführt werden, denn die Roboterachsen bieten zahlreiche Bewegungsrichtungen – und der Greifer darf dabei nicht mit seinem Umfeld (z.B. Kiste) kollidieren.

Teileerkennungszeit von zwei Sekunden

Denso Robotics hat nun in einer Zusammenarbeit mit Canon eine Applikation realisiert, von deren Geschwindigkeit und Zuverlässigkeit sich die Fachwelt bereits auf der letzten Motek überzeugen konnte. Dort demonstrierte ein VS060 Roboter im Zusammenspiel mit der Canon 3D-Kamera RV300 und einem PC den aktuellen Stand des technisch Möglichen im Bin Picking. Als Objekte dienten kleine Pfefferminzdosen, deren asymmetrische Form und spiegelnde Oberfläche (rundlich und mit einer Wölbung im Deckel) die 3D-Bilderkennung vor eine besondere Herausforderung stellte. Um es vorweg zu nehmen: Je nach Kameratyp lag die Erkennungszeit je Teil bei nur 1,8 bis maximal drei Sekunden. Das ist derzeit sicher die höchste Geschwindigkeit im Bin Picking bei kleinen, kompliziert geformten Teilen. Gleichwohl ist das Zusammenspiel zwischen Roboter und 3D-System einfach aufgebaut, schließlich soll es für die Kunden in der Handhabung unkompliziert sein. Das System besteht aus zwei Subsystemen, einem 3D-Visionsystem, das Position und Dimensionen des zu greifenden Teils misst und identifiziert; sowie der Robotik, welche die Teile automatisch greift und ablegt. Die Bildverarbeitung lässt sich in drei Bestandteile aufgliedern: Dem eigentlichen 3D-Bildverarbeitungssystem (Projektion des Datenmusters und Identifizierung), der Bilderkennungs-Software (Erkennung der Teile nach Musterdaten) sowie dem RC-I/F-Modul, welches mit dem Robotercontroller kommuniziert. In einem ersten Schritt müssen die 3D-Daten des Objektes in die Kamerasoftware eingelesen werden. Übrigens müssen auch die 3D-Dimensionen des Greifers in 3D konstruiert werden, damit im Ablauf potenzielle Kollisionen rechtzeitig erkannt und verhindert werden. Auf dieser Grundlage legt die Software in einem zweiten Schritt vom Objekt eine 3D-Daten-Bibliothek an, auf dessen Grundlage die Kamera später Muster zum Datenabgleich projiziert. Nun beginnt die eigentliche Anwendung. Dabei vergleichen Kamera und Software das Objektmuster mit jedem Teil in der Kiste. Das Visionsystem sucht nach der passenden 3D-Wolke, also den einzelnen, mit dem Muster übereinstimmenden 3D-Messpunkten eines Teiles. Stimmen diese mit den programmierten Daten überein, folgt die Übermittlung der Daten an den Roboter und Greifer, so dass dieser das zu greifende Objekt genau ansteuert. Kamera und Software müssen dabei berechnen, ob der Roboter das identifizierte Teil ohne Kollision greifen kann, d.h., der Roboter empfängt überhaupt nur Daten von erreichbaren Teilen. Im letzten Schritt greift der Roboter das Teil und kann es ablegen. Die Kamera-Software und Bildverarbeitung laufen auf einem Hoch-leistungsrechner. Die Schnittstelle Kamera-Rechner erfolgt über Ethernet; der Rechner kommuniziert per TCPIP mit dem RC8 Controller von Denso, der den Roboterarm steuert. Der PC sendet die Koordinaten direkt an den Controller, der damit im Grunde wie ein Server fungiert. Der Controller wird in der Programmiersprache PacScript programmiert, eine eigens entwickelte Denso-Software für die Schnittstelle Kamera-Roboter. Musterprogramme für die Einbindung der Kamera sowie zur Kalibrierung und Einrichtung des Roboters existieren bereits. Ziel der weiteren Forschungs- und Entwicklungsarbeit ist, dass die 3D-Berechnungen so schnell erfolgen, dass der Roboter keine Wartezeit mehr verliert. In zwei bis drei Jahren wird das System – derzeit sicher das schnellste im Markt – so weit sein, um den ‚Griff in die Kiste‘ in verschiedensten Industriebereichen umfassend einführen zu können.

Das könnte Sie auch interessieren

Embedded Vision Europe Conference 2017

Der europäische Bildverarbeitungsverband EMVA plant erstmals vom 12. bis 13. Oktober zusammen mit der Messe Stuttgart die Ausrichtung der Embedded Vision Europe (EVE) Conference in Stuttgart. Über die Ziele und Inhalte der Veranstaltung sprach inVISION mit Gabriele Jansen, Mitglied im ehrenamtlichen Vorstand der EMVA und Geschäftsführerin von Vision Ventures.

www.embedded-vision-emva.org

Projekt zu 3D-Gesichtserkennungssystemen

Das Centre for Machine Vision der University of the West of England (UWE Bristol) kooperiert mit dem britischen Unternehmen Customer Clever, um ein System zur 3D-Gesichtserkennung zu entwickeln, das erstmals auch gewerblich genutzt werden könnte. Das auf zwei Jahre angesetzte Projekt wird u.a. durch 170.000£ Förderung von der staatlichen Agentur Innovate UK mitfinanziert.

info.uwe.ac.uk

Anzeige
Automation Technology erweitert Produktionsstandort

Aufgrund des wachsenden Auftragsvolumens hat AT seinen Produktionsstandort in Bad Oldesloe erweitert. Die seit Mai offiziell in Betrieb befindliche Halle erweitert die Produktionsstätte um mehr als 1.000m² und ist mit einer Solaranlage ausgerüstet, die in Kombination mit neuen Energiespeichern zukünftig eine nahezu autarke Stromversorgung des gesamten Unternehmens erlaubt.

www.automationtechnology.de

Vertriebskooperation zwischen Tattile und Framos

Die beiden Unternehmen Tattile und Framos haben eine gemeinsame Zusammenarbeit bekannt gegeben. Die Vertriebskooperation umfasst die gesamte Palette an Hardware- und Softwareprodukten (Vision Controller, Industriekameras etc.) des Unternehmens Tattile, die zukünftig über das Framos-Vertriebsnetz in Europa und Nordamerika erhältlich sein wird.

www.tattile.com

Anzeige
Robotics & Automation 2017

Die neue ‚Robotics & Automation‘-Messe findet vom 11. bis 12. Oktober in der Arena MK in Milton Keynes, Großbritannien, statt. Die Messe richtet sich vor allem an Kunden aus den Bereichen Manufacturing, Automotive, Distribution, Warehouse, Einzelhandel sowie an pharmazeutische Kunden und beinhaltet neben Messe-Ständen auch Vorträge und Live-Applikationen.

www.roboticsandautomation.co.uk

Schneider-Kreuznach mit neuem Vertriebsleiter

Seit 1. Mai ist Dr. Raimund Lassak neuer Vertriebsleiter der Jos. Schneider Optische Werke GmbH. Der 52-jährige gelernte Ingenieur bringt weitreichende Erfahrungen aus verschiedenen Managementpositionen bei Technologie-Unternehmen mit sich. Er verantwortet bei Schneider-Kreuznach nun sämtliche globalen Vertriebsaktivitäten.

www.schneiderkreuznach.com

Anzeige