Autonome Roboterführung

Autonome Roboterführung

Integration von Bildverarbeitung im Roboterumfeld

Die industrielle Bildverarbeitung steht vor einem beispiellosen Siegeszug in der Produktionstechnik und der Qualitätskontrolle. Laseroptische Sensoren, Scanner, Kamera- und Bildverarbeitungssysteme sind inzwischen als ‚künstliche Augen‘ in der Inline-Produktionsmesstechnik nicht mehr wegzudenken. Vollständig integriert, verleihen Kameras, Scanner und Sensoren aber auch modernen Maschinen und Robotern die Fähigkeit zu sehen, zu erkennen und Entscheidungen zu treffen sowie fertigungsbegleitend eine 100%-Qualitätskontrolle vorzunehmen.
Industrie- und Montageroboter sind heute bei Montageprozessen nur begrenzt wiederholgenau und relativ selten intuitiv zu bedienen. Im Gegenteil: Sie müssen durch Programmierexperten aufwändig an neue Anwendungen und Werkstückgrößen angepasst werden. Sie sind ausgelegt, um in strukturierten, fest abgesicherten Umgebungen immer gleich zu arbeiten und stellen ein hohes Gefahrenpotenzial für Menschen in ihrer Umgebung dar. Ziel aktueller Entwicklungsaktivitäten auf dem Themengebiet Robot Vision ist es daher, erste Lösungen für die flexible Automation und die sichere Roboterunterstützung an Montagearbeitsplätzen und Prüf-einrichtungen zu entwickeln, die nicht mehr auf klassischer Anwendungsprogrammierung der eingesetzten Roboter beruhen, und sie unter Realbedingungen einer ‚Produktion 2020‘ zu testen. Die ersten Machbarkeitsstudien zur autonomen Prozessführung in einer Roboterzelle auf Basis der industriellen Bildverarbeitung und Farberkennung zeigen, dass sich über die Herausforderung der Systemintegration und einen Einsatz bildmessender Technologien bereits heute schon enorme Optimierungspotenziale mit großem Erfolg erschließen lassen.

Roboterführung über Farberkennung

Der immens hohe Kostendruck in der Produktion von Garnrollen erfordert eine möglichst lückenlose Automatisierung von personalintensiven Fertigungsprozessen. Ein besonders aufwändiger und ergonomisch für Werker anspruchsvoller Prozess ist das Abnehmen und Palettieren von farblich zu sortierenden Garnrollen von einem Auslaufband nach der Durchführung von Färbe- und Trocknungsschritten. Diesen Prozess galt es, auf eine mögliche Automatisierbarkeit bei flexibler Automation in einer vorhandenen Roboterzelle zu testen. Verwendet wurde eine mit einem Industrieroboter (Typ Kuka KR-30 HA) ausgestattete Roboterzelle sowie eine mit Hochleistungs-CMOS Bildsensoren bestückte Farbkamera, die inkl. einer Beleuchtung an der Decke über dem Auslaufband platziert wurde (Bild 1). Von der Bildverarbeitungssoftware wurde eine Verbindung zur Steuerungsumgebung des Roboters (Kuka KRC 2) über einen seriellen I/O Port aufgebaut. Parallaxenfehler wurden über die Einführung eines benutzerdefinierten Koordinatensystems auf Ebene der Verpackungsoberkante kompensiert. Zur Kalibrierung wird ein Testmuster benutzt, das die Berechnung der geometrischen Verzeichnungen ermöglicht. Für die Aufnahme der jeweils ca. 8kg schweren Garnspulen wurde ein mechatronischer Druckluft-Innengreifer genutzt. Dieser wird im Roboterumfeld als TCP (Tool Center Point) definiert. Die Steuerung der Roboterbewegungen und die Werkstückaufnahme erfolgen vollständig autonom auf Basis der Bildanalysen, die mit den Bilddaten der Deckenkamera aufgenommen wurden. Es gibt kein festgelegtes Bearbeitungsprogramm mehr, und das System bewährt sich in der realen Fertigungsumgebung. Tausende von Garnrollen wurden bereits zuverlässig und vollautomatisch in die hierfür vorgesehenen Kartongebinde eingelegt.

Autonome Vermessung und Bearbeitung

Kameras und Laserscanner sind für den Einsatz im Roboterumfeld zur Ziel- bzw. Nachführung der Werkzeugbahn oder zur Inline Fertigungskontrolle geradezu prädestiniert. Die Integration eines 2D-Präzisionsscanners zur Kontrolle von Schweißnähten, Klebstoff- oder Pastenauftrag, zur Spalt-, Winkel- und Stufenvermessung erlaubt es, neben der Aufnahme von Messpunkten im Zuge der Objektprüfung auch aktiv Daten an das Steuerungsumfeld des Industrieroboters (Kuka KR-30 HA, Steuerung: KR-C2) zu senden, Produktgeometrien im Raum zu vermessen, dadurch Messobjekte und deren Größe zu erkennen und über flexible Bahnnachführungen entlang der unmittelbar gemessenen Stützpunktverläufe vorgesehene Bearbeitungspfade schnellstmöglich abzufahren. Gleichzeitig werden Bewegungsungenauigkeiten des Roboters in Messanwendungen kompensiert. Die automatisierte Probenvermessung und -bearbeitung geschieht im Modellaufbau am Technologie Centrum Westbayern in drei zentralen Schritten: In der ersten Phase erfolgt eine nach den Bildinformationen einer Deckenkamera ausgerichtete Suchfahrt in der Roboterzelle. Diese automatische Suchfahrt endet, sobald der Scanner die Probe (z.B. eine Autotür) im Arbeitsraum aufgefunden hat. Danach startet das Feintuning mit der Annäherung, bis der Scanner seine ideale Start- und Messposition einnimmt. Bahngeführt vom Scanner erfolgt in der dritten Phase die eigentliche Werkstückprüfung bzw. -bearbeitung. Dabei wird der TCP mit den Scannersignalen eingeregelt und in Einklang gebracht. Nach durchgeführter Messroutine wird der Roboter mit Greif- und Prüfeinrichtung auf einem sicheren Rückzugspfad zurückgefahren, bevor er abschließend in seine Ruheposition fährt. Bild 2 zeigt, wie eine beliebig im Messraum platzierte Autotüre vermessen wird. Weder auf matten und folglich wenig reflektierenden Systemen, noch auf lackierten, teilweise zerkratzten Oberflächen ist das System in die Irre zu führen und blieb stabil regelbar. Prüfdaten werden unmittelbar an ein CAQ System übertragen, ohne dass dabei der Werker eingreift.

Seiten: 1 2Auf einer Seite lesen

Technologie Centrum Westbayern GmbH

Das könnte Sie auch Interessieren