Anzeige
Anzeige
Anzeige

Autonome Roboterführung

Integration von Bildverarbeitung im Roboterumfeld

Die industrielle Bildverarbeitung steht vor einem beispiellosen Siegeszug in der Produktionstechnik und der Qualitätskontrolle. Laseroptische Sensoren, Scanner, Kamera- und Bildverarbeitungssysteme sind inzwischen als ‚künstliche Augen‘ in der Inline-Produktionsmesstechnik nicht mehr wegzudenken. Vollständig integriert, verleihen Kameras, Scanner und Sensoren aber auch modernen Maschinen und Robotern die Fähigkeit zu sehen, zu erkennen und Entscheidungen zu treffen sowie fertigungsbegleitend eine 100%-Qualitätskontrolle vorzunehmen.
Industrie- und Montageroboter sind heute bei Montageprozessen nur begrenzt wiederholgenau und relativ selten intuitiv zu bedienen. Im Gegenteil: Sie müssen durch Programmierexperten aufwändig an neue Anwendungen und Werkstückgrößen angepasst werden. Sie sind ausgelegt, um in strukturierten, fest abgesicherten Umgebungen immer gleich zu arbeiten und stellen ein hohes Gefahrenpotenzial für Menschen in ihrer Umgebung dar. Ziel aktueller Entwicklungsaktivitäten auf dem Themengebiet Robot Vision ist es daher, erste Lösungen für die flexible Automation und die sichere Roboterunterstützung an Montagearbeitsplätzen und Prüf-einrichtungen zu entwickeln, die nicht mehr auf klassischer Anwendungsprogrammierung der eingesetzten Roboter beruhen, und sie unter Realbedingungen einer ‚Produktion 2020‘ zu testen. Die ersten Machbarkeitsstudien zur autonomen Prozessführung in einer Roboterzelle auf Basis der industriellen Bildverarbeitung und Farberkennung zeigen, dass sich über die Herausforderung der Systemintegration und einen Einsatz bildmessender Technologien bereits heute schon enorme Optimierungspotenziale mit großem Erfolg erschließen lassen.

Roboterführung über Farberkennung

Der immens hohe Kostendruck in der Produktion von Garnrollen erfordert eine möglichst lückenlose Automatisierung von personalintensiven Fertigungsprozessen. Ein besonders aufwändiger und ergonomisch für Werker anspruchsvoller Prozess ist das Abnehmen und Palettieren von farblich zu sortierenden Garnrollen von einem Auslaufband nach der Durchführung von Färbe- und Trocknungsschritten. Diesen Prozess galt es, auf eine mögliche Automatisierbarkeit bei flexibler Automation in einer vorhandenen Roboterzelle zu testen. Verwendet wurde eine mit einem Industrieroboter (Typ Kuka KR-30 HA) ausgestattete Roboterzelle sowie eine mit Hochleistungs-CMOS Bildsensoren bestückte Farbkamera, die inkl. einer Beleuchtung an der Decke über dem Auslaufband platziert wurde (Bild 1). Von der Bildverarbeitungssoftware wurde eine Verbindung zur Steuerungsumgebung des Roboters (Kuka KRC 2) über einen seriellen I/O Port aufgebaut. Parallaxenfehler wurden über die Einführung eines benutzerdefinierten Koordinatensystems auf Ebene der Verpackungsoberkante kompensiert. Zur Kalibrierung wird ein Testmuster benutzt, das die Berechnung der geometrischen Verzeichnungen ermöglicht. Für die Aufnahme der jeweils ca. 8kg schweren Garnspulen wurde ein mechatronischer Druckluft-Innengreifer genutzt. Dieser wird im Roboterumfeld als TCP (Tool Center Point) definiert. Die Steuerung der Roboterbewegungen und die Werkstückaufnahme erfolgen vollständig autonom auf Basis der Bildanalysen, die mit den Bilddaten der Deckenkamera aufgenommen wurden. Es gibt kein festgelegtes Bearbeitungsprogramm mehr, und das System bewährt sich in der realen Fertigungsumgebung. Tausende von Garnrollen wurden bereits zuverlässig und vollautomatisch in die hierfür vorgesehenen Kartongebinde eingelegt.

Autonome Vermessung und Bearbeitung

Kameras und Laserscanner sind für den Einsatz im Roboterumfeld zur Ziel- bzw. Nachführung der Werkzeugbahn oder zur Inline Fertigungskontrolle geradezu prädestiniert. Die Integration eines 2D-Präzisionsscanners zur Kontrolle von Schweißnähten, Klebstoff- oder Pastenauftrag, zur Spalt-, Winkel- und Stufenvermessung erlaubt es, neben der Aufnahme von Messpunkten im Zuge der Objektprüfung auch aktiv Daten an das Steuerungsumfeld des Industrieroboters (Kuka KR-30 HA, Steuerung: KR-C2) zu senden, Produktgeometrien im Raum zu vermessen, dadurch Messobjekte und deren Größe zu erkennen und über flexible Bahnnachführungen entlang der unmittelbar gemessenen Stützpunktverläufe vorgesehene Bearbeitungspfade schnellstmöglich abzufahren. Gleichzeitig werden Bewegungsungenauigkeiten des Roboters in Messanwendungen kompensiert. Die automatisierte Probenvermessung und -bearbeitung geschieht im Modellaufbau am Technologie Centrum Westbayern in drei zentralen Schritten: In der ersten Phase erfolgt eine nach den Bildinformationen einer Deckenkamera ausgerichtete Suchfahrt in der Roboterzelle. Diese automatische Suchfahrt endet, sobald der Scanner die Probe (z.B. eine Autotür) im Arbeitsraum aufgefunden hat. Danach startet das Feintuning mit der Annäherung, bis der Scanner seine ideale Start- und Messposition einnimmt. Bahngeführt vom Scanner erfolgt in der dritten Phase die eigentliche Werkstückprüfung bzw. -bearbeitung. Dabei wird der TCP mit den Scannersignalen eingeregelt und in Einklang gebracht. Nach durchgeführter Messroutine wird der Roboter mit Greif- und Prüfeinrichtung auf einem sicheren Rückzugspfad zurückgefahren, bevor er abschließend in seine Ruheposition fährt. Bild 2 zeigt, wie eine beliebig im Messraum platzierte Autotüre vermessen wird. Weder auf matten und folglich wenig reflektierenden Systemen, noch auf lackierten, teilweise zerkratzten Oberflächen ist das System in die Irre zu führen und blieb stabil regelbar. Prüfdaten werden unmittelbar an ein CAQ System übertragen, ohne dass dabei der Werker eingreift.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

In diesem zweitägigen Kurs werden die Grundlagen der Farbpipeline einer Farbkamera erläutert (automatischer Weißabgleich, Vignettierung, optischer Tiefpassfilter, Bayer-Musterabtastung, Demosaicing, Dunkelstromkompensation, Rauschfilterung, Fehlerkorrektur, Autofokus, Auto-Exposure). Der Kurs ist für den 25. bis 26. März 2020 geplant. ‣ weiterlesen

www.framos.com

Anzeige

Die TKH-Gruppe gibt bekannt, dass sie 100% der Anteile an FocalSpec übernimmt, einem Unternehmen für optische Messtechnik mit Sitz in Oulu (Finnland), das die patentierte Line Confocal Imaging (LCI)-Technologie entwickelt. Diese wird zur Messung der Oberflächentopographie eingesetzt und kann vom Glas bis hin zu opaken Materialien in 2D und 3D mit sehr hoher Auflösung und Geschwindigkeit scannen. Mit 50 Mitarbeitern erzielte FocalSpec in den letzten 12 Monaten einen Umsatz von 6,5Mio.?. ‣ weiterlesen

www.tkhgroup.com

Anzeige

Framos hat sein sein Spin-off Framos AI in Cubemos umbenannt. Dieses konzentriert sich auf die Entwicklung von Deep Learning sowie KI-Software und unterstützt Industriekunden bei der Integration modernster KI-Vision-Lösungen. ‣ weiterlesen

www.cubemos.com

Anzeige

Für Unternehmen der industriellen Bildverarbeitung bietet der VDMA Industrielle Bildverarbeitung in Kooperation mit der VDMA Services GmbH ein Rundum-sorglos Fair Package zur Automatica 2020 (16.-19. Juni 2020, München) an. Das Angebot ermöglicht im Rahmen des Machine Vision Pavilion eine ansprechende und kostengünstige Messeteilnahme, um sich im internationalen Umfeld zu präsentieren. ‣ weiterlesen

ibv.vdma.org

Anzeige

Nachdem Phytec Messtechnik 2016 sein 30-jähriges Firmenjubiläum feierte, blickt nun auch die Sparte Imaging auf 25 erfolgreiche Jahre zurück. Mit dem smartEye-1 wurde 1994 die erste Smart-Kamera auf den Markt gebracht. Ein weiterer Höhepunkt war 2010 die Entwicklung von Kameramodulen mit den standardisierten phyCam-S und P Schnittstellen. ‣ weiterlesen

www.phytec.de

In Zusammenarbeit mit dem lokalen Distributor Optiger stärkt Active Silicon seine Präsenz auf dem chinesischen Markt der industriellen Bildverarbeitung. ‣ weiterlesen

www.activesilicon.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige