Vision Sensor ermöglicht Pick&Place ohne Programmierung

Vision-Sensor berechnet Roboterkoordinaten

Kalibrieren statt programmieren

Ein Vision-Sensor erkennt ein Objekt und der Roboter nimmt es auf. Damit dies in der Praxis funktioniert, müssen die Sensorbilder aber zuvor in Roboterkoordinaten umgerechnet werden. Aktuelle Vision-Sensoren verfügen über eine Kalibrierfunktion, mit der sich diese Umrechnung mit wenigen Mausklicks konfigurieren lässt.
Handling-Roboter und Vision-Sensoren bewegen sich in zwei verschiedenen Welten: Der Ursprung (0,0) der Sensorkoordinaten liegt meist in der oberen linken Bildecke und Längenangaben werden in Bildpixeln ausgegeben; der Roboter hingegen benötigt alle Angaben in Millimetern und bezogen auf einen realen Ort in der Welt, z.B. seinen Fußpunkt. Die notwendige Koordinatentransformation bedeutete bisher einen erheblichen Programmieraufwand in der Robotersteuerung, zumal außer der Teileposition auch Faktoren wie die perspektivische Bildverzerrung aufgrund eines schrägen Sensor-Blickwinkels sowie die Kissenverzeichnung des Sensorobjektivs zu berücksichtigen waren. Mit den Visor-Vision-Sensoren lässt sich dieser Aufwand nun reduzieren. Die sonst händisch zu erstellenden Routinen sind in Form einer Kalibrierfunktion bereits im Sensor vorkonfiguriert und müssen – ähnlich dem Teach-in bei einem schaltenden Sensor – lediglich an den konkreten Einsatzfall angepasst werden. Hierzu wird eine Punktepaarliste aus Bild- und Weltkoordinaten mit mindestens sechs korrespondierenden Koordinatenpaaren gebildet. Dazu lässt man den Roboter ein Kalibrierteil an verschiedenen Positionen im Sichtfeld des Vision-Sensors ablegen und überträgt die Koordinaten aus der Robotersteuerung in das Sensor-Konfigurationsprogramm, Eingriffe in die Robotersteuerung sind nicht mehr nötig. Einmal kalibriert, übermittelt der Sensor jede Teileposition in absoluten Roboterkoordinaten, sodass der Roboter die Teile ohne weitere Umrechnung direkt greifen kann. Perspektivische Verzerrungen und Objektivverzeichnungen werden durch die Kalibrierung automatisch mitkorrigiert. Der Kalibriervorgang lässt sich mittels Schnittstellenkommandos, z.B. via Ethernet, vollständig automatisieren. Die Kalibrierung lässt sich einfach an wechselnde Teilegeometrien anpassen. So kann ein vertikaler Versatz zwischen Kalibrier- und Messebene berücksichtigt werden oder eine Greifpunktkorrektur. Auch der verfügbare Freiraum rund um das zu greifende Teil lässt sich überprüfen; übereinander oder zu eng liegende Teile werden gar nicht erst an den Roboter gemeldet.

Anzeige

Das könnte Sie auch interessieren

Wie können komplette 3D-Daten erfasst, interne Defekte in Gussteilen erkannt und sogar deren 3D-Koordinaten bestimmt werden? Das Unternehmen Carl Zeiss Industrielle Messtechnik GmbH hat ein informatives Video veröffentlicht, in dem die Inline-Prozessinspektion mit dem Zeiss VoluMax in der Leichtmetallgießerei am BMW-Produktionsstandort Landshut veranschaulicht wird.

Anzeige

Klassische Wärmebildkameras benötigen einen mechanischen Shutter, mithilfe dessen ca. alle 2 bis 3 Minuten Referenzdaten zur Kalibrierung der Wärmebilddarstellung und der Temperaturmessung aufgenommen werden. Jedoch erzeugt das Schließen des Shutters ein Geräusch und die Videoaufzeichnung ist während dieser Zeit unterbrochen. Daher hat Tamron nun ein Shutter-loses Wärmebildkameramodul auf Basis eines amorphen Silikonwärmebildsensors entwickelt. Dieser Sensor verfügt über eine exzellente Temperaturwiedergabe selbst wenn sich seine eigene Temperatur verändert.

www.tamron.eu

Der Industriescanner VTCIS ist in der Lage, im Druckbild fehlende Nozzles bei einer Auflösung von 1.200dpi automatisch zu detektieren. Da der CIS (Compact Image Sensor) nicht das komplette Bild einzieht, sondern nur bestimmte Bereiche scannt, wird die Datenverarbeitung vereinfacht und die Datenmenge deutlich reduziert. Außerdem garantiert die integrierte Flüssigkeitskühlung Farbstabilität über den gesamten Druckprozess hinweg und schließt Farbabweichungen aus. Dank einer Zeilenrate von bis zu 250kHz und einer Abtastgeschwindigkeit von bis zu 20m/s ist der Scanner für sehr schnell laufende Druckprozesse bestens geeignet.

www.tichawa.de

Die neuesten Versionen der 3D-Kameras für Lasertriangulation erreicht Triangulationsraten von bis zu 68kHz. Die Kamera basiert dabei auf einem 2/3″ Hochgeschwindigkeitssensor von Cmosis, der auch bei schwachen Lichtverhältnissen eine hervorragende Leistung erbringt. Als Schnittstelle verwendet die 3D05 das standardisierte GigEVision-Interface. Für eine einfache Integration und Synchronisierung besitzt die Kamera eine komplette, in die Kamera integrierte Drehgeberschnittstelle (RS422 und HTL). Das HTL-Interface ermöglicht dabei auch einen stabilen und effizienten Einsatz in der Schwerindustrie oder Bereichen mit starken elektrischen Störquellen.

www.photonfocus.com

Sensoren bis zu 1/1.2 und 1″ wurde die HF-XA-5M Objektivserie von Fujinon entwickelt. Die Objektive erreichen eine konstant hohe Auflösung von 5MP über das gesamte Bildfeld – bei einem Pixelabstand von 3,45µm. Dies gilt bei offener Blende ebenso wie bei verschiedenen Arbeitsabständen. Mit 29,5mm Außendurchmesser eignen sich die Objektive für platzkritische Anwendungen.

www.polytec.de

Die Messsoftware Wave ist für den hochpräzisen Wegmesssensor IDS3010. Damit können Messdaten in Echtzeit analysiert, verarbeitet und ausgewertet werden. Die Software verfügt über verschiedene Funktionen zur Visualisierung und Analyse von Daten, beispielsweise können die angezeigten Messdaten vergrößert/verkleinert werden oder die Datenvisualisierung kann gestoppt werden, um bestimmte Zeitbereiche zu analysieren. Außerdem ist eine Live Fast-Fourier-Transformation von Messwerten implementiert.

www.attocube.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige