Anzeige

Intelligenter Vision-Sensor vereinfacht bildgeführte Robotik

Mit einem Software-Update für den Vision-Sensor Visor Robotic lassen sich gängige 2D-Anwendungen mit geringem Aufwand in der Robotersteuerung lösen. Ein 3D-Detektor ermöglicht zudem eine Lageerfassung von Objekten in 3D-Koordinaten. Alle Funktionen sind unabhängig vom eingesetzten Robotersystem.

(Bild: SensoPart Industriesensorik GmbH)

(Bild: SensoPart Industriesensorik GmbH)

Mit dem aktuellen Software-Release 2.2 bietet der Visor Robotic einen erweiterten Funktionsumfang, wodurch sich Einrichtungsschritte von der Robotersteuerung in die Sensorkonfiguration verlagern lassen. Die neuen Kalibriermethoden geben dem Anwender mehr Freiheit bei der Einrichtung seiner Applikation. Somit kann er in wenigen Schritten einen Abgleich zwischen der vom Sensor erfassten Objektposition und dem Greifpunkt des Roboters durchführen. Die Hand-Eye-Kalibrierung kommt zum Einsatz, wenn der Sensor am Roboterarm montiert ist. Im Unterschied zu klassischen Kalibriermethoden müssen das Sichtfeld des Sensors beim Kalibrieren und der spätere Arbeitsbereich des Roboters nicht identisch sein. Über einen Trigger kann der Anwender die aktuelle Position des Roboters an den Visor senden. Dies ist nützlich, wenn die räumlichen Gegebenheiten ein Ablegen der Kalibrierplatte nicht zulassen. Die zweite Kalibriermethode Base-Eye eignet sich für Anwendungen, bei denen der Vision Sensor stationär montiert ist. Hierzu wird jedes Bauteil nach dem Griff in die Kiste kurz vor den Sensor gehalten und so dessen genaue Position erfasst; im nachgelagerten Arbeitsschritt, etwa beim Ablegen des Teils, wird die Greiferposition dann entsprechend korrigiert. Bei beiden Kalibrierverfahren ist kein manuelles Anfahren realer Punkte oder das Greifen von Bauteilen mehr erforderlich. Um das komplette Koordinatensystem mit Bezug zum Tool-Center-Point des Roboters abzubilden, genügt es, mindestens zehn Bilder einer im Sichtfeld des Roboters abgelegten bzw. am Roboterarm angebrachten Kalibrierplatte in verschiedenen Positionen aufzunehmen. Bei Bedarf ist zusätzlich ein Ergebnisoffset möglich, d.h. eine rechnerische Verschiebung der Ergebnispunkte des Vision-Sensors in die gewünschten Arbeitspunkte des Roboters.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

AOI-Systeme müssen immer feinere Strukturen auflösen. Der folgende Beitrag zeigt am Beispiel der Elektronikfertigung, welche Eigenschaften die Optik erfüllen muss, um aus modernen Industriekameras mit hochauflösenden Sensoren das Beste herauszuholen.‣ weiterlesen

www.qioptiq.com

Anzeige

Die Firma Vision Ventures ist spezialisiert auf Merger & Acquisition von Vision Tech Firmen. inVISION sprach mit Firmeninhaberin Gabriele Jansen inwieweit die Covid 19 Krise die Branche, aber auch ihre Arbeit verändert hat.‣ weiterlesen

www.vision-ventures.eu

Anzeige

Anlässlich des 30-jährigen Jubiläums von ATD Electronique und der Umbenennung der Firma in Macnica ATD Europe hat inVISION ein Interview mit Firmengründer Antoine Hide über die Vergangenheit und Zukunft seiner Firma und von Distributoren geführt.‣ weiterlesen

www.atdelectronique.de

Anzeige

Cloud-Services haben sich in der Geschäftswelt etabliert. Vorteile wie hohe Skalierbarkeit, Kosteneffizienz und garantierte Ausfallsicherheit sprechen für sich. So wandern Applikationen, Business-Prozesse und Werkzeuge zunehmend in die Cloud. Welche Einsatzszenarien sind aber für die industrielle Bildverarbeitung denkbar und inwieweit profitieren Unternehmen von Machine Vision in der Cloud?‣ weiterlesen

www.mvtec.com

Anzeige

Wie kommt die vollgepackte Luftfracht-Palette ins Flugzeug ohne schadensträchtig anzuecken? Der 3D-Laserscanner PXL+ von Pepperl+Fuchs vermisst nicht nur die Konturen, seine Farbkamera gibt auch wichtige Zusatzinformation, sodass zwischen Frachtgut und überstehender Packfolie unterschieden werden kann.‣ weiterlesen

www.pepperl-fuchs.com

Anzeige

Mit dem PlugIn VisionApp 360 hat wenglor ein interessantes neues Feature in seine Bildverarbeitungssoftware uniVision integriert. inVISION hat bei Martin Knittel, Produktmanager Computer Vision, nachgefragt, welche Vision-Neuheiten es sonst noch bei wenglor sensoric gibt.‣ weiterlesen

www.wenglor.de

Anzeige

Ein Pilotprojekt der ETH Zürich hat mit einer Kombination aus Bildverarbeitung und mechanischer Unkrautvernichtung eine Alternative für den massiven Herbizideinsatz in der Landwirtschaft entwickelt. Für die sichere Navigation des Agraroboters Rowesys stehen passende Schutzgehäuse für die bordeigenen Kameras zur Verfügung.‣ weiterlesen

www.autovimation.com

Anzeige

Das MIPI Camera Serial Interface 2 (MIPI CSI-2) ist eine Kameraschnittstelle, die im Embedded-Bereich eingesetzt wird. Im Gegensatz zu industrietypischen Schnittstellen, die aus industriellen Standards für kabelgebundene Datenübertragung hervorgegangen sind, wurde sie für mobile Systeme zur Übertragung von Bilddaten entwickelt.‣ weiterlesen

www.evotron-gmbh.de

Anzeige

Die prismabasierte 3,2MP 3-CMOS-Farbkamera AP-3200T-10GE verfügt über eine 10GigE-Schnittstelle, die eine 24-Bit-RGB-Ausgabe mit voller Auflösung und 106fps liefert. 3 x 10-Bit- und 3 x 12-Bit-Ausgänge werden ebenfalls unterstützt. ‣ weiterlesen

www.jai.com

Anzeige

With the Fastvideo SDK data processing is done on Nvidia GPUs to speedup the performance. From tests with Nvidia Quadro RTX 6000 or GeForce RTX 2080ti it can be seen that GPU-based raw image processing is very fast and it could offer high image quality at the same time. The total performance could reach 4GPix/s for color cameras.‣ weiterlesen

www.fastcompression.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige