Subpixelgenaue Linienposition

3D-Lasertriangulation mit autonom nachgeführten ROI

In diesem Fachbericht werden die Hintergründe und Motivationen für autonom nachgeführte Auslesebereiche bei Lasertriangulationsapplikationen beschrieben, nachdem die wesentlichen Vorteile der CMOS Bildsensorik in der 3D-Lasertriangulation rekapituliert werden.
Vor der Einführung der CMOS-Sensoren in die 3D-Messtechnik wurden Lasertriangulationssysteme mit CCDs aufgebaut. Dabei wurden 25 bis 30 Lichtschnitte entsprechend den Vollbildraten der eingesetzten CCDs erreicht. Mit den Multitap-CMOS-Bildsensoren standen gleich nach Einführung der CMOS-Sensortechnologie in die industrielle Bildverarbeitung vor 15 Jahren Sensoren mit Global Shutter und Vollbildraten von 150fps bei Megapixel-Auflösung zur Verfügung. Schon bei den ersten Einsätzen der neuen Sensortechnologie traten weitere Vorteile in den Vordergrund. Durch eine der Applikation angepasste Ausleseregion (ROI: Region Of Interest) konnte die Bildrate der Sensoren nochmals deutlich erhöht werden, da die Verkleinerung der ROI in x- und y- Richtung mit einer linearen Erhöhung der Bilddatenrate einherging. Dadurch konnten Triangulationsraten von 1.500 bis 2.200Hz in Standardapplikationen erreicht werden, was Steigerungen der Scanrate um den Faktor 50 und mehr entsprach. Da CMOS im Gegensatz zu den CCDs bei Sättigung kein Blooming zeigen, konnte auch die Laserleistung erhöht werden. Zusammen mit der höheren Full-Well-Kapazität und der damit verbundenen höheren Dynamik der Sensoren wurden so viele neue Applikationen u.a. in der Metallindustrie und im Bereich der Inspektion von Verbundwerkstoffen erschlossen. Die sub-pixelgenaue Auswertung wird durch die Verwendung von nichtlinearen Sensorkennlinien unterstützt. Auf diesem Gebiet ist die LinLog-Technologie für CMOS-Bildsensoren richtungsweisend und die Kameras MV1-D1024E-3D02 und MV1-D1312-3D02 mit LinLog-Sensoren haben sich in Triangulationssystemen als wahre Arbeitspferde erwiesen. Bild 1 zeigt den direkten Vergleich zwischen linearer Kennlinie und LinLog-Kennlinie bei der Lasertriangulation von Laserschweißnähten.

Nachführung der ROI

Einige Applikationen benötigten schon damals Scanraten größer 8kHz bei nahezu flachen Objekten. Die geringen Triangulationshöhen in diesen Anwendungen ließen kleinere ROI zu, so dass die Scanrate weiter erhöht werden konnte. Durch Optimierung der Sensoransteuerung der CMOS und durch Unterabtastung konnten weitere Geschwindigkeitssteigerungen und die 8kHz Scanraten erreicht werden. Nachteilig erwiesen sich Driften in den Höhen, die durch die Objekte selbst oder die Materialzuführung während des Scanvorgangs hervorgerufen wurden, und ein Nachregeln der ROI unabdingbar machten. Eine Nachführung der ROI von Bild zu Bild ist für die CMOS-Bildsensoren und -Kameras kein Problem, erfordert aber einen schnellen Regelkreis zum Nachstellen der ROI-Parameter während der Bilderfassung und damit eine sehr schnelle Kommunikationsschnittstelle zwischen Bildauswertung im PC und Kamera. Hierfür wurde von Silicon Software und Photonfocus das TrackCam-System entwickelt, wobei das ROI der Kamera von dem Framegrabber über eine Hochgeschwindigkeitsschnittstelle gesteuert wird. Eine Vorverarbeitung der Bilddaten in Echtzeit auf dem Framegrabber in Verbindung mit Realtime-Betriebssystemen ermöglichten ROI-Nachführungen bis zu 8kHz. Die Komplexität dieser Systeme war sehr hoch, so dass die Anwendung dieses Lösungsansatzes auf wenige Spezialfälle beschränkt blieb. Mit der GigE-Schnittstelle wurden viele Triangulationssysteme ausgerüstet, da größere Distanzen zwischen Sensoren und PC-System überbrückt werden konnten. Als Ausweg für die geringe Kommunikationsbandbreite wurden Steuerungen der ROI durch Sequenzer in den Kameras implementiert, die vordefinierte ROI nach einem vorbestimmten Muster umschalteten aber Apriori Wissen über das zu vermessende Werkstück bzw. den Messablauf erfordern.

Auswertung der Linienposition

Die immer stärkere Verbreitung von Multisensorsystemen erzwang die Auswertung der Linienposition in der Kamera. Es lag nahe, diese Informationen auch zur Nachführung der ROI im Kamerakopf zu verwenden und das TrackCam-Konzept zu reaktivieren. Aus der Anlagen- und Werkstückgeometrie ergibt sich das maximale Inspektionsfenster in der Applikation. Die Anforderungen an die Dichte der Lichtschnitte in Vortriebsrichtung definiert bei gegebener Vortriebsgeschwindigkeit die benötigte Scanrate und damit die maximale Größe der ROI bei hohen Scanraten. Der Regelalgorithmus für das autonom nachgeführte ROI in den Kameras MV1-D2048x1088-3D03 und MV1-D2048-3D04 startet mit einem Scan im vorab definierten Inspektionsfenster. Nach der Bestimmung der Linienposition wird automatisch auf das kleinere ROI für hohe Scanraten umgeschaltet und die autonome Nachführung aktiviert. Verliert die Nachführungssteuerung die Linienposition, z.B. durch Unstetigkeiten im Material, wird automatisch auf das große Inspektionsfenster umgeschaltet und die Lage der Linie für den schnellen Scanvorgang erneut bestimmt. Durch diesen automatischen Suchprozess gehen nur wenige Scans verloren. Die LAP GmbH hat die Kameras mit autonom nachgeführten Auslesebereichen bereits im Standardmodell Contour Check integriert, in dem mit vier Triangulationssensoren gemessen wird. Das Multisensorsystem kann je nach Anforderungen mit weiteren Sensoren ausgebaut werden. Bei dem in Bild 2 gezeigtem Rahmen sind acht Kameras für eine Inspektion von Stahl-H-Profil-Trägern verbaut. Die Prüfung auf Maßhaltigkeit wird am glühenden Medium mit bis zu 2kHz Abtastrate vorgenommen. Der maximale Querschnitt der gemessenen Profile kann bis zu 180mm betragen, noch größere Abmessungen können mit zusätzlichen Kameras abgedeckt werden. Das System kommt bei Hitachi in Japan zum Einsatz.

Das könnte Sie auch interessieren

Indutrade übernimmt MaxxVision

Das schwedische Unternehmen Indutrade hat die MaxxVision GmbH aus Stuttgart übernommen, die fortan Teil des Geschäftsbereiches Indutrade Industrial Components sein wird. MaxxVision ist einer der größten Anbieter von Bildverarbeitungskomponenten auf dem deutschsprachigen Markt und Vertriebspartner mehrerer marktführender Komponenten-Hersteller aus diesem Sektor.

www.indutrade.com

100 Teilnehmer bei EMVA Business Conference

Knapp 100 Teilnehmer kamen zur 15. EMVA Business Conference nach Prag. Höhepunkt des Vortragprogramms war eine Panel Diskussion zum Thema ´Camera trends: Low cost competition with Asia or niche strategy‘, an der die CEOs von Allied Vision, Adimec und Baumer Optonic (Bild v.l.n.r.) teilnahmen. Die nächste Business Conference findet vom 12. bis 14. April 2018 in Dubrovnik (Kroatien) statt.

www.emva.org

Anzeige
Positive Umsatzprognosen für die europäische IBV

Der europäische Bildverarbeitungsverband EMVA geht für 2017 von einem Anstieg der Umsätze für die europäische Bildverarbeitung von acht bis zehn Prozent aus. So lagen die Umsätze im ersten Quartal 2017 bereits 20,5% über denen des Vorjahres.

www.emva.org

EMVA Young Professional Award 2017

Der diesjährige EMVA Young Professional Award für außergewöhnliche und innovative Arbeit Studierender und Berufseinsteiger in der Bildverarbeitung geht an Boaz Arad (32), der für seine Arbeit ‚Sparse Recovery of Hyperspectral Signal from Natural RGB Images‘ ausgezeichnet wurde. Arad promoviert derzeit an der Ben-Gurion University of the Negev und ist CTO des Startups HC-Vision.

www.emva.org

Anzeige
Embedded Vision Europe Conference 2017

Der europäische Bildverarbeitungsverband EMVA plant erstmals vom 12. bis 13. Oktober zusammen mit der Messe Stuttgart die Ausrichtung der Embedded Vision Europe (EVE) Conference in Stuttgart. Über die Ziele und Inhalte der Veranstaltung sprach inVISION mit Gabriele Jansen, Mitglied im ehrenamtlichen Vorstand der EMVA und Geschäftsführerin von Vision Ventures.

www.embedded-vision-emva.org

Projekt zu 3D-Gesichtserkennungssystemen

Das Centre for Machine Vision der University of the West of England (UWE Bristol) kooperiert mit dem britischen Unternehmen Customer Clever, um ein System zur 3D-Gesichtserkennung zu entwickeln, das erstmals auch gewerblich genutzt werden könnte. Das auf zwei Jahre angesetzte Projekt wird u.a. durch 170.000£ Förderung von der staatlichen Agentur Innovate UK mitfinanziert.

info.uwe.ac.uk

Anzeige