Unbekannte Abhängigkeiten

Auflösung und Geschwindigkeit bei 3D-Lasertriangulationen

Die Faktoren Auflösung und Aufnahmegeschwindigkeit sind für die Planung von 3D-Bildverarbeitungslösungen von großer Bedeutung. Um den passenden 3D-Sensor für eine Applikation zu wählen, reicht ein bloßer Vergleich der Angaben zur Auflösung und Profilfrequenz jedoch nicht aus. Beim Einsatz des Lasertriangulationsverfahrens verfügen 3D-Sensoren im High-End-Bereich über eine interne Auswertung, deren Leistung sich ebenfalls auf die Genauigkeit und Schnelligkeit des Daten-outputs auswirkt.
Bei Triangulationsmessungen erfolgt die Aufnahme der 3D-Daten, indem ein Laser eine Lichtlinie auf das zu vermessene Objekt projiziert. Während das Prüfobjekt den Linienlaser durchwandert, nimmt ein winkelig positionierter 3D-Sensor die an der Objektoberfläche entlang verlaufende Lichtlinie auf. Aus den daraus resultierenden Lichtschnittaufnahmen wird ein 3D-Modell errechnet. Erfordert die Anwendung hohe Aufnahmegeschwindigkeiten und Bildauflösungen, wird die Übertragung der Sensorbilddaten an den Bildverarbeitungsrechner allerdings durch übliche Schnittstellen wie den GigE-Vision-Standard limitiert. Zwar existieren Alternativen (z.B. CoaXPress), aber diese erfordern meist weitere Komponenten wie Framegrabber, etc. und lassen die Anschaffungskosten steigen. Die Hersteller von Hochgeschwindigkeits-3D-Kameras umgehen diese Problematik, indem sie die Lagebestimmung der Laserlinie bereits intern auswerten und anstatt der Bilddaten nur die benötigten 3D-Daten an das weiterführende System ausgeben. Das Datenvolumen wird dadurch so stark reduziert, dass sich die Übertragung auch mit herkömmlichen Schnittstellenstandards umsetzen lässt. Für die interne Auswertung der Sensorpixel kennt die 3D-Bildverarbeitung verschiedene Algorithmen, die über unterschiedliche Leistungsmerkmale verfügen, die je nach Anforderung zu genaueren Messdaten verhelfen. So ist es bei transparenten Prüfobjekten z.B. von Vorteil, das Max-Verfahren (Maximum Intensity) einzusetzen, während die Schwerpunkt-Auswertung (COG: Center of Gravity) besonders bei reflektierenden Oberflächen wie Gussmetall seine Stärken ausspielt. Einen weiteren Unterschied erfährt die kamerainterne Auswertung durch die Subpixelfunktionalität. Diese ermöglicht eine weitere Aufteilung der einzelnen Sensorpixel, sodass sich der Laserlinienverlauf – je nach Kamera – noch mal um den Faktor 64 genauer bestimmen lässt. Die Wahl des richtigen 3D-Sensors hängt somit von vielen Faktoren ab. Ein Beispiel soll deshalb aufzeigen, was in Hinblick auf Auflösung und Geschwindigkeit zu beachten ist: Zunächst gilt es die erforderliche Auflösung herauszufinden. Hierzu benötigt man zuerst die Angaben zur Breite und Höhe des Messbereichs und der Größe des Prüfkriteriums. Generell kann man als groben Richtwert ca. zehn Pixel veranschlagen, um einen Defekt an einem Prüfobjekt zu erkennen. Wenn also ein lateraler Messbereich von 20mm auf Defekte mit einem Durchmesser von 0,1mm geprüft werden soll, so müsste der 3D-Sensor mindestens eine laterale Auflösung mit 2.000 Pixeln zur Fehlererkennung bereitstellen [= (20mm/ (0,1mm/10Pixel)]. Zur Bestimmung der vertikalen Sensorfeldgröße müssen die Höhe des Messbereichs und die zu erkennende Defektgröße ebenfalls bekannt sein. Geht man zur Defekterkennung in der Höhe von einer Größe von 0,2mm aus und einem gesamten Scanbereich von 10mm, erhält man eine Pixelauflösung von 500 Pixeln [= (10mm/(0,2mm/10Pixel)].

Profilfrequenz abhängig vom Auswertungsalgorithmus

Die Höhenauflösung hat einen großen Einfluss auf die Profilgeschwindigkeit, da man anhand dieses Wertes ein ROI (Region of Interest) im Sensorfeld setzen kann, welches das Auslesen des Sensors auf das definierte Feld beschränkt. Auf diese Weise reduziert sich die Zeit des Auslesens und die Bilddaten lassen sich schneller berechnen bzw. ausgeben. Um zu erfahren, was für Profilraten sich bei welcher AOI-Größe ausgeben lassen, stellen die Kamerahersteller entsprechende Tabellen bereit. Wie jedoch eingangs erwähnt, ist ein praxisrelevanter Vergleich dieser Werte nur unter der Berücksichtigung der verschiedenen Laserlinienberechnungen möglich. So unterstützen die 3D-Sensoren von Hersteller zu Hersteller unterschiedliche Subpixelauswertungen und auch deren Algorithmen wirken sich sehr unterschiedlich auf die Präzision und Geschwindigkeit aus. Für das oben aufgeführte Beispiel wird ein Sensor benötigt, der mindestens über eine Auflösung mit 2.000×500 Pixeln verfügt. Vergleicht man nun 3D-Sensoren, die für eine solche Messaufgabe in Frage kommen, wird man zunächst große Unterschiede feststellen. So gibt es Hochgeschwindigkeits-3D-Kameras die eine solche Messaufgabe mit einer Profilgeschwindigkeit von über 5kHz durchführen. Bei einer AOI-Höhe von 500 Zeilen stellt diese Messgeschwindigkeit theoretisch auch kein Problem dar. In der Praxis kommt für die interne Laserlinienauswertung jedoch meist der FIR-Peak- oder COG-Algorithmus zum Einsatz, da diese über eine sehr genaue Auswertung verfügen. In diesem Fall würde die Profilrate allerdings um ein Vielfaches gesenkt werden, sodass die tatsächliche Geschwindigkeit am Ende bei ca. 0,8kHz liegt. Eine Besonderheit stellen diesbezüglich die Hochgeschwindigkeits-3D-Sensoren der CX-Serie dar, denn deren Auswertungsalgorithmen arbeiten stets mit der maximalen Sensorauslesegeschwindigkeit. Die Algorithmuswahl nimmt bei diesen 3D-Sensoren deshalb keinen Einfluss auf die Profilfrequenz. Ein 3D-Sensor, der sich für das oben genannte Beispiel zum Vergleich anbietet, wäre das Modell C2-2040HS-GigE. Auf den ersten Blick liefert der Sensor bei 500 Zeilen zwar eine ähnliche Profilrate von 0,7kHz, jedoch verfügen die Sensoren zusätzlich über eine Subpixelgenauigkeit von einem Pixel. Aus diesem Grund benötigt er für die gleiche Auflösung tatsächlich nur acht Zeilen, und führt die Messung mit einer Profilgeschwindigkeit von 25kHz aus.

Anzeige

Das könnte Sie auch interessieren

2018 findet das von EMVA, inVISION und P.E. Schall zusammen organisierte Vortragsforum für Bildverarbeitung und optische Messtechnik ´Control Vision Talks´ (CVT) bereits zum dritten Mal statt. Vom 24. bis 26. April können Sie in Halle 6 – Stand 6529 auf der CONTROL in Stuttgart 30 Vorträge und eine Podiumsdiskussion erleben. Die Teilnahme an der CVT 2018 ist kostenfrei. Das komplette Programm ist nun online.

Anzeige

Das Unternehmen Stemmer Imaging plant im Rahmen eines Börsenganges die Platzierung neuer und bestehender Stammaktien in dem Börsensegment Scale (Freiverkehr) der Frankfurter Wertpapierbörse. Die Notierung wird voraussichtlich im ersten Halbjahr 2018 erfolgen. Der Bildverarbeitungsspezialist aus Puchheim erwirtschaftete im Geschätsjahr 2017 einen Umsatz in Höhe von 88,3Mio.€ und plant seine Marktposition in bestehenden und neuen Märkten weiter auszubauen.

www.stemmer-imaging.de

Anzeige

Das Fraunhofer IPA lädt dieses Jahr auf der CONTROL 2018 (24.-27. April, Stuttgart) zum 11. Mal zum Eventforum in Halle 6, Stand 6110 ein. Themenschwerpunkt ist dann „Nachhaltigkeit durch Smarte Qualitätskontrolle – vom Produktdesign bis zum Recycling“. Dabei werden aktuelle Entwicklungen im Bereich der smarten Qualitätskontrolle und ihr Beitrag zur Nachhaltigkeit gezeigt.

www.eventforum.ipa.fraunhofer.de

Vom 19.-22. Juni findet dieses Jahr die Automatica auf dem Münchener Messegelände statt. Mittlerweile ist auch ein erstes Ausstellerverzeichnis online. Ungefähr 50 ausstellenden Firmen lassen sich dem Thema Bildverarbeitung zuzuordnen. Unter dem Motto ‚Optimize your Production‘ bietet die Messe für intelligente Automation und Robotik einen Überblick über alle Technologie- und Produkttrends.

automatica-munich.com

Die European Machine Vision Association (EMVA) hat Arnaud Darmont (Bild) zum neuen Standards Manager ernannt. Darmont wird künftig die europäischen Standardisierungsaktivitäten weltweit vorantreiben sowie den Entwicklungsprozess von Bildverarbeitungsstandards koordinieren. Er bringt langjährige Bildverarbeitungserfahrung sowohl im technischen als auch im Führungs- und Marketingbereich mit und hat unter anderem an der Entwicklung des EMVA-1288-Standards mitgewirkt.

www.emva.org

Notavis hat eine Smart Kamera mit der Notavis WebApp-Software im Portfolio. Basierend auf dem Portfolio intelligenter Kameras von Vision Components mit Auflösungen bis 5MPix und einer auf Halcon basierenden Software mit ID-, Presence/Absence- und Patternmatching-Werkzeugen erfüllt diese Anwendungen in den Bereichen Logistik, Automatisierung und Robotik. Hervorstechendes Merkmal der Kamera ist deren einfache Konfiguration über einen Webbrowser (auch WLAN) auf allen Devices (PC, Tablet, Smartphone). Es besteht zudem die Möglichkeit der individuellen Anpassung und Erstellung eigener Werkzeugsets.

www.notavis.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige