Unbekannte Abhängigkeiten

Auflösung und Geschwindigkeit bei 3D-Lasertriangulationen

Die Faktoren Auflösung und Aufnahmegeschwindigkeit sind für die Planung von 3D-Bildverarbeitungslösungen von großer Bedeutung. Um den passenden 3D-Sensor für eine Applikation zu wählen, reicht ein bloßer Vergleich der Angaben zur Auflösung und Profilfrequenz jedoch nicht aus. Beim Einsatz des Lasertriangulationsverfahrens verfügen 3D-Sensoren im High-End-Bereich über eine interne Auswertung, deren Leistung sich ebenfalls auf die Genauigkeit und Schnelligkeit des Daten-outputs auswirkt.
Bei Triangulationsmessungen erfolgt die Aufnahme der 3D-Daten, indem ein Laser eine Lichtlinie auf das zu vermessene Objekt projiziert. Während das Prüfobjekt den Linienlaser durchwandert, nimmt ein winkelig positionierter 3D-Sensor die an der Objektoberfläche entlang verlaufende Lichtlinie auf. Aus den daraus resultierenden Lichtschnittaufnahmen wird ein 3D-Modell errechnet. Erfordert die Anwendung hohe Aufnahmegeschwindigkeiten und Bildauflösungen, wird die Übertragung der Sensorbilddaten an den Bildverarbeitungsrechner allerdings durch übliche Schnittstellen wie den GigE-Vision-Standard limitiert. Zwar existieren Alternativen (z.B. CoaXPress), aber diese erfordern meist weitere Komponenten wie Framegrabber, etc. und lassen die Anschaffungskosten steigen. Die Hersteller von Hochgeschwindigkeits-3D-Kameras umgehen diese Problematik, indem sie die Lagebestimmung der Laserlinie bereits intern auswerten und anstatt der Bilddaten nur die benötigten 3D-Daten an das weiterführende System ausgeben. Das Datenvolumen wird dadurch so stark reduziert, dass sich die Übertragung auch mit herkömmlichen Schnittstellenstandards umsetzen lässt. Für die interne Auswertung der Sensorpixel kennt die 3D-Bildverarbeitung verschiedene Algorithmen, die über unterschiedliche Leistungsmerkmale verfügen, die je nach Anforderung zu genaueren Messdaten verhelfen. So ist es bei transparenten Prüfobjekten z.B. von Vorteil, das Max-Verfahren (Maximum Intensity) einzusetzen, während die Schwerpunkt-Auswertung (COG: Center of Gravity) besonders bei reflektierenden Oberflächen wie Gussmetall seine Stärken ausspielt. Einen weiteren Unterschied erfährt die kamerainterne Auswertung durch die Subpixelfunktionalität. Diese ermöglicht eine weitere Aufteilung der einzelnen Sensorpixel, sodass sich der Laserlinienverlauf – je nach Kamera – noch mal um den Faktor 64 genauer bestimmen lässt. Die Wahl des richtigen 3D-Sensors hängt somit von vielen Faktoren ab. Ein Beispiel soll deshalb aufzeigen, was in Hinblick auf Auflösung und Geschwindigkeit zu beachten ist: Zunächst gilt es die erforderliche Auflösung herauszufinden. Hierzu benötigt man zuerst die Angaben zur Breite und Höhe des Messbereichs und der Größe des Prüfkriteriums. Generell kann man als groben Richtwert ca. zehn Pixel veranschlagen, um einen Defekt an einem Prüfobjekt zu erkennen. Wenn also ein lateraler Messbereich von 20mm auf Defekte mit einem Durchmesser von 0,1mm geprüft werden soll, so müsste der 3D-Sensor mindestens eine laterale Auflösung mit 2.000 Pixeln zur Fehlererkennung bereitstellen [= (20mm/ (0,1mm/10Pixel)]. Zur Bestimmung der vertikalen Sensorfeldgröße müssen die Höhe des Messbereichs und die zu erkennende Defektgröße ebenfalls bekannt sein. Geht man zur Defekterkennung in der Höhe von einer Größe von 0,2mm aus und einem gesamten Scanbereich von 10mm, erhält man eine Pixelauflösung von 500 Pixeln [= (10mm/(0,2mm/10Pixel)].

Profilfrequenz abhängig vom Auswertungsalgorithmus

Die Höhenauflösung hat einen großen Einfluss auf die Profilgeschwindigkeit, da man anhand dieses Wertes ein ROI (Region of Interest) im Sensorfeld setzen kann, welches das Auslesen des Sensors auf das definierte Feld beschränkt. Auf diese Weise reduziert sich die Zeit des Auslesens und die Bilddaten lassen sich schneller berechnen bzw. ausgeben. Um zu erfahren, was für Profilraten sich bei welcher AOI-Größe ausgeben lassen, stellen die Kamerahersteller entsprechende Tabellen bereit. Wie jedoch eingangs erwähnt, ist ein praxisrelevanter Vergleich dieser Werte nur unter der Berücksichtigung der verschiedenen Laserlinienberechnungen möglich. So unterstützen die 3D-Sensoren von Hersteller zu Hersteller unterschiedliche Subpixelauswertungen und auch deren Algorithmen wirken sich sehr unterschiedlich auf die Präzision und Geschwindigkeit aus. Für das oben aufgeführte Beispiel wird ein Sensor benötigt, der mindestens über eine Auflösung mit 2.000×500 Pixeln verfügt. Vergleicht man nun 3D-Sensoren, die für eine solche Messaufgabe in Frage kommen, wird man zunächst große Unterschiede feststellen. So gibt es Hochgeschwindigkeits-3D-Kameras die eine solche Messaufgabe mit einer Profilgeschwindigkeit von über 5kHz durchführen. Bei einer AOI-Höhe von 500 Zeilen stellt diese Messgeschwindigkeit theoretisch auch kein Problem dar. In der Praxis kommt für die interne Laserlinienauswertung jedoch meist der FIR-Peak- oder COG-Algorithmus zum Einsatz, da diese über eine sehr genaue Auswertung verfügen. In diesem Fall würde die Profilrate allerdings um ein Vielfaches gesenkt werden, sodass die tatsächliche Geschwindigkeit am Ende bei ca. 0,8kHz liegt. Eine Besonderheit stellen diesbezüglich die Hochgeschwindigkeits-3D-Sensoren der CX-Serie dar, denn deren Auswertungsalgorithmen arbeiten stets mit der maximalen Sensorauslesegeschwindigkeit. Die Algorithmuswahl nimmt bei diesen 3D-Sensoren deshalb keinen Einfluss auf die Profilfrequenz. Ein 3D-Sensor, der sich für das oben genannte Beispiel zum Vergleich anbietet, wäre das Modell C2-2040HS-GigE. Auf den ersten Blick liefert der Sensor bei 500 Zeilen zwar eine ähnliche Profilrate von 0,7kHz, jedoch verfügen die Sensoren zusätzlich über eine Subpixelgenauigkeit von einem Pixel. Aus diesem Grund benötigt er für die gleiche Auflösung tatsächlich nur acht Zeilen, und führt die Messung mit einer Profilgeschwindigkeit von 25kHz aus.

Das könnte Sie auch interessieren

A $50,000 Camera you Already Own

Conventional cameras capture images using only three frequency bands (red, blue, green), while the full visual spectrum is a much richer representation that facilitates a wide range of additional and important applications. A new technology allows conventional cameras to increase their spectral resolution, capturing information over a wide range of wavelengths without the need for specialized equipment or controlled lighting.

Anzeige
Inspired by the Kinect

Although different 3D cameras and scanners have existed for some time, present solutions have been limited by several unwanted compromises. If you wanted high speed, you would get very low resolution and accuracy (e.g. Time-of-Flight cameras and existing stereo vision cameras, which despite being fast typically have resolution in the millimeter to centimeter range). If you wanted high resolution and accuracy, you would typically get a camera that was slow and expensive (e.g. the high accuracy scanners).

www.zividlabs.com

Anzeige
4. VDI-Fachkonferenz ‚Industrielle Bildverarbeitung‘

Vom 18. bis 19. Oktober veranstaltet der VDI die nunmehr 4. Fachkonferenz zum Thema ‚Industrielle Bildverarbeitung‘ im Kongresshaus Baden-Baden. In 19 Fachvorträgen werden u.a. die Schwerpunktthemen Automation in der Robotik mit 3D-Bildverarbeitung, Oberflächeninspektion und Bildverarbeitung in der Nahrungsmittelindustrie und intelligenten Logistik behandelt.

www.vdi-wissensforum.de

Anzeige
Low Noise SWIR-Camera with 400fps

C-Red 2 is an ultra high speed low noise camera designed for high resolution SWIR-imaging based on the Snake detector from Sofradir. The camera is capable of unprecedented performances up to 400fps with a read out noise below 30 electrons. To achieve these performances, it integrates a 640×512 InGaAs PIN Photodiode detector with 15m pixel pitch for high resolution, which embeds an electronic shutter with integration pulses shorter than 1μs. The camera is capable of windowing and multiple ROI, allowing faster image rate while maintaining a very low noise.

www.first-light.fr

Anzeige
Whitepaper: Sechs Kriterien für den optimalen Bildsensor

Ob Automatisierung, Mensch-Maschine-Kollaboration in der Robotik oder selbstfahrende Autos – die Auswahl des richtigen Sensors hängt stark von der Applikation und dem gewünschten Output ab. Diese 6 Faktoren helfen Ihnen dabei, den passenden Sensor für Ihre Applikation zu finden!

imaging.framos.com

Anzeige
Metrologic Anwendertreffen 2017

Vom 17. bis 18. Oktober veranstaltet die Metrologic Group ihr diesjähriges Anwendertreffen in Uhingen. Bei den zahlreichen Anwendervorträgen und der Hausmesse sind auch Messtechnik Firmen wie Creaform, Faro, Hexagon, Kreon und Wenzel vertreten. Anmeldeschluss ist bereits der 4. Oktober.

www.metrologic.frNEUIGKEITENNeuigkeiten