Anzeige
Anzeige
Anzeige

Unbekannte Abhängigkeiten

Auflösung und Geschwindigkeit bei 3D-Lasertriangulationen

Die Faktoren Auflösung und Aufnahmegeschwindigkeit sind für die Planung von 3D-Bildverarbeitungslösungen von großer Bedeutung. Um den passenden 3D-Sensor für eine Applikation zu wählen, reicht ein bloßer Vergleich der Angaben zur Auflösung und Profilfrequenz jedoch nicht aus. Beim Einsatz des Lasertriangulationsverfahrens verfügen 3D-Sensoren im High-End-Bereich über eine interne Auswertung, deren Leistung sich ebenfalls auf die Genauigkeit und Schnelligkeit des Daten-outputs auswirkt.
Bei Triangulationsmessungen erfolgt die Aufnahme der 3D-Daten, indem ein Laser eine Lichtlinie auf das zu vermessene Objekt projiziert. Während das Prüfobjekt den Linienlaser durchwandert, nimmt ein winkelig positionierter 3D-Sensor die an der Objektoberfläche entlang verlaufende Lichtlinie auf. Aus den daraus resultierenden Lichtschnittaufnahmen wird ein 3D-Modell errechnet. Erfordert die Anwendung hohe Aufnahmegeschwindigkeiten und Bildauflösungen, wird die Übertragung der Sensorbilddaten an den Bildverarbeitungsrechner allerdings durch übliche Schnittstellen wie den GigE-Vision-Standard limitiert. Zwar existieren Alternativen (z.B. CoaXPress), aber diese erfordern meist weitere Komponenten wie Framegrabber, etc. und lassen die Anschaffungskosten steigen. Die Hersteller von Hochgeschwindigkeits-3D-Kameras umgehen diese Problematik, indem sie die Lagebestimmung der Laserlinie bereits intern auswerten und anstatt der Bilddaten nur die benötigten 3D-Daten an das weiterführende System ausgeben. Das Datenvolumen wird dadurch so stark reduziert, dass sich die Übertragung auch mit herkömmlichen Schnittstellenstandards umsetzen lässt. Für die interne Auswertung der Sensorpixel kennt die 3D-Bildverarbeitung verschiedene Algorithmen, die über unterschiedliche Leistungsmerkmale verfügen, die je nach Anforderung zu genaueren Messdaten verhelfen. So ist es bei transparenten Prüfobjekten z.B. von Vorteil, das Max-Verfahren (Maximum Intensity) einzusetzen, während die Schwerpunkt-Auswertung (COG: Center of Gravity) besonders bei reflektierenden Oberflächen wie Gussmetall seine Stärken ausspielt. Einen weiteren Unterschied erfährt die kamerainterne Auswertung durch die Subpixelfunktionalität. Diese ermöglicht eine weitere Aufteilung der einzelnen Sensorpixel, sodass sich der Laserlinienverlauf – je nach Kamera – noch mal um den Faktor 64 genauer bestimmen lässt. Die Wahl des richtigen 3D-Sensors hängt somit von vielen Faktoren ab. Ein Beispiel soll deshalb aufzeigen, was in Hinblick auf Auflösung und Geschwindigkeit zu beachten ist: Zunächst gilt es die erforderliche Auflösung herauszufinden. Hierzu benötigt man zuerst die Angaben zur Breite und Höhe des Messbereichs und der Größe des Prüfkriteriums. Generell kann man als groben Richtwert ca. zehn Pixel veranschlagen, um einen Defekt an einem Prüfobjekt zu erkennen. Wenn also ein lateraler Messbereich von 20mm auf Defekte mit einem Durchmesser von 0,1mm geprüft werden soll, so müsste der 3D-Sensor mindestens eine laterale Auflösung mit 2.000 Pixeln zur Fehlererkennung bereitstellen [= (20mm/ (0,1mm/10Pixel)]. Zur Bestimmung der vertikalen Sensorfeldgröße müssen die Höhe des Messbereichs und die zu erkennende Defektgröße ebenfalls bekannt sein. Geht man zur Defekterkennung in der Höhe von einer Größe von 0,2mm aus und einem gesamten Scanbereich von 10mm, erhält man eine Pixelauflösung von 500 Pixeln [= (10mm/(0,2mm/10Pixel)].

Profilfrequenz abhängig vom Auswertungsalgorithmus

Die Höhenauflösung hat einen großen Einfluss auf die Profilgeschwindigkeit, da man anhand dieses Wertes ein ROI (Region of Interest) im Sensorfeld setzen kann, welches das Auslesen des Sensors auf das definierte Feld beschränkt. Auf diese Weise reduziert sich die Zeit des Auslesens und die Bilddaten lassen sich schneller berechnen bzw. ausgeben. Um zu erfahren, was für Profilraten sich bei welcher AOI-Größe ausgeben lassen, stellen die Kamerahersteller entsprechende Tabellen bereit. Wie jedoch eingangs erwähnt, ist ein praxisrelevanter Vergleich dieser Werte nur unter der Berücksichtigung der verschiedenen Laserlinienberechnungen möglich. So unterstützen die 3D-Sensoren von Hersteller zu Hersteller unterschiedliche Subpixelauswertungen und auch deren Algorithmen wirken sich sehr unterschiedlich auf die Präzision und Geschwindigkeit aus. Für das oben aufgeführte Beispiel wird ein Sensor benötigt, der mindestens über eine Auflösung mit 2.000×500 Pixeln verfügt. Vergleicht man nun 3D-Sensoren, die für eine solche Messaufgabe in Frage kommen, wird man zunächst große Unterschiede feststellen. So gibt es Hochgeschwindigkeits-3D-Kameras die eine solche Messaufgabe mit einer Profilgeschwindigkeit von über 5kHz durchführen. Bei einer AOI-Höhe von 500 Zeilen stellt diese Messgeschwindigkeit theoretisch auch kein Problem dar. In der Praxis kommt für die interne Laserlinienauswertung jedoch meist der FIR-Peak- oder COG-Algorithmus zum Einsatz, da diese über eine sehr genaue Auswertung verfügen. In diesem Fall würde die Profilrate allerdings um ein Vielfaches gesenkt werden, sodass die tatsächliche Geschwindigkeit am Ende bei ca. 0,8kHz liegt. Eine Besonderheit stellen diesbezüglich die Hochgeschwindigkeits-3D-Sensoren der CX-Serie dar, denn deren Auswertungsalgorithmen arbeiten stets mit der maximalen Sensorauslesegeschwindigkeit. Die Algorithmuswahl nimmt bei diesen 3D-Sensoren deshalb keinen Einfluss auf die Profilfrequenz. Ein 3D-Sensor, der sich für das oben genannte Beispiel zum Vergleich anbietet, wäre das Modell C2-2040HS-GigE. Auf den ersten Blick liefert der Sensor bei 500 Zeilen zwar eine ähnliche Profilrate von 0,7kHz, jedoch verfügen die Sensoren zusätzlich über eine Subpixelgenauigkeit von einem Pixel. Aus diesem Grund benötigt er für die gleiche Auflösung tatsächlich nur acht Zeilen, und führt die Messung mit einer Profilgeschwindigkeit von 25kHz aus.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Auf der Vision in Stuttgart wird vom 8.-10. November eines der Trendthemen Spectral Imaging sein. So präsentieren sich z.B. Allied Vision, Stemmer Imaging und Ximea auf der Weltleitmesse für Bildverarbeitung als Grenzgänger zwischen SWIR und NIR und zeigen dort verschiedene Demos, die … ‣ weiterlesen

www.sps-magazin.de

Anzeige

20mm flache Flächenleuchte mit 820x820mm aktiver Leuchtfläche und einer Blitzleistung von 360W für Auf- und Durchlichtanwendungen. Die Leuchte arbeitet über ein Kantenbeleuchtungssystem mit seitlichen High-Power LED’s, dessen Licht durch den internen Flächenlichtleiter gleichmäßig verteilt wird. ‣ weiterlesen

www.planistar.de

Anzeige

Leuchte Triangulum für Messungen und Prüfungen an Kabeln, Leitungen, Rohren und anderen runden Objekten. Eine Kombination aus 3 Flächenleuchten mit Durchbrüchen und einem rundem Diffusor bilden eine ideale Einheit zum Erfassen von runden Oberflächen. Zwecks der sehr unterschiedlichen Anwendungsmöglichkeiten wird diese immer spezifisch auf die Messaufgabe der Kunden angepasst. ‣ weiterlesen

www.planistar.de

Anzeige

An einfache autonome Roboter, wie Staubsauger oder Rasenmäher hat man sich inzwischen gewöhnt. Chirurgische Eingriffe durch einen autonomen Roboter erscheinen dagegen noch eher als Science-Fiction. Eine Forschungsgruppe vom Sheikh Zayed Institute for Pediatric Surgical Innovation am Children’s National Health System in Washington DC und Johns Hopkins Universität in Baltimore, haben nun eine Hürde auf dem Weg zum autonomen OP-Roboter genommen. Ihr ‚Smart Tissue Autonomous Robot‘ (Star) ist der erste Roboter, der weiches Gewebe autonom nähen kann – und das auch noch besser als ein Chirurg. ‣ weiterlesen

Anzeige

www.raytrix.de

Anzeige

Die AMB – Internationale Ausstellung für Metallbearbeitung – findet vom 13. bis 17. September auf dem Stuttgarter Messegelände statt. Neben den klassischen Fertigungsthemen deckt die Messe auch Querschnittsthemen, wie z. ‣ weiterlesen

www.messestuttgart.de

Die X-Mode-4.0-Dekodierungsalgorithmen bieten ausgereifte Funktionen zum Auffinden, Analysieren und Rekonstruieren von Symbolen ganz ohne Konfigurationsaufwand. Die Algorithmen zum Dekodieren beliebiger Symbole (lineare 1D/2D-Codes oder Direktmarkierungen) wurden unabhängig von deren Zustand mit dem Ziel entwickelt, die Leseleistung bei schlecht lesbaren Codes und schwierigen Trägermaterialien deutlich zu verbessern. ‣ weiterlesen

Anzeige

www.microscan.com

Anzeige
Anzeige
Anzeige