Unbekannte Abhängigkeiten

Auflösung und Geschwindigkeit bei 3D-Lasertriangulationen

Die Faktoren Auflösung und Aufnahmegeschwindigkeit sind für die Planung von 3D-Bildverarbeitungslösungen von großer Bedeutung. Um den passenden 3D-Sensor für eine Applikation zu wählen, reicht ein bloßer Vergleich der Angaben zur Auflösung und Profilfrequenz jedoch nicht aus. Beim Einsatz des Lasertriangulationsverfahrens verfügen 3D-Sensoren im High-End-Bereich über eine interne Auswertung, deren Leistung sich ebenfalls auf die Genauigkeit und Schnelligkeit des Daten-outputs auswirkt.
Bei Triangulationsmessungen erfolgt die Aufnahme der 3D-Daten, indem ein Laser eine Lichtlinie auf das zu vermessene Objekt projiziert. Während das Prüfobjekt den Linienlaser durchwandert, nimmt ein winkelig positionierter 3D-Sensor die an der Objektoberfläche entlang verlaufende Lichtlinie auf. Aus den daraus resultierenden Lichtschnittaufnahmen wird ein 3D-Modell errechnet. Erfordert die Anwendung hohe Aufnahmegeschwindigkeiten und Bildauflösungen, wird die Übertragung der Sensorbilddaten an den Bildverarbeitungsrechner allerdings durch übliche Schnittstellen wie den GigE-Vision-Standard limitiert. Zwar existieren Alternativen (z.B. CoaXPress), aber diese erfordern meist weitere Komponenten wie Framegrabber, etc. und lassen die Anschaffungskosten steigen. Die Hersteller von Hochgeschwindigkeits-3D-Kameras umgehen diese Problematik, indem sie die Lagebestimmung der Laserlinie bereits intern auswerten und anstatt der Bilddaten nur die benötigten 3D-Daten an das weiterführende System ausgeben. Das Datenvolumen wird dadurch so stark reduziert, dass sich die Übertragung auch mit herkömmlichen Schnittstellenstandards umsetzen lässt. Für die interne Auswertung der Sensorpixel kennt die 3D-Bildverarbeitung verschiedene Algorithmen, die über unterschiedliche Leistungsmerkmale verfügen, die je nach Anforderung zu genaueren Messdaten verhelfen. So ist es bei transparenten Prüfobjekten z.B. von Vorteil, das Max-Verfahren (Maximum Intensity) einzusetzen, während die Schwerpunkt-Auswertung (COG: Center of Gravity) besonders bei reflektierenden Oberflächen wie Gussmetall seine Stärken ausspielt. Einen weiteren Unterschied erfährt die kamerainterne Auswertung durch die Subpixelfunktionalität. Diese ermöglicht eine weitere Aufteilung der einzelnen Sensorpixel, sodass sich der Laserlinienverlauf – je nach Kamera – noch mal um den Faktor 64 genauer bestimmen lässt. Die Wahl des richtigen 3D-Sensors hängt somit von vielen Faktoren ab. Ein Beispiel soll deshalb aufzeigen, was in Hinblick auf Auflösung und Geschwindigkeit zu beachten ist: Zunächst gilt es die erforderliche Auflösung herauszufinden. Hierzu benötigt man zuerst die Angaben zur Breite und Höhe des Messbereichs und der Größe des Prüfkriteriums. Generell kann man als groben Richtwert ca. zehn Pixel veranschlagen, um einen Defekt an einem Prüfobjekt zu erkennen. Wenn also ein lateraler Messbereich von 20mm auf Defekte mit einem Durchmesser von 0,1mm geprüft werden soll, so müsste der 3D-Sensor mindestens eine laterale Auflösung mit 2.000 Pixeln zur Fehlererkennung bereitstellen [= (20mm/ (0,1mm/10Pixel)]. Zur Bestimmung der vertikalen Sensorfeldgröße müssen die Höhe des Messbereichs und die zu erkennende Defektgröße ebenfalls bekannt sein. Geht man zur Defekterkennung in der Höhe von einer Größe von 0,2mm aus und einem gesamten Scanbereich von 10mm, erhält man eine Pixelauflösung von 500 Pixeln [= (10mm/(0,2mm/10Pixel)].

Profilfrequenz abhängig vom Auswertungsalgorithmus

Die Höhenauflösung hat einen großen Einfluss auf die Profilgeschwindigkeit, da man anhand dieses Wertes ein ROI (Region of Interest) im Sensorfeld setzen kann, welches das Auslesen des Sensors auf das definierte Feld beschränkt. Auf diese Weise reduziert sich die Zeit des Auslesens und die Bilddaten lassen sich schneller berechnen bzw. ausgeben. Um zu erfahren, was für Profilraten sich bei welcher AOI-Größe ausgeben lassen, stellen die Kamerahersteller entsprechende Tabellen bereit. Wie jedoch eingangs erwähnt, ist ein praxisrelevanter Vergleich dieser Werte nur unter der Berücksichtigung der verschiedenen Laserlinienberechnungen möglich. So unterstützen die 3D-Sensoren von Hersteller zu Hersteller unterschiedliche Subpixelauswertungen und auch deren Algorithmen wirken sich sehr unterschiedlich auf die Präzision und Geschwindigkeit aus. Für das oben aufgeführte Beispiel wird ein Sensor benötigt, der mindestens über eine Auflösung mit 2.000×500 Pixeln verfügt. Vergleicht man nun 3D-Sensoren, die für eine solche Messaufgabe in Frage kommen, wird man zunächst große Unterschiede feststellen. So gibt es Hochgeschwindigkeits-3D-Kameras die eine solche Messaufgabe mit einer Profilgeschwindigkeit von über 5kHz durchführen. Bei einer AOI-Höhe von 500 Zeilen stellt diese Messgeschwindigkeit theoretisch auch kein Problem dar. In der Praxis kommt für die interne Laserlinienauswertung jedoch meist der FIR-Peak- oder COG-Algorithmus zum Einsatz, da diese über eine sehr genaue Auswertung verfügen. In diesem Fall würde die Profilrate allerdings um ein Vielfaches gesenkt werden, sodass die tatsächliche Geschwindigkeit am Ende bei ca. 0,8kHz liegt. Eine Besonderheit stellen diesbezüglich die Hochgeschwindigkeits-3D-Sensoren der CX-Serie dar, denn deren Auswertungsalgorithmen arbeiten stets mit der maximalen Sensorauslesegeschwindigkeit. Die Algorithmuswahl nimmt bei diesen 3D-Sensoren deshalb keinen Einfluss auf die Profilfrequenz. Ein 3D-Sensor, der sich für das oben genannte Beispiel zum Vergleich anbietet, wäre das Modell C2-2040HS-GigE. Auf den ersten Blick liefert der Sensor bei 500 Zeilen zwar eine ähnliche Profilrate von 0,7kHz, jedoch verfügen die Sensoren zusätzlich über eine Subpixelgenauigkeit von einem Pixel. Aus diesem Grund benötigt er für die gleiche Auflösung tatsächlich nur acht Zeilen, und führt die Messung mit einer Profilgeschwindigkeit von 25kHz aus.

Das könnte Sie auch interessieren

Umfirmierung der MWF Roland Friedrich GmbH

Bereits 2015 wurde die MWF Roland Friedrich GmbH, Hersteller von kundenspezifischen Mess- und Prüflösungen aus Großostheim, von der Mahr Gruppe übernommen. Nun folgte auch die Umfirmierung der Tochtergesellschaft des Fertigungsmesstechnik-Herstellers in Mahr MWF GmbH. Ziel dabei sei, das Unternehmen noch sichtbarer in die Qualitätsmarke Mahr einzufügen und dadurch noch internationaler zu vermarkten.

www.mahr.com

Partnerschaft Matrix Vision und Metrilus

Matrix Vision ist eine Partnerschaft mit dem Unternehmen Metrilus GmbH aus Erlangen eingegangen. Metrilus ist eines der ersten Unternehmen weltweit, das sich auf Komplettlösungen für Echtzeit-3D-Bildverarbeitungsanwendungen spezialisiert hat. In Verbindung mit der 6D-Perception Camera mbBlueSirius von Matrix Vision bietet Metrilus zukünftig Beratung, Entwicklung von Prototypen und Software-Lösungen an.

www.matrix-vision.com

Vervierfachtes geometrisches Auflösungsvermögen

MicroScan ermöglicht das Bildformat einer radiometrische Thermografiekamera mit gekühltem FPAPhotonen-Detektor zu vervierfachen. Für Modelle der High-End-Kameraserie ImageIR bedeutet dies, dass sich Aufnahmen mit bis zu 2.560×2.048 IR-Pixeln erstellen lassen. Hinter der Funktion verbirgt sich ein schnell rotierendes MicroScan-Rad, das in der Kamera integriert ist. Es sorgt dafür, dass pro Radumdrehung vier verschiedene Einzelaufnahmen entstehen, die zueinander jeweils um ein halbes Pixel lateral versetzt sind. Die Einzelaufnahmen werden in Echtzeit zu einem Thermogramm mit vierfachem Bildformat zusammengeführt.

www.InfraTec.de

Wellenfrontsensor für die Optikprüfung

Der Wellenfrontsensor SHSLab dient zur die Prüfung von Optiken, optischen Systemen und Lasersystemen. Das Messprinzip ermöglicht die Erfassung von Wellenfronten durch eine einzelne Messung, so dass er schnell und unempfindlich gegenüber externen Einflüssen ist. Ein Mikrolinsen-Array transformiert die lokalen Propagationsrichtungen der Lichtstrahlen in ein Feld von Fokuspunkten auf einer Kamera. Die Abweichung der Fokuspunkte von ihren Referenzpositionen wird berechnet und schließlich die Wellenfront durch numerische Integration.

www.optocraft.com

Anzeige
Kamera-Kompositgehäuse für Roboteranwendungen

Der Kamerakopf des Bildverarbeitungssystem Robot Inspector for Integrity Analysis (RIITTA) ist eine kompakte Einheit, die alle Einzelkomponenten wie Kamera, Objektiv, blitzbare LED-Beleuchtung und Ansteuerelektronik in einem Spezialgehäude vereint. Das leichte Kompositgehäuse ist IP65-geschützt und bietet Schutz vor Staub und Spritzwasser. Die Eigenschaften der verwendeten Materialien in Verbindung mit dem Design des Gehäuses vermeiden Trägheitsmomente, die vor allem bei Roboteranwendungen eine entscheidende Rolle spielen.

www.asentics.de

Anzeige
Neuer Geschäftsführer bei Omron Electronics

 

Zuvor war Kluger als Managing Director Europe und Vice President Business Development für Adept Technology, später für Omron Adept Technologies tätig. Außerdem ist er als ehrenamtliches Vorstandsmitglied im Fachverband Robotik des VDMA aktiv.

www.industrial.omron.eu

Anzeige