3D im Härtetest

Expertenrunde: 3D-Bildverarbeitungsverfahren im Vergleich

3D-Bildverarbeitung ist mit unterschiedlichen Verfahren möglich. Aber welches System ist das richtige für meine Applikation? Um Licht in den (Verfahrens-)Dschungel zu bringen, fand auf dem ‚View Summit 2015‘, veranstaltet von der Pyramid Computer GmbH, eine Expertenrunde zu diesem Thema statt. Dabei standen drei Firmen mit unterschiedlichen 3D-Verfahren Rede und Antwort. Verglichen wurden Coded-Light und aktive (IR) Stereoskopie (Björn Taubert, Intel), Time-of-Flight (Dr. Robert Hranitzky, Bluetechnix) und Multistereo-RGB (Dr. Gert Ferrano, Matrix Vision).

Könnten Sie die Grundlagen von Structured Light beschreiben?

Björn Taubert: Intel hat bereits 2013 begonnen, die ersten 3D-Kameras an Software-Entwickler zu verteilen. Mittlerweile haben wir zwei Kameratypen im Portfolio. Die eine ist vom User abgewandt (Intel RealSense Camera R200) und in Geräten wie 2in1 und Tablets verbaut. Die andere ist dem User zugewandt (Intel RealSense Camera F200) und kommt in 2in1-Geräten oder in All-in-One PCs zum Einsatz. Die Front-Facing-Kameras funktionieren nach einem Coded-Light-Verfahren – vergleichbar mit dem Structured-Light-Ansatz – bei dem aufgenommene Verzerrungen in dem ausgesandten codierten IR-Licht zur Berechnung der Tiefe genutzt werden. Die Rear-Facing Kameras beruhen auf der IR-Stereoskopie. Sie verarbeiten die RGB- und IR-Daten von zwei Kameras und können so 3D-Daten berechnen. Dieser Prozess läuft übrigens im menschlichen Auge sehr ähnlich ab.

Wie funktioniert Time-of-Flight?

Dr. Robert Hranitzky: Time-of-Flight (ToF) ist eigentlich ein Überbegriff, denn es gibt verschiedene Messverfahren. Auf der einen Seite die Pulslaufzeitmessung, bei der Lichtpulse ausgesendet werden, die von den zu vermessenden Objekten reflektiert werden. Dabei misst man die Zeit, die der Puls braucht, um vom Ziel wieder zurück zur Kamera zu gelangen. Beim PMD-Verfahren verwendet man dagegen eine modulierte Lichtquelle, also Licht mit einer hohen Frequenz von bis zu 50MHz. Es gibt aber auch bereits erste Systeme, die sogar bis 80MHz messen. Dabei wird die Phasenlaufzeit aufgenommen und die Kamera berechnet daraus die Entfernung. Dies erfolgt durch die Aufnahme von Intensitätsbildern, aus denen mittels mathematischer Verfahren zurückgerechnet wird, wie weit das Objekt entfernt ist.

Das könnte Sie auch interessieren

Umfirmierung der MWF Roland Friedrich GmbH

Bereits 2015 wurde die MWF Roland Friedrich GmbH, Hersteller von kundenspezifischen Mess- und Prüflösungen aus Großostheim, von der Mahr Gruppe übernommen. Nun folgte auch die Umfirmierung der Tochtergesellschaft des Fertigungsmesstechnik-Herstellers in Mahr MWF GmbH. Ziel dabei sei, das Unternehmen noch sichtbarer in die Qualitätsmarke Mahr einzufügen und dadurch noch internationaler zu vermarkten.

www.mahr.com

Partnerschaft Matrix Vision und Metrilus

Matrix Vision ist eine Partnerschaft mit dem Unternehmen Metrilus GmbH aus Erlangen eingegangen. Metrilus ist eines der ersten Unternehmen weltweit, das sich auf Komplettlösungen für Echtzeit-3D-Bildverarbeitungsanwendungen spezialisiert hat. In Verbindung mit der 6D-Perception Camera mbBlueSirius von Matrix Vision bietet Metrilus zukünftig Beratung, Entwicklung von Prototypen und Software-Lösungen an.

www.matrix-vision.com

Vervierfachtes geometrisches Auflösungsvermögen

MicroScan ermöglicht das Bildformat einer radiometrische Thermografiekamera mit gekühltem FPAPhotonen-Detektor zu vervierfachen. Für Modelle der High-End-Kameraserie ImageIR bedeutet dies, dass sich Aufnahmen mit bis zu 2.560×2.048 IR-Pixeln erstellen lassen. Hinter der Funktion verbirgt sich ein schnell rotierendes MicroScan-Rad, das in der Kamera integriert ist. Es sorgt dafür, dass pro Radumdrehung vier verschiedene Einzelaufnahmen entstehen, die zueinander jeweils um ein halbes Pixel lateral versetzt sind. Die Einzelaufnahmen werden in Echtzeit zu einem Thermogramm mit vierfachem Bildformat zusammengeführt.

www.InfraTec.de

Wellenfrontsensor für die Optikprüfung

Der Wellenfrontsensor SHSLab dient zur die Prüfung von Optiken, optischen Systemen und Lasersystemen. Das Messprinzip ermöglicht die Erfassung von Wellenfronten durch eine einzelne Messung, so dass er schnell und unempfindlich gegenüber externen Einflüssen ist. Ein Mikrolinsen-Array transformiert die lokalen Propagationsrichtungen der Lichtstrahlen in ein Feld von Fokuspunkten auf einer Kamera. Die Abweichung der Fokuspunkte von ihren Referenzpositionen wird berechnet und schließlich die Wellenfront durch numerische Integration.

www.optocraft.com

Anzeige
Kamera-Kompositgehäuse für Roboteranwendungen

Der Kamerakopf des Bildverarbeitungssystem Robot Inspector for Integrity Analysis (RIITTA) ist eine kompakte Einheit, die alle Einzelkomponenten wie Kamera, Objektiv, blitzbare LED-Beleuchtung und Ansteuerelektronik in einem Spezialgehäude vereint. Das leichte Kompositgehäuse ist IP65-geschützt und bietet Schutz vor Staub und Spritzwasser. Die Eigenschaften der verwendeten Materialien in Verbindung mit dem Design des Gehäuses vermeiden Trägheitsmomente, die vor allem bei Roboteranwendungen eine entscheidende Rolle spielen.

www.asentics.de

Anzeige
Neuer Geschäftsführer bei Omron Electronics

 

Zuvor war Kluger als Managing Director Europe und Vice President Business Development für Adept Technology, später für Omron Adept Technologies tätig. Außerdem ist er als ehrenamtliches Vorstandsmitglied im Fachverband Robotik des VDMA aktiv.

www.industrial.omron.eu

Anzeige