Anzeige
Anzeige

Unterschiede ToF, Lasertriangulation und Stereo Vision

3D in aller Munde

Verschiedene 3D-Verfahren und ihre Einsatzgebiete

Dank virtueller Realität mitten im Geschehen und in verschiedensten Welten unterwegs: 3D ist zurzeit in aller Munde. Doch nicht nur Pokémon können mithilfe der dritten Dimension gejagt und gefangen werden, auch in der Robotik, der Fabrikautomatisierung und im Medizinsektor eröffnen sich völlig neue Möglichkeiten zum Lösen komplexer Bildverarbeitungsaufgaben. 3D-Bildverarbeitung wird immer dann eingesetzt, wenn Volumen, Formen oder die Position und Orientierung von Objekten analysiert werden sollen.

 Fahrerlose Transportfahrzeuge sind ein mögliches Einsatzgebiet von Time-of-Flight-Kameras. (Bild: Basler AG)

Fahrerlose Transportfahrzeuge sind ein mögliches Einsatzgebiet von Time-of-Flight-Kameras. (Bild: Basler AG)

Stereo Vision & strukturiertes Licht

Stereo Vision arbeitet nach dem Prinzip der menschlichen Augen. Zwei 2D-Kameras nehmen zwei Bilder eines Objekts auf. Dabei wird die gleiche Szene aus zwei verschiedenen Positionen beobachtet und die Tiefeninformation mit Hilfe des Triangulationsprinzips zu einem dreidimensionalen Bild zusammengesetzt. Fügt man strukturiertes Licht hinzu, werden die Einschränkungen der Stereoskopie hinsichtlich homogener Flächen und schlechten Lichtverhältnissen deutlich reduziert. Mit Stereo Vision lassen sich im Nahbereich hohe Genauigkeiten erzielen. Jedoch werden dazu Referenzmarken oder zufällige Muster auf dem Objekt benötigt. Daher eignet sich diese Technik im Produktionsumfeld in der Regel nicht gut. In der Koordinatenmesstechnik oder der 3D-Vermessung von Arbeitsräumen hingegen, lassen sich viele Stereoansätze finden. Unter Hinzunahme von strukturiertem Licht wird Stereo Vision auch für Industrieanwendungen interessant, wenn eine hohe Prozessorlast sowie höhere Kosten tolerierbar sind.

Lasertriangulation

Bei der Lasertriangulation werden eine 2D-Kamera und eine Laserlichtquelle eingesetzt. Der Laser projiziert Linien auf die Szene, die von einer 2D-Kamera aufgenommen wird. Ändert sich die Entfernung des Messobjektes, so ändert sich die Position der Laserlinie im Kamerabild. Aus den Positionskoordinaten wird die Entfernung des Objektes von der Laserlichtquelle berechnet. Lasertriangulation ist das Mittel der Wahl, wenn eine hohe Genauigkeit gefordert ist oder unkooperative Oberflächen in Kombination mit schwierigen Lichtverhältnissen vorherrschen.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Wie im ersten Teil (inVision 4/16, S.70) berichtet, befinden sich die Schnittstellen der Industriekameras aktuell auf dem Weg in die nächsten Generationen. Auch der inzwischen über 40 Jahre alten RJ45-Schnittstelle geht es nun an den Kragen. Einige Hersteller haben bereits neue Schnittstellen auf den Markt gebracht bzw. arbeiten aktuell an diesen. Doch was sind die Vorteile und welche wird sich durchsetzen? ‣ weiterlesen

Anzeige

www.alysium.com

Anzeige

Gleich zwei Firmen aus dem 3D-Bereich hat Cognex in den letzten Monaten gekauft. Zum einen die deutsche Firma EnShape aus Jena, deren 3D-Sensor ein sehr schnelles Bin-Picking ermöglicht. Bereits Ende August erfolgte die Akquise der spanischen AQSense, Spezialist im Bereich 3D-Vision-Software. ‣ weiterlesen

cgnx.client.shareholder.com

Anzeige

Wie sehr das Thema Embedded Vision die Branche beschäftigt, hat gerade die VISION in Stuttgart eindrucksvoll gezeigt. Eine Vielzahl von Branchen befasst sich immer intensiver mit den Möglichkeiten dieser intelligenten Systeme. ‣ weiterlesen

Anzeige

www.emva.org

Anzeige

Die Fraunhofer-Allianz Vision hat den 16. Band ihrer Leitfaden-Reihe herausgegeben. Der ´Leitfaden zur Inspektion und Charakterisierung von Oberflächen mit Bildverarbeitung´ kann beim Büro der Fraunhofer-Allianz Vision oder im Buchhandel erworben werden. ‣ weiterlesen

shop.vision.fraunhofer.de

Anzeige

Das Lasermodul Flexpoint MV fiber garantiert ideale Strahlprofile für die 3D-Messtechnik, denn die Lasereinheit inkl. Ansteuerungselektronik ist von der strahlformenden Optik entkoppelt. Die Bauteile sind mit einer singlemode Faser verbunden, wodurch Nebenmoden im Strahl eliminiert und Streulicht in der Projektion vermieden wird. Dank der Faser kann das Licht über eine große Distanz übertragen werden. Das ist ein Vorteil bei Platzproblemen im System, denn Optikkopf und Lasereinheit können weit voneinander entfernt werden. Zudem wird die thermische Drift des Laserstrahls vernachlässigbar klein.

www.lasercomponents.de

Anzeige

Die 16 neuen 510er, 700er und 800er Verisens Modellen der XC-, XF- und ID-Serie verfügen über eine erhöhte Rechenleistung. So kann die Zeit der Bildverarbeitung in vielen Applikationen, bei der Lagenachführung sowie beim Code- und Textlesen halbiert werden. Ein verbesserter Algorithmus zum Codelesen erhöht die Lesesicherheit unter industriellen Bedingungen. Das konfigurierbare Web-Interface wurde zudem um den neuen Verisens Multiviewer weiterentwickelt. Damit können bis zu 16 Verisens Vision Sensoren auf einem Bildschirm gleichzeitig dargestellt und im laufenden Prozess angepasst werden.

www.baumer.com

Anzeige

Nicht jeder benötigt den vollen Funktionsumfang der Software im Zwillingskonzept aus der Smart Camera mvBlueGemini und dem mvImpact Configuration Studio. Für diesen Kundenkreis wurden jetzt zwei Lowcost-Varianten für spezifische Anwendungsfälle veröffentlicht. Die Variante mvBlueGemini-Ident ist für das Lesen von Texten und Codes gedacht, während die mvBlueGemini-Inspect für das Inspizieren von Objekten ist.

www.matrix-vision.de

Anzeige

Das Scheimpflug-Prinzip ermöglicht eine scharfe Abbildung bei schrägem Blick auf ein Messobjekt. Durch Verkippung der Bildebene um einen bestimmten Winkel wird die Wegdifferenz in Abhängigkeit der Feldposition kompensiert. Probleme vieler handelsüblicher Scheimpflug-Adapter sind die mechanische Stabilität sowie die Anpassbarkeit an das notwendige Bildfeld und an den erforderlichen Kameraanschluss. Es hat sich bewährt, für bestehende Objektive einen individuellen, starren Scheimpflug-Adapter zu berechnen und direkt am Objektiv zu integrieren. Nur so erreicht man eine bestmögliche Konfiguration aus Abbildungsmaßstab, Sensoranschluss und Blickwinkel in Kombination mit einem stabilen Aufbau und einer hohen Abbildungsleistung über das gesamte Feld.

www.silloptics.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige