Anzeige

Erweiterte Schärfentiefe

Metrisch kalibrierte 3D-Lichtfeld-Kameras

Erweiterte Schärfentiefe

Seit 2010 werden 3D-Lichtfeld-Kameras für industrielle Anwendungen wie optische Inspektion, 3D-Mikroskopie, Strömungsmessung und Phenotyping verkauft. Der Artikel gibt eine Einführung in die Technologie, beschreibt die Möglichkeit des metrischen Messens mit einer Lichtfeld-Kamera und erläutert das metrische Kalibrierverfahren.
Eine 3D-Lichtfeld-Kamera ermöglicht die Aufnahme eines 2D-Bildes in Kombination mit metrischen Tiefeninformationen über einen erweiterten Schärfentiefebereich mit nur einer Kamera, einem Standard Objektiv und einer Aufnahme ohne spezielle Beleuchtung. Die Vorteile der Kameras kommen vor allem bei der Aufnahme von kleinen Bauteilen zum Tragen, bei denen ein Stereo-Kamerasystem oder ein Laserlinienschnitt-Verfahren zu große Verdeckungsbereiche hat oder baulich nicht genug Platz vorhanden ist, z.B. tief in einem Plastikgehäuse sitzende Stecker oder Bonddrähte. Da nur ein einziges Bild nötig ist, müssen die Bauteile auch nicht stillstehen, sondern können geblitzt werden, was eine hohe Taktrate erlaubt. Prinzipiell hängt der Bildbereich, der mit einer Lichtfeld-Kamera aufgenommen werden kann, nur von dem verwendeten Objektiv ab. Die effektive laterale Auflösung ist maximal ¼ der Sensorauflösung und verändert sich über den gesamten Tiefenbereich. Die Anzahl der unterscheidbaren Tiefenebenen ist konstant ca. 100. Wird also ein Tiefenbereich von 10m abgedeckt, so ist die Tiefenauflösung ca.10cm, wohingegen bei einem Aufbau mit 10mm Tiefenbereich eine Tiefenauflösung von ca. 0,1mm erreicht wird. Die Kamera kann also durch die Auswahl eines passenden Objektivs auf den notwendigen Tiefenbereich eingestellt werden. Es stehen auch Kameras für den Anschluss an Mikroskope zur Verfügung, die ein normales Mikroskop in ein 3D-Mikroskop verwandeln.

Funktionsweise

Das Hauptobjektiv erzeugt ein virtuelles 3D-Zwischenbild (Bild 1). Dieses soll verdeutlichen, wo das Hauptobjektiv die verschiedenen Punkte des Objektes in den Fokus bringt. Jede Linse des Mikrolinsen-Arrays agiert nun wie eine kleine Kamera mit geringer Auflösung, die das virtuelle 3D-Zwischenbild aus einer leicht anderen Perspektive sieht. Der Aufbau ist vergleichbar zu einem Array von Kameras, nur dass bei der 3D-Lichtfeld-Kamera das Objektiv die Szene verkleinert (bzw. bei Mikroskopen vergrößert), bevor es von einem Array von ´Mikrokameras´ aufgenommen wird. Das so erzeugte Rohbild kann nicht direkt verwendet werden. Vielmehr werden aus dem Rohbild die Tiefeninformation und ein ´normales´ 2D-Bild anhand von spezieller Algorithmik berechnet. Da die Berechnungen sehr rechenintensiv sind, wurden sie auf die Grafikkarte ausgelagert. Bei der R12-Kamera mit einem 12MP-Sensor ist dies mit ca.15fps auf einem handelsüblichen PC mit einer Nvidia GTX780 Karte möglich. Ein erweiterter Schärfentiefebereich wird durch ein speziell entwickeltes und patentiertes Mikrolinsenarray möglich, das aus Mikrolinsen verschiedener Brennweiten besteht. Hierdurch wird eine Szene gleichzeitig mit verschiedenen Fokuseinstellungen aufgenommen, was die Schärfentiefe der Kamera stark vergrößert, ohne dass eine Verkleinerung der Blende nötig wäre. Ein vergrößerter Schärfentiefebereich bedeutet auch, dass Tiefeninformationen über einen größeren Tiefenbereich aufgenommen werden können als z.B. mit einem Stereo-Kamerasystem. Besonders beim Einsatz mit Mikroskopen kommt dies zum Tragen.

Metrische Kalibrierung

Mit der neuen Software ist nun auch die metrische Kalibrierung einer 3D-LichtfeldKamera möglich. Die Kalibrierung gleicht viele Aspekte des gesamten optischen Systems aus. Berechnet werden die Fokallänge, der Fokusabstand, die Verkippung der optischen Achse des Hauptobjektivs zum Sensor sowie die Radialverzerrung und die Krümmung der Schärfeebene des Hauptobjektivs. Zusätzlich werden Unterschiede zwischen den verschiedenen Mikrolinsentypen ausgeglichen. Die Kalibrierung unterscheidet sich wesentlich von der eines Stereo-Kamerasystems. Bei der 3D-Lichtfeld-Kamera werden benachbarte Mikrolinsen als Multi-Kamerasysteme betrachtet und über einen Korrelationsansatz gleiche Bildelemente in den entsprechenden Mikrobildern gesucht. Hieraus ergibt sich eine Disparität und somit eine Tiefe, allerdings nur für das virtuelle 3D-Zwischenbild. Der Einfluss des Hauptobjektivs muss nun auch mit in Betracht gezogen werden. Das gesamte optische System wird kalibriert, indem man eine Kalibrierplatte in verschiedenen Positionen mit einer unkalibrierten Lichtfeld-Kamera aufnimmt. Zur Validierung des Verfahrens wurde eine R29M-Kamera mit einem 29MP-Monochrom-Sensor verwendet. Mit der kalibrierten Kamera wurde ein Objekt aufgenommen, das aus fünf Treppenstufen besteht, die jeweils einen Abstand von 5mm zueinander haben. Für jede Stufe wurde aus den gemessenen Tiefendaten eine optimale Ebene berechnet. Die Standardabweichung der Tiefendaten innerhalb einer Stufe zur entsprechenden Ebene gibt Aufschluss über die Unsicherheit der Tiefenmessung. Der Abstand der gemessenen Ebenen zueinander beschreibt die absolute Genauigkeit der Tiefenmessung. Das laterale Bildfeld bei der Messung betrug 55x32mm. Der gesamte Tiefenbereich von der Oberfläche der untersten Stufe bis zur Oberfläche der obersten Stufe war 20mm. Die mittlere Standardabweichung der Tiefenmessungen von den jeweiligen Stufenebenen ergab sich als 0,19mm und die mittlere Abweichung der berechneten Stufenebenen zum Objekt lag bei 0,12mm. Es wurde also eine Genauigkeit von <1% erreicht.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Anfang März fand in Paris die weltweite Leitmesse für Leichtbau JEC World statt. Im Zuge der Messe wurde der Automation W+R mit seinen Projektpartnern, u. a. BMW, mit dem Innovation Award der Messe in der Kategorie Sport und Freizeit ausgezeichnet. Das kollaborative Robotersystem hatte im Rahmen des Projektes die Composite Bauteile von BMW (komplex geformte, kohlefaserverstärkte Motorrad-Schwingen) hochpräzise vermessen.

www.automationwr.de

Anzeige

„Dass die Firmengebäude durch unser stetiges Unternehmenswachstum an ihre Grenzen stoßen würden, war für uns bereits seit 2013 abzusehen“, so Balluff Geschäftsführerin Katrin Stegmaier-Hermle. Mitte März veröffentlichte das Unternehmen daher seine Pläne für den Neu- und Ausbau der Firmenzentrale in Neuhausen. Das zweistufige Konzept umfasst den Ausbau des bisherigen Hauptsitzes in der Schurwaldstraße um ein Büro- und Entwicklungsgebäude und eine Unternehmenszentrale mit integriertem Kunden- und Trainingscenter. Der Baubeginn für das Büro- und Entwicklungsgebäude ist für 2019 geplant.

www.balluff.de

Anzeige

Basierend auf dem Smart Kamera Portfolio von VisionComponents mit Auflösungen bis 4,2MP und einer auf Halcon basierenden Vision Software mit ID-, Presence/Absence- und Patternmatching Werkzeugen erfüllt die Smart-Kamera Anwendungen in Logistik, Automatisierung und Robotik. Hervorstechendes Merkmal der Kamera ist die einfache Applikationskonfiguration über die Notavis WebApp (oder über Wlan) auf allen Devices (PC, Tablet, Smartphone).

www.notaVis.com

Anzeige

Die schnelle Inbetriebnahme ist einer der größten Vorteile, die der kleine, kamerabasierte IPS 200i bietet. Sie erfolgt per webbasiertem Konfigurationstool.

www.leuze.com

Anzeige

Die Sonderschau ´Der Mensch in der Smart Factory´ des VDMA Robotik+Automation in Halle B4 der automatica (19.-22. Juni, München) greift aktuelle Fragestellungen auf: Wie kann der Mensch im Mittelpunkt bleiben? Welche Rolle spielt der analoge Mensch in der digitalen Fabrik? „Fingerfertigkeit und Adaptivität des Menschen werden unerreicht bleiben, doch Assistenzsysteme bringen manuelle Montagevorgänge erstmals auf die geforderte Null-Fehler-Qualität.“, so Patrick Schwarzkopf (Bild), Geschäftsführer, VDMA Robotik+Automation.

www.automatica-muenchen.de

Anzeige

Bereits 150 Anmeldungen gibt es für das International Vision Standrad Meeting (IVSM), das vom 14.-18. Mai in Frankfurt/Main stattfindet und dieses Mal von Silicon Software und dem VDMA IBV ausgerichtet wird. Einen Überblick über die Themenblöcke z. B. zu OPC Vision oder GenICam finden Sie unter dem folgenden Link.

ivsm2018.silicon.software

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige