Anzeige
Anzeige
Anzeige

3D-Kameras

Eine 3D-Kamera liefert als Ausgangsdaten Bildpunkte mit 3D-Koordinaten. Wesentlicher Unterschied zur 3D-Bildverarbeitung mit 2D-Kameras ist, dass keine aufwendige Kalibrierung des Gesamtsystems durchgeführt werden muss. Alle kalibrierungsrelevanten Komponenten sind bereits im Gerät angeordnet und werkseitig kalibriert.
Wichtig für 3D-Kameras ist eine große räumliche, zeitliche und Helligkeitsauflösung des Bildsensors. Daher werden vorwiegend hochdynamische CMOS-Bildsensoren (HDR) verwendet. Zum Einsatz kommen schnelle 2D-Bildsensoren (teilweise mit spezialisierter Zusatzausrüstung) sowie 3D-Bildsensoren. Einige 3D-Kameras benötigen für ihre Funktion besondere Beleuchtungstechnologien, um die Tiefeninformation zu generieren. Jüngere Entwicklungen von direkt 3D-fähiger Bildsensoren machten die Geräteklasse 3D-Kamera möglich:

  • • Laufzeitmessung des Lichtes (PMD)
  • • Lichtfeldtheorie (Helligkeit und Richtung der Lichtstrahlen beschreiben ein Bild)

In Folge wurden weitere, auch in der herkömmlichen 3D-Bildverarbeitung mit 2D-Bildsensoren eingesetzte Technologien miniaturisiert, integriert und in 3D-Kameras angewendet:

  • • Photometrisches Stereo (Kamera mit zwei fest montierten 2D-Kameraköpfen in einem Gehäuse)
  • • Triangulation (Lichtschnitt, Streifenprojektion)
  • • Interferometrie (Nutzung der Welleneigenschaften von weißem Licht, Weißlichtinterferometrie)
  • • Shape from Shading (Tiefeninformation aus Schattenbildung)

Die Berechnung der Tiefendaten aus den Bildrohdaten ist rechenaufwendig. Daher findet eine Bildvorverarbeitung häufig schon auf dem Bildsensor der 3D-Kamera statt. So kann z.B. der Linienschwerpunkt von Laserlinien subpixelgenau bereits auf dem Bildsensorchip berechnet werden. Die endgültige Berechnung der 3D-Bildpunktkoordinaten erfolgt typischerweise mit spezialisierter 3D-Kamerahardware. Die erzeugten Bilddaten liegen unreduziert als Punktewolke vor. Daher werden zur Übertragung an den Bildverarbeitungs-PC schnelle Kamera-Interfaces wie CoaXPress, Camera Link HS oder 10GigE-Vision eingesetzt. Die Auswertung der generierten 3D-Daten erfolgt auf einem Rechner mit 3D-fähiger Bildverarbeitungssoftware. Derzeitige Entwicklungen (Integration, Miniaturisierung) lassen erwarten, dass es in Zukunft auch intelligente 3D-Kameras geben wird, die bereits vollständige 3D-Prüfungen direkt in der Kamera durchführen und nur noch Ergebnisse liefern.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Auf der Vision in Stuttgart wird vom 8.-10. November eines der Trendthemen Spectral Imaging sein. So präsentieren sich z.B. Allied Vision, Stemmer Imaging und Ximea auf der Weltleitmesse für Bildverarbeitung als Grenzgänger zwischen SWIR und NIR und zeigen dort verschiedene Demos, die … ‣ weiterlesen

www.sps-magazin.de

Anzeige

20mm flache Flächenleuchte mit 820x820mm aktiver Leuchtfläche und einer Blitzleistung von 360W für Auf- und Durchlichtanwendungen. Die Leuchte arbeitet über ein Kantenbeleuchtungssystem mit seitlichen High-Power LED’s, dessen Licht durch den internen Flächenlichtleiter gleichmäßig verteilt wird. ‣ weiterlesen

www.planistar.de

Anzeige

Leuchte Triangulum für Messungen und Prüfungen an Kabeln, Leitungen, Rohren und anderen runden Objekten. Eine Kombination aus 3 Flächenleuchten mit Durchbrüchen und einem rundem Diffusor bilden eine ideale Einheit zum Erfassen von runden Oberflächen. Zwecks der sehr unterschiedlichen Anwendungsmöglichkeiten wird diese immer spezifisch auf die Messaufgabe der Kunden angepasst. ‣ weiterlesen

www.planistar.de

Anzeige

An einfache autonome Roboter, wie Staubsauger oder Rasenmäher hat man sich inzwischen gewöhnt. Chirurgische Eingriffe durch einen autonomen Roboter erscheinen dagegen noch eher als Science-Fiction. Eine Forschungsgruppe vom Sheikh Zayed Institute for Pediatric Surgical Innovation am Children’s National Health System in Washington DC und Johns Hopkins Universität in Baltimore, haben nun eine Hürde auf dem Weg zum autonomen OP-Roboter genommen. Ihr ‚Smart Tissue Autonomous Robot‘ (Star) ist der erste Roboter, der weiches Gewebe autonom nähen kann – und das auch noch besser als ein Chirurg. ‣ weiterlesen

Anzeige

www.raytrix.de

Anzeige

Die AMB – Internationale Ausstellung für Metallbearbeitung – findet vom 13. bis 17. September auf dem Stuttgarter Messegelände statt. Neben den klassischen Fertigungsthemen deckt die Messe auch Querschnittsthemen, wie z. ‣ weiterlesen

www.messestuttgart.de

Anzeige

Die X-Mode-4.0-Dekodierungsalgorithmen bieten ausgereifte Funktionen zum Auffinden, Analysieren und Rekonstruieren von Symbolen ganz ohne Konfigurationsaufwand. Die Algorithmen zum Dekodieren beliebiger Symbole (lineare 1D/2D-Codes oder Direktmarkierungen) wurden unabhängig von deren Zustand mit dem Ziel entwickelt, die Leseleistung bei schlecht lesbaren Codes und schwierigen Trägermaterialien deutlich zu verbessern. ‣ weiterlesen

Anzeige

www.microscan.com

Anzeige

Die MVmicro DIG Lasermodule sind mit einem Microcontroller bestückt und haben Gehäuseabmessungen von 90x19mm. Der Microcontroller kann über eine RS232-Schnittstelle mit dem Modul kommunizieren und die Laserparameter konfigurieren. So ist es u. ‣ weiterlesen

www.lasercomponents.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige