Anzeige
Anzeige

HDR für live Bilder

Preiswerter HDR-CMOS-Sensor für den Außeneinsatz

Industriekameras im Außeneinsatz stehen vor besonderen Herausforderungen: Wechselnde Lichtverhältnisse durch Tag und Nacht und falls sie in der Verkehrsüberwachung eingesetzt werden, kann Gegenlicht ein gängiges Problem sein. Eine hohe Dynamik des Sensors ist der Weg zum Ziel und wird fälschlicherweise oft mit teuer in Verbindung gebracht. Das dem so nicht ist, beweist der CMOS-Sensor AR0331 von Aptina/ON Semiconductor mit HDR-Modus. Was er kann zeigt der folgende Anwenderbericht.

Bild 1: 16Bit lineares Bild des AR0331 HDR-CMOS (erzeugt aus einer Belichtung mit 4ms und einer zweiten mit 250µs). Dargestellt werden jeweils 8Bit, von l.o. nach r.u. jeweils um ein Bit nach unten geshiftet, d.h. die Belichtungswerte werden bei jeder Verschiebung verdoppelt.

Bild 1: 16Bit lineares Bild des AR0331 HDR-CMOS (erzeugt aus einer Belichtung mit 4ms und einer zweiten mit 250µs). Dargestellt werden jeweils 8Bit, von l.o. nach r.u. jeweils um ein Bit nach unten geshiftet, d.h. die Belichtungswerte werden bei jeder Verschiebung verdoppelt.

Die Abkürzung HDR (High Dynamic Range) beschreibt eine Video- oder Einzelbild-Übertragungskette, die möglichst hohe Unterschiede zwischen hell und dunkel in einem Bild wiedergeben kann. Aus diesem Grund ist HDR auch bei neuen Flachbildfernsehern ein aktuelles Schlagwort, das heißt da schwarz irgendwann nicht mehr schwärzer gemacht werden kann, muss weiß also heller gemacht werden. Bildlich gesprochen, soll der Zuschauer die Augen zusammen kneifen müssen, wenn die Taschenlampe des Protagonisten durch den Fernseher auf ihn ins Wohnzimmer gerichtet wird. Das ist heute mitnichten so. Einen Überblick über übertragbare Dynamikwerte gibt Tabelle 1. Wenn man von dem intuitiv verständlichen Kontrastverhältnis von hell zu dunkel ausgeht, also z.B. von 8.000:1, so ergibt sich die logarithmische Darstellung aus 20*log(8.000)=78dB. Da nun jedes Bit ~6dB (Faktor 2) Dynamik bringt, beträgt 78dB/6=13Bit Dynamik, gleichbedeutend mit der Anzahl von Blendenstufen (F-Stops), welche auch jeweils zu einer Signalverdoppelung beitragen. Man erkennt, dass das menschliche Auge immer noch der Maßstab ist und gerade so von einer professionellen Spiegelreflexkamera und schon länger vom chemischen Negativfilm erreicht wird. Die Bilddarstellung auf einem Flachbildschirm schafft diese Kontraste derzeit meistens nicht.

Bild 2: Der AR0331 CMOS besitzt eine Funktionalität, um ein 16Bit lineares Signal zu erzeugen, bei dem die zwei Belichtungszeiten in bestimmte Verhältnisse stehen. (Bild: Matrix Vision GmbH)

Bild 2: Der AR0331 CMOS besitzt eine Funktionalität, um ein 16Bit lineares Signal zu erzeugen, bei dem die zwei Belichtungszeiten in bestimmte Verhältnisse stehen. (Bild: Matrix Vision GmbH)

Dynamik bei Kameras

Der EMVA1288 Standard gibt die Möglichkeit, die Dynamik zu messen und vergleichend darzustellen. So erreicht der Sony IMX-Sensor der Pregius-Serie über 70dB, was ~12Bit entspricht. Ferner erreichen hochwertige CCD-Sensoren von Sony um die 60dB (10Bit) und preiswerte Rolling Shutter Sensoren kommen über 60dB. Mehr ist derzeit mit Bildverarbeitungskameras normalerweise nicht möglich. Getrieben von der Innovation bei den Sensoren für Handykameras, die trotz kleinen Pixeln und Rolling Shutter überaus gute Bilder erzeugen, gibt es beim Sensor AR0331 von Aptina/ON Semiconductor folgende interessante Möglichkeit: Während der Sensor mit seinem 12Bit Analog-Digital-Umwandler (ADC) bereits eine sehr gute Dynamik von ~70dB erreicht, kann der Rolling Shutter Sensor darüber hinaus noch zwei verschachtelte Reset Belichtungszeiger bedienen. Diese Funktionalität kann dazu verwendet werden, um ein 16Bit lineares Signal zu erzeugen, bei dem die zwei Belichtungszeiten in bestimmten Verhältnissen stehen. Wenn also die kürzere Belichtungszeit 1/16 der langen ist, so können die oberen 4Bit zu den unteren 12Bit der langen Integrationszeit zu einem 16Bit Wert zusammengefügt werden. Ein 16Bit lineares Bild, welches aus einer Belichtung mit 4ms und einer zweiten mit 250µs erzeugt wurde, sieht nun exemplarisch wie folgt aus: Von links oben nach rechts wird jeweils um ein Bit nach unten geshiftet, d.h. die Belichtungswerte werden bei jeder Verschiebung jeweils verdoppelt. Man erkennt, dass die Lampe in den oberen Bits am wenigsten übersteuert ist und man den restlichen Bildinhalt erst in den unteren Bits erkennen kann.

Wo liegen also die Herausforderungen?

Bild 3: Als Ergebnis entsteht durch Adaptive Local Tone Mapping ein Bild, welches die Lampe und den dunkleren Bildinhalt in einem Bild kombiniert. (Bild: Matrix Vision GmbH)

Bild 3: Als Ergebnis entsteht durch Adaptive Local Tone Mapping ein Bild,
welches die Lampe und den dunkleren Bildinhalt
in einem Bild kombiniert. (Bild: Matrix Vision GmbH)

Die Wichtigste ist sicherlich, dieses Bild mit seinem hohen Dynamikumfang auf einem Display, welches die hohe Dynamik gemäß der Anfangstabelle (noch) nicht darstellen kann, natürlich aussehen zu lassen. Dieses Verfahren wird Adaptive Local Tone Mapping (ALTM) genannt. Dies gelingt beispielsweise durch eine spezielle adaptive Kompandierungskennlinie auf dem Sensor. Damit entsteht das letzte Bild aus der Serie von Bild 1, welches die Lampe und den dunkleren Bildinhalt in einem Bild kombiniert. Zusätzliche Funktionen wie Bewegungskompensation oder die Vermeidung farbiger Übersteuerungseffekte sorgen dafür, dass auch bewegte Bilder eine höhere Dynamik, möglichst ohne störende Artefakte, abbilden können. Wohlgemerkt, alles automatisch und bei voller Bildfrequenz von 30fps bei Full-HD-Auflösung und in perfekter Farbqualität. Der AR0331 ist bereits in der USB3 Vision Kamera mvBlueFox3-1031C integriert. Zudem ist weiteres Fine-Tuning möglich, indem der Zugriff über den Treiber direkt auf die Sensor-Register erfolgt und Optionen somit zu-/abgeschaltet werden können. Ein Use Case im Handbuch der Kamera gibt hier einen detaillierteren Einblick.

Tabelle: Dynamikbereich von gängigen Geräten (Quelle https://en.wikipedia.org/wiki/Dynamic_range#cite_note-DXOMark-60)

Tabelle: Dynamikbereich von gängigen Geräten (Quelle
https://en.wikipedia.org/wiki/Dynamic_range#cite_note-DXOMark-60)

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Das Khronos Konsortium hat zwei Gruppen zur Standardisierung von neuronalen Netzwerken gegründet. Die eine Gruppe beschäftigt sich mit der Entwicklung eines unabhängigen API Standard File Formats für den Datenaustausch, während die andere sich der Topologie von Convolutional neuronalen Netzwerken widmet, um diese als OpenVX Grafiken darzustellen. ‣ weiterlesen

www.khronos.org

Anzeige

Ziel des mit fast 4Mio.E geförderten EU-Projekts Tulipp (Towards Ubiquitous Low-power Image Processing Platforms) ist es leistungsstarke und energieeffiziente Embedded-Systeme für komplexe Bildverarbeitungsanwendungen zu entwickeln. Das Projekt konzentriert sich auf die Entwicklung einer Referenzplattform für Bildverarbeitungssysteme. Dabei werden Richtlinien zur geeigneten Auswahl von Recheneinheiten und Kommunikationsinfrastrukturen für die Instanziierung der Plattform definiert, mit dem Ziel den Energieverbrauch, die Entwicklungskosten und die Produkteinführungszeit zu reduzieren.

www.thalesgroup.com

Anzeige

Die 71MP-CMOS-Kamera Machcam ist in zwei Versionen verfügbar: monochrom (71M) und in Farbe (71C). Das Format der Kamera ist 83x83x63,5mm. Die Kamera verfügt über einen Cmosis-Image-Sensor und eine USB-Schnittstelle. ‣ weiterlesen

www.sps-magazin.de

Anzeige

Auf einen Blick sieht die 3D-Kamera auf Basis der PMD-Technologie unterschiedlichste Gegenstände und Objekte in ihren räumlichen Dimensionen. Herzstück des Gerätes ist ein neuer Bild-Chip mit 23.000 Empfangselementen. Die Ausgabe erfolgt über Grauwert- und Distanzbild, die Auswertung ist mit marktüblichen Bibliotheken mühelos möglich. ‣ weiterlesen

www.ifm.com

Anzeige

Active Silicon bietet die FireBird Framegrabber Technologie nun auch im CompactPCI Format an. Die neue Karte arbeitet im erweiterten Temperaturbereich und ist für den Einsatz in anspruchsvollen Embedded Anwendungen geeignet. Die 4-spurige Gen2 Schnittstelle ist schnell genug, die volle Datenrate des CL-Interfaces zu nutzen. Die FireBird CL 3U cPCI Serial unterstützt die gleichzeitige Datenerfassung von zwei unabhängigen Base CL Kameras bzw. die Datenerfassung von einer Base, Medium, Full oder Deca Kamera.

www.activesilicon.co.uk

Anzeige

Das Besondere an der kostengünstigen Kamera-Plattform FDC ist deren Flexibilität, nicht nur auf mechanischer Ebene. Die Kamera ist als Platinen-Version und im Würfelgehäuse (29x29x29mm) verfügbar, auch mit IP-Schutzart Ausstattung und verschiedenen Mounts, sowie auf Wunsch auch in anderen geometrischen Abmessungen und weiteren Funktionalitäten. Das umfangreiche Sensorportfolio (Sony, Pregius, ON Semi und e2V) erlaubt die Anpassung an die Kundenbedürfnisse. Möglich sind auch Sensorentfensterung und -kühlung.

www.kappa.de

Anzeige

Mit der Einführung von Strained Layer Superlattice (SLS) Typ II Detektoren ist es gelungen, die Leistung von Wärmekameras auf das Niveau der integrierten Schaltkreise zum Auslesen des Bildsignals (ROICs) und der Kameraelektronik zu bringen. Durch die Integration von SLS in Wärmekameras können neue Langwellen-IR-Lösungen mit deutlichen Verbesserungen bei Geschwindigkeit, Temperaturbereich, Uniformität und Stabilität angeboten werden, die preislich zudem unterhalb analoger Detektormaterialien liegen. ‣ weiterlesen

Anzeige

www.flir.com

Anzeige

Eine neuartige Beleuchtungstechnologie versetzt Vision-Sensoren erstmals in die Lage, vertiefte oder erhabene Strukturen zuverlässig zu erfassen und auszuwerten. Abhilfe schafft die neue Multishot-Funktion, der Vision-Sensoren der Reihe Visor. ‣ weiterlesen

www.sensopart.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige