Worauf kommt es wirklich an?

Worauf kommt es wirklich an?

Bildgebungsleistung von Kameras richtig interpretieren

Read Noise, Saturation Capacity, Dynamic Range usw. Die Vielzahl an Angaben zu den Daten der Bildgebungsleistung von Kameras sind ebenso zahlreich wie teilweise für den Anwender verwirrend. Worauf kommt es aber nun wirklich an? Welche Angaben sind wichtig für meine Anwendung und worauf muss ich bei der Wahl der richtigen Kamera achten. Hierzu führte inVISION ein Gespräch mit Paul Kozik, Produktmanager bei Point Grey.

Point Grey hat Anfang des Jahres den ‚Camera-Sensor Review 2013‘ herausgebracht. In der Broschüre werden über 60 Kameramodelle anhand ihrer EMVA1288 Spezifikationen miteinander verglichen. Das pdf kann kostenfrei im Internet heruntergeladen werden. www.ptgrey.com/sensorreview

Die Leistungsdaten von Kameras waren schon immer wichtig. Warum sind sie es heute mehr denn je?

Kozik: Die Auswahl an Kameras für die industrielle Bildverarbeitung und wissenschaftliche Anwendungen wird immer größer. Da es nur eine Handvoll Anbieter von CCD und CMOS Sensoren gibt, verwenden die meisten Kameras dieselben Bildsensoren. Mittlerweile stehen die unterschiedlichen Kamera-Anbieter in einem regelrechten Wettbewerb bzgl. Kameraspezifikationen wie Dynamic Range, Sensitivity oder Read Noise. Zudem gibt es eine Reihe neuer Anbieter von Global Shutter CMOS Sensoren, die für sich in Anspruch nehmen, deutlich besser zu sein als die Produkte der vorherigen Generation. Zudem ist die Anzahl ungekühlter, kostengünstiger Kameras, die mit geringem Rauschen und hoher Leistung, für einen hohen Dynamikbereich und Lichtempfindlichkeit optimiert wurden, und die in anspruchsvollen wissenschaftlichen Anwendungen verwendet werden, gewachsen. Kameraanbieter nutzen deshalb Leistungsdaten ihrer Kameras, um Leistungsverbesserungen dem Anwender zu verdeutlichen.

Wie sehen Sie die kürzlich veröffentlichten Global Shutter CMOS Sensoren? Inwieweit sind diese besser in Bezug auf die Bildgebungsleistung?

Kozik: Beim Temporal Dark Noise (Read Noise) sowie bei der Saturation Capacity (Full-Well-Depth), die sich auf die Empfindlichkeit bei geringer Beleuchtung und auf den Dynamikbereich auswirken, sind CMOS Sensoren mit Global Shutter den CCD Sensoren bisher etwas hinterhergehinkt. Der neue IMX174 Sensor von Sony, der z.B. in der Kamera Grasshopper3 GS3-U3-23S6 zum Einsatz kommt, wurde mit weniger als sieben Elektronen Temporal Dark Noise und 32.000 Elektronen Saturation Capacity gemessen. Das sind beeindruckende Zahlen im Vergleich zu jedem anderen Global Shutter CMOS, der heute auf dem Markt erhältlich ist.

Wie wirken sich das Ausleserauschen und die Sättigungskapazität auf Anwendungen in der Praxis aus?

Kozik: Die Sättigungskapazität, die der ‚Full-Well-Capacity‘ ähnlich ist, definiert, wie viele Photonen ein Pixel aufnehmen kann. Temporal Dark Noise – teilweise auch als Read Noise bezeichnet – ist ein Maß für das von der Sensorelektronik erzeugte Rauschen. Temporal Dark Noise und Sättigungskapazität wirken sich direkt auf den Dynamikbereich aus, mit dessen Hilfe die Anzahl unterscheidbarer Graustufen in einer Szene quantifiziert werden kann. Der Dynamikbereich ist das Verhältnis von Sättigungskapazität zu zeitlichem Ausleserauschen eines Sensors. Mit einem höheren Dynamikbereich sind Details einer Szene sowohl in Bereichen mit geringer Beleuchtung (z.B. Schatten) als auch in Bereichen mit stärkerer Beleuchtung sichtbar. Dies ist speziell für Anwendungen mit sich ändernden Lichtbedingungen wichtig – z.B. bei intelligenten Verkehrssysteme oder komplexe Feature-Identifikationen wie automatisierte Mikroskopie.

Wie wirkt sich die Pixelgröße auf den Dynamikbereich aus?

Kozik: Bei Sensoren ein und desselben Herstellers, die auf demselben Pixeldesign basieren, gehen größere Pixel oft mit einer Zunahme der Sättigungskapazität einher. Dies gilt für Sony’s EXview HAD CCD II Sensoren ICX687 und ICX674 mit Global Shutter, die z.B. in der USB 3.0 Kamerafamilie Grasshopper3 verwendet werden. Der Sensor ICX674 ist etwas größer und bietet einen höheren Dynamikbereich als der ICX687. Wenn wir jedoch Sensoren von anderen Herstellern oder Sensoren mit einer anderen Sensorarchitektur betrachten, sehen wir einen klaren Hinweis darauf, dass dies nicht immer der Fall ist. Sony’s Global Shutter CMOS-Sensor IMX174, der im USB 3.0 Grasshopper3 GS3-U3-23S6 verwendet wird, hat eine Pixelgröße von 5,86µm und eine Sättigungskapazität von mehr als 30.000 Elektronen. Im Vergleich zum CMOS Global Shutter CMV4000 von Cmosis, mit einer Pixelgröße von 5,5µm und weniger als 10.000 Elektronen, liefert der IMX174 Sensor einen höheren Dynamikbereich, obwohl die Pixel die gleiche Größe haben.

Ist der Dynamikbereich Sensor-spezifisch oder kann der Kameraanbieter dieses Leistungsmerkmal beeinflussen?

Kozik: Der Sensor hat bestimmte Leistungsgrenzen, aber der Kamerahersteller kann definitiv beeinflussen, ob die Leistung maximiert wird oder nicht, z.B. steuert die Pixel-Clock des Sensors die Framerate der Kamera und kann vom Kamerahersteller konfiguriert werden. Der Sensoranbieter wird zwar einen empfohlenen Wert angeben, aber die Nachfrage der Kunden sowie der Wettbewerbsdruck werden den Kamerahersteller oft veranlassen, den Sensor zu übertakten, um höhere Frameraten zu erzielen. Dies kann das Dunkelrauschen (Leserauschen) erhöhen und damit den Dynamikbereich der Kamera verringern. Darüber hinaus versuchen die Kamerahersteller, den Stromverbrauch zu minimieren und die Wärmeableitung zu optimieren. Beides kann den Dynamikbereich der Kamera verbessern. So bietet die Kamera Grasshopper2 GS2-FW-14S5 mit dem Sony ICX285 Sensor z.B. mehrere Bildgebungsmodi: einen Modus mit einer schnelleren Pixel-Clock, mit dem die Kamera 30fps und einen Dynamikbereich von 64dB erreicht sowie einen einen Modus mit einer langsameren Pixel-Clock, der die Framerate der Kamera auf 6fps limitiert, aber den Dynamikbereich auf 68dB erhöht.

Wie beurteilen Kamerahersteller, ob der maximale Dynamikbereich für ein bestimmtes Modell erreicht ist?

Kozik: Um Sättigungskapazität, Peak-Quanteneffizienz oder zeitliches Dunkelrauschen zu berechnen, verwenden Kameraanbieter die Daten der Photonentransferkurve (PTC) und der Signaltransferkurve (SRC). Hierbei handelt es sich um allgemein anerkannte Modelle für die Charakterisierung der Bildgebungsleistung. In den letzten Jahren hat der EMVA1288 Standard den Kameraanbietern geholfen, die Daten der Bildgebungsleistung zu formalisieren und klare Definitionen der unterschiedlichen Terminologie, Messmethoden und Berechnungen bereitzustellen.

Wie kann man die Kamera mit der höchsten Empfindlichkeit erkennen und deren Leistung bewerten?

Kozik: Zeitliches Dunkelrauschen und Quanteneffizienz sind wichtige Indikatoren für die Empfindlichkeit. Während die Minimierung des Dunkelrauschens das sauberste Bild erzeugt und es dem Nutzer ermöglicht, analoges Gain anzuwenden, um die Leistung bei geringer Beleuchtung zu verbessern, bezeichnet Quanteneffizienz die Fähigkeit des Sensors Photonen von Licht unterschiedlicher Wellenlänge in Elektronen umzuwandeln. Bei der Bewertung der Empfindlichkeit sollten die Nutzer die Sättigungskapazität nicht ignorieren. Sie beeinflusst den dynamischen Bereich und die ’scheinbare Empfindlichkeit‘. Zum besseren Verständnis dieser scheinbaren Empfindlichkeit bedenken Sie, dass ein Sensor mit geringerer Sättigungskapazität weniger Photonen und damit auch weniger Zeit bis zur Sättigung benötigt. Wenn wir die Tatsache ignorieren, dass ein Pixel mit geringerer Sättigungskapazität einen geringeren Dynamikbereich bietet, werden wir diese Kamera als diejenige mit einer höheren scheinbaren Empfindlichkeit wahrnehmen. Obwohl dies vermuten lässt, dass diese Kamera empfindlicher ist, könnte der Dynamikbereich für die Anwendung genau so wichtig sein und sollte deshalb nicht ignoriert werden. Und nicht zuletzt verbessert eine höhere Empfindlichkeit nicht nur die Bildgebungsleistung, sondern trägt auch zur Kostenreduktion bei, da zusätzliche Beleuchtung oder eine motorisierte Blende eventuell nicht benötigt werden.

Point Grey Research, Inc.

Das könnte Sie auch Interessieren

Bild: TeDo Verlag GmbH
Bild: TeDo Verlag GmbH
Webinar Spectral Imaging

Webinar Spectral Imaging

Am 7. Mai findet um 14 Uhr das inVISION TechTalk Webinar ‚Spectral Imaging‘ statt. Dabei stellen Vision & Control (Tailored Optics and Lighting for Hyper- and Multispectral Imaging), Lucid Vision (Advanced sensing with latest SWIR and UV cameras) und Baumer (Inspect the invisible with powerful SWIR & UV Cameras) verschiedene Trends zu SWIR, UV und Hyperspectral Imaging vor.