Anzeige
Anzeige
Anzeige

Wie interpretiert man optische Leistungsdaten?

Als Hersteller von Optiken kennt man die Frage: „Ich habe eine Kamera mit einer Pixelgröße von X µm. Kann Ihr Objektiv diese Pixel auflösen?“. Die in der industriellen Bildverarbeitung tätigen Menschen sind ausgezeichnete Elektroniker, brillante Mathematiker oder hervorragende Programmierer. Nur eines der wichtigsten Elemente der Bildgebung – die Optik – wird manchmal so stiefmütterlich behandelt, dass ihre Eigenschaft mit dieser geschlossenen Frage beschrieben werden soll: ‚Ja‘ oder ‚Nein‘ soll die Antwort lauten. Die Komplexität eines optischen Systems legt nahe: Den Eigenschaften eines Objektivs lässt sich so nicht beikommen. Der folgende Artikel soll eine Einführung in dieses Thema sein und den Leser in die Lage versetzen, zukünftig Leistungsdaten eines Objektivs, wie Kontrast, Auflösung und Homogenität anhand der verbreiteten MTF-Kurven zu interpretieren.

Punktbilder

Ein Objekt, das wir abbilden wollen, besteht aus unendlich vielen und unendlich kleinen Punkten. In der geometrischen Optik wird jeder dieser Punkte auch wieder als der gleiche Punkt in der Bildebene abgebildet. Leider beschreibt die geometrische Optik nicht die ganze Wahrheit. Durch die Wellennatur des Lichts wird der Punkt als Interferenzmuster abgebildet. Dieses ist das Punktbild und seine Intensitätsverteilung charakteristisch für das optische System, mit dem das Bild erzeugt wurde. In jedem Fall ist die Fläche immer größer als der Objektpunkt selber. Warum also benutzt man keine Punktbilder, um die Leistungen von Objektiven zu beschreiben? Die Beschreibung von Punktbildern als Funktion ist kompliziert und bietet sich daher nicht an. Die Leistung des Objektivs lässt sich viel eleganter mit der folgenden Methode beschreiben.

Modulationsübetragung

Normalerweise analysieren wir Bilder mit unterschiedlichen, ausgedehnten Strukturen, die wiederum aus unendlich vielen Punkten bestehen. Die Strukturen bestehen aus Regionen mit unterschiedlichen Intensitäten (Grau- oder Farbwerten). Es gibt Regionen mit kleinen Strukturen bzw. rapiden Intensitätswechseln und solche mit eher großen Strukturen. Das bedeutet, in einem Bild kann man alle möglichen Intensitätswechsel finden. Diese nennt man Ortsfrequenzen. Die verschiedenen Ortsfrequenzen lassen sich letztendlich auf sinusförmige Intensitätsverteilungen zurückführen. Die Übergänge zwischen Hell und Dunkel erfolgen bei dieser Funktion dann stetig. Das entstehende Bild lässt sich durch die mathematische Faltung der sinusförmigen Funktion des Objekts mit der Punktbildfunktion beschreiben und das Ergebnis im Bild wird eine Funktion sein, die die gleiche Ortsfrequenz wie das Objekt aufweist, deren Amplitude aber kleiner ist. Weiß wird zu Hellgrau und Schwarz wird zu Dunkelgrau. Je höher die Ortsfrequenz ist, desto mehr wirkt sich die Punktbildfunktion aus. Von hellen Zonen wird viel Intensität in die dunklen Zonen hineinstrahlen und der Kontrast nimmt mit zunehmender Frequenz ab (Bild 3). Die Feinheit des Streifenmusters definieren wir, in dem im Bild die Hell-Dunkel Perioden auf einer Strecke von einem Millimeter zählen. Damit erhalten wir die Ortsfrequenz mit der Einheit Linienpaare pro Millimeter [lp/mm]. Tragen wir nun den Kontrast als Funktion von der Ortsfrequenz auf, erhalten wir die Modulationsübertragungsfunktion oder MTF (Bild 4).
Im vorliegenden Fall sieht man, dass die MTF eines Objektivs stark von seiner Einstellung abhängt. Bei voll geöffneter Blende (k=2) fällt z.B. der Kontrast mit zunehmender Frequenz rapide ab, während die Kurve bei Blende 5.6 recht nahe an die beugungsbegrenzte Abbildung (die theoretisch höchstmögliche Auflösung) herankommt. Was hindert uns daran, die beugungsbegrenzte Abbildung zu erreichen? Die Antwort ist, dass in einem Objektiv nicht nur Beugung vorkommt, sondern viele andere Abbildungsfehler, die durch das Optikdesign korrigiert werden müssen. Hinzu kommt, dass die Fertigung eines Objektivs mit Toleranzen behaftet ist. Übrigens beeinflusst die Frage, welche Toleranzen man zulässt, in hohem Maße den Preis des Objektivs. Die bisher beschriebene Darstellung einer MTF ist jedoch nicht praktikabel für ein Datenblatt, da wir meist Informationen über das gesamte Bildfeld des Objektivs wünschen. Die bisherige MTF beschreibt nur einen diskreten Ort im Bildfeld. Wir könnten natürlich einem Objektiv ein Heft mit 40 Graphen beilegen aber stattdessen wird eine andere Darstellung bevorzugt. Um die Leistung eines Objektivs über das gesamte Bildfeld zu dokumentieren, wählen wir drei oder mehr Stützstellen auf der X-Achse, typischerweise 10, 20 und 40lp/mm und messen für diese Ortsfrequenzen den Kontrast bei verschiedenen Entfernungen von der Bildmitte (Bild 5). In den Datenblättern wird oft als die höchste Frequenz 40lp/mm angegeben, was manchmal zu der Frage führt, ob das Objektiv nur 40lp/mm auflöst. (Was immerhin eine ideale Pixelgröße von 6µm bedeuten würde.) Ein Blick auf eine MTF offenbart aber, dass es sich um eine stetige Funktion handelt, d.h. wir können die weitere Funktion aus den Stützstellen extrapolieren und z.B. in den Graphen des Datenblatts eine weitere Linie für z.B. 80lp/mm eintragen. Die gestrichelte grüne Linie in Bild 5 soll dies verdeutlichen.

Kantenschärfe und Bildkontrast

Um noch einmal auf die eingangs erwähnte Frage zurückzukommen: Meistens lässt sich die Frage mit ‚Ja‘ beantworten, weil die meisten Pixel selten kleiner als 3µm sind, womit eine Ortsfrequenz von 80lp/mm sicher abgetastet würde (vier Pixel pro Linienpaar). Was aber sagt uns das über die Güte des Luftbildes (der Abbildung durch das Objektiv ohne Berücksichtigung des Sensors)? Mit welchem Kontrast werden die 80lp/mm ins Luftbild abgebildet? Und warum werden überhaupt Objektive mit höherer Auflösung hergestellt?
Betrachtet man noch einmal Bild 4, fällt auf, dass sich der Kontrast dem Schwellwert 10% nähert, die genaue Auflösungsgrenze aber schwer zu messen ist. Eine sinnvolle Auflösungsgrenze ist daher bei höherem Kontrast zu wählen, normalerweise bei 30 oder 50%. Nun bilden manche Objektive auch bei diesem Kontrast noch bis zu 160lp/mm oder mehr ab. Wo liegt hier der Nutzen, haben wir doch kaum Sensoren mit solch hoher Auflösung? Generell sind kleine periodische Muster nur in einem kleinen Teil der Bilder zu finden. Ein viel wichtigeres Merkmal, sind Kanten, also Grenzlinien zwischen hellen und dunklen Flächen.

MTF und Kantenwiedergabe

Der Leser ahnt bereits, dass die Schärfe der Kante mit dem Punktbild zu tun hat, welches auch die Form der MTF bestimmt. Ein sehr kleines Punktbild sorgt für eine sehr scharfe Kante (Bild 6). Dies drückt sich in der MTF darin aus, dass der Kontrast mit zunehmender Frequenz nur langsam abfällt; also die einzelnen Linien der MTF (10, 20, 40lp/mm) im Datenblatt hohe Kontrastwerte haben und nahe beieinander liegen. Ist das Punktbild sehr groß, ist auch die abgebildete Kante wesentlich breiter. Die MTF verrät uns das, wenn der Kontrast schnell abfällt, bzw. die einzelnen Linien im Datenblatt weit auseinanderliegen (Bild 7). Beginnt die MTF bereits mit geringen Kontrast und fällt dann langsam ab, hat das Punktbild wahrscheinlich ein sogenanntes ‚Halo‘ (ein leuchtender Ring). Solche Objektive liefern guten Wiedergabekontrast flauer Kanten, ist die Kante aber sehr kontrastreich, führt das zu einem Kantensaum im Bild. Man nennt diesen Überstrahlung (Bild 8).

Fazit

Wir sehen aus den Beispielen, dass man die Leistung eines Objektivs nicht mit seiner Auflösung beschreiben kann. Eigentlich strebt man als Bildverarbeiter ja meist einen möglichst hohen Kontrast bei allen Strukturen an, der die Analyse des Bildes erleichtert. Deswegen müssen wir die MTF eines Objektivs auch in seiner Gesamtheit betrachten, um zu beurteilen, mit welcher Abbildungsleistung wir rechnen können. Ferner konnte nachgewiesen werden, dass Bildverarbeiter auch dann von Objektiven mit guter MTF profitieren, wenn die Kamera selber keine hohe Auflösung besitzt. Die Investition wird durch besseren Kontrast belohnt. Die hier abgebildeten MTFs stammen übrigens alle von real gemessenen Objektiven. Auffallend schöne und gerade Kurven in Datenblättern sollte man genauer hinterfragen.

www.zeiss.com

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Bei der Version 9.0 der 3D-Softwareplattform Vxelements von Creaform wurde die Benutzerfreundlichkeit erhöht. So wird das Viewer Tool zum Teilen von Daten verwendet. ‣ weiterlesen

www.creaform3d.com

Anzeige

Die mvBlueNaos Kameramodule von Matrix Vision nutzen für die Bildübertragung PCI Express mit Übertragungsraten von bis zu 1,6GB/s. Unterschiedlichste Prozessor-Architekturen auf Nvidia, ARM oder x86 Basis werden vom mitgelieferten mvImpact Acquire SDK unterstützt. ‣ weiterlesen

www.matrix-vision.de

Anzeige

Ab August bietet IDS für die uEye FA Kameras drei neue Sensoren an: Die 12MP (IMX226) und 20MP (IMX183) Sony Sensoren sowie den 5MP Polarisationssensor IMX250MZR. Die Gehäuse der Modelle, Objektivtuben und die verschraubbaren Steckverbinder (8-poliger M12-Ethernet-Stecker mit X-Kodierung und 8-poliger Binder-Stecker) haben Schutzart IP65/67. ‣ weiterlesen

www.ids-imaging.de

Anzeige

Das KI-Computersystem ECX-2600 PEG von Vecow (Vertrieb Plug-In Electronic) lässt sich mit Nvidia Grafikkarten kombinieren und misst schlanke 260x240x123mm. Es unterstützt Intel Xeon und Core i9 / i7 / i5 / i3-Prozessoren der 10. Generation (Comet Lake) mit bis zu zehn Kernen. Zudem können Nvidia-Grafikkarten mit bis zu 250W Leistungsaufnahme integriert werden. Zwei PCIe x8-Erweiterungsslots sowie ein PCIe x4-Erweiterungsslot runden das System ab. ‣ weiterlesen

www.plug-in.de

Anzeige

Die KI-Plattformen der Serie DLAP-4000 sind erweiterbare industrielle Box-Computer, die von Acceed kundenspezifisch mit Quadro-Grafikkarten von Nvidia ausgestattet werden. ‣ weiterlesen

www.acceed.de

Anzeige

Der bionische Filter von Qvitec und dem Ing. RTS ist in der Lage, trotz unterschiedlichster Lichtverhältnisse und Farben, verschiedene Konturen sowie Objekte sicher zu erkennen und vom Hintergrund zu unterscheiden. ‣ weiterlesen

qvitec.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige