Anzeige

Schärfentiefe und Abbildungstiefe

Schärfentiefe (Tiefenschärfe) und Abbildungstiefe sind zusammengehörende Größen der optischen Abbildung: Die Schärfentiefe entsteht auf der Gegenstandsseite, die Abbildungstiefe auf der Bildseite.

Bei der Fotografie wird als Schärfentiefe die Erscheinung bezeichnet, dass sich die schärfe 'nicht merklich ändert'. (Bild: robdomel / Fotolia.com)

Bei der Fotografie wird als Schärfentiefe die Erscheinung bezeichnet, dass sich die schärfe ’nicht merklich ändert‘. (Bild: robdomel / Fotolia.com)

Wird ein Gegenstand vor einem Objektiv entlang der optischen Achse verschoben, ändert sich die Schärfe des entstehenden Bildes. Bei der Fotografie wird als Schärfentiefe dabei die Erscheinung bezeichnet, dass sich die Bildschärfe´nicht merklich ändert. In der Bildverarbeitung wird damit beschrieben, dass die Lage des Hell-Dunkel-Übergangs einer Objektkante auch bei Änderungen der Bildschärfe konstant und zuverlässig erkannt wird. Der Entfernungsbereich vor dem Objektiv, in dem sich der Gegenstand für die ´nicht merklich unscharfe Abbildung/das Bild mit erkannter Objektkante befinden darf, ist der Schärfentiefebereich. Er wird durch die vordere und hintere Schärfentiefengrenze begrenzt. Werden diese Grenzen überschritten, so wird das Bild für die Erkennung zu unscharf. Praktisch bedeutsam ist die Schärfentiefe für die zuverlässige Erkennung von Bildinhalten, auch wenn sich die Gegenstände in unterschiedlicher Entfernung zum Objektiv befinden bzw. unterschiedlich scharf abgebildet werden. Ursache für das Auftreten der Schärfentiefe ist die begrenzte örtliche Auflösung des Bildsensors (Pixelgröße). Wären Pixel unendlich klein, könnte es keine Schärfentiefe geben. Drei Einflussfaktoren beeinflussen die Größe des Schärfentiefebereiches: (a) Die zulässige Unschärfe im Bild, (b) die Größe der Öffnungsblende und (c) der Abbildungsmaßstab. Er vergrößert sich bei größeren Pixeln (verringert geometrische Auflösung), geschlossener Blende (Grenzen der förderlichen Blende beachten) und kleinerem Abbildungsmaßstab. Berechnet wird der Schärfentiefebereich S wie folgt:

  • • Bei entozentrischen Objektiven:

S=u’*2k*(ß’eff.-1)/ß’eff.2 mit ß’eff.=k*(1-ß‘)

  • • Bei telezentrischen Objektiven:

S=u’*(ß‘-1)/(A’*ß’2)

u‘ zulässige Unschärfe im Bild

k Blendenzahl

ß‘ rechnerischer Abbildungsmaßstab (<0)

ß‘ eff. effektiver Abbildungsmaßstab (<0)

A‘ bildseitige numerische Apertur

Die Größenbereiche der Schärfentiefe sind sehr verschieden: Mikroskopische Aufnahmen haben bei großem Abbildungsmaßstab nur wenige µm Schärfentiefebereich. Aufnahmen großer Objekte (kleiner Abbildungsmaßstab) können Schärfentiefebereiche von vielen Metern bis km beinhalten. Bildseitige Begleiterscheinung der Schärfentiefe ist die Abbildungstiefe. Sie kennzeichnet den Bereich, in dem sich der Bildsensor entlang der optischen Achse um die ideal scharfe Abbildungsebene befinden darf, und dennoch ein hinreichend scharfes Bild entsteht. Abbildungstiefe und Schärfentiefe sind über den Abbildungsmaßstab miteinander verknüpft.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Several months of work by protocol engineers is typically required to design an interface for a vision system. A number of vision camera manufactures, such as Ozray, Crevis and Sick, are addressing this challenge by purchasing transport layer interfaces in the form of intellectual property (IP) which is provided ready to incorporate into FPGAs along with other camera features.‣ weiterlesen

www.euresys.com

Anzeige

Mit dem RRR-Prinzip (Retroreflexions-Reflekometrie) wird die Spiegelung einer Lichtquelle an der Oberfläche in Retroreflexion ausgewertet. Eine genaue Ausrichtung der Komponenten des Prüfsystems zur untersuchten Oberfläche ist dabei nicht nötig. Die echtzeitfähige Bildaufnahme und -auswertung des Prüfsystems erlaubt die Prüfung ebener und gekrümmter Oberflächen im Durchlauf. ‣ weiterlesen

www.iosb.fraunhofer.de

The Predator3D GlassMaster Pro helps automotive manufacturers better control urethane bead dispensing on windshields and glass surfaces. The system monitors the Z-axis in real time. Embedded with the software GlassMaster Pro it provides real-time 3D information on bead height, width, volume, location, and detects skips or neck-downs with no external computer required.  ‣ weiterlesen

www.coherix.com

Effilux and CCS introduce a new hyperspectral lighting HSI range, created from a single proprietary LED that stays highly consistent across the 400 and 900nm spectrum. The point source design provides exceptional spatial and spectral uniformity without wavelength-dependent angular absorption effects. ‣ weiterlesen

www.effilux.fr

Anzeige

Mit der aktuellen Release CVB 2019 werden für die Softwarebibliothek Common Vision Blox neben einer Reihe neuer Werkzeuge auch neue APIs zur Entwicklung von Bildverarbeitungslösungen vorgestellt. Die neuen Tools bieten Funktionen für Hyperspectral Imaging und die Verarbeitung von Bildern aus Polarisationskameras sowie für die M2M-Kommunikation mit OPC UA für Industrie 4.0. Darüber hinaus ist es ab sofort auch möglich, Lösungen für maschinelles Lernen auf Embedded-Plattformen zu entwickeln. Außerdem konnten die Geschwindigkeiten für Objekterkennung und für die Aufzeichnung von Videosequenzen deutlich gesteigert werden. ‣ weiterlesen

www.stemmer-imaging.de

Die Version 3.2 der grafischen Entwicklungsumgebung VisualApplets beinhaltet einen skalierbaren Operator für die JPEG-Komprimierung von Grau- und Farbbildern sowie die Automation der Software über eine Tcl-Konsole. Die JPEG-Anwendung ermöglicht eine Encodierungsleistung von bis zu 7,2GB/s auf der microEnable 5 Marathon Framegrabberserie. Mittels Kombination mit weiteren Bildverarbeitungsschritten können hochwertige Farbrekonstruktionen aus Bayer-CFA-Kameras latenzfrei vorgeschaltet werden. ‣ weiterlesen

www.silicon-software.de

Anzeige

JAI hat für seine Fusion-Serie an multispektralen Bildgebungslösungen eine neue Generation von Prismenkameras eingeführt. Die Kameras FS-3200D-10GE und FS-1600D-10GE sind mit zweikanaligen dichroitischen Prismen ausgestattet, die das einfallende Licht auf zwei präzise ausgerichtete CMOS-Flächensensoren verteilen.‣ weiterlesen

www.jai.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige