Anzeige
Anzeige
Anzeige

Echtzeit im Takt

Systemfaktoren für eine effizientere Bildverarbeitung

Hohe Effizienz in der industriellen Bildverarbeitung stellt vielschichtige Anforderungen. Gerade im Industriebereich ist hierfür mehr als ’nur‘ ein hochauflösender Bildsensor erforderlich. Zahlreiche Aspekte auf Systemebene bestimmen, wie effizient eine Bildverarbeitungslösung in ihrer jeweiligen Umgebung arbeitet. Diese reichen von den mechanischen Befestigungen bis hin zur Fähigkeit des Systems, konsistente Ergebnisse bei hoher Geschwindigkeit zu liefern.
Eine wichtige Anforderung an die Bildverarbeitung ist es, die Zeitspanne zu verringern, die zur Erkennung der notwendigen Informationen erforderlich ist. Je schneller ein beschädigtes, unfertiges oder falsch montiertes Produkt aus dem Fertigungsfluss entfernt oder an eine Station zur Weiterbearbeitung bzw. Ausbesserung geleitet wird, desto effizienter ist der Gesamtprozess. Um sicherzustellen, dass alle Produkte, die sich außerhalb der geforderten Toleranzen befinden, korrekt ausgewiesen werden, muss auf Konsistenz geachtet werden. Bei hohen Geschwindigkeiten besteht das Risiko, dass ein fehlerhaftes Produkt fälschlicherweise als IO (in Ordnung) ausgewiesen wird, da sein Bild nicht korrekt erfasst wurde. Andererseits können auch IO-Produkte als fehlerhaft deklariert werden, da ein Fehler oder eine Verzögerungen bei der Bildaufnahme einen Lesefehler in der Erkennungssoftware verursacht. Im schlimmsten Fall muss muss die Geschwindigkeit der gesamten Fertigungslinie verlangsamt werden, um sie an das Inspektionssystem anzupassen. Eine bessere Alternative ist die Überprüfung der Systemarchitektur, um Änderungen vornehmen zu können, mit denen sich die Genauigkeit und Wiederholbarkeit des Systems erhöhen. Die Architektur muss in der Lage sein, Vorkommnisse wie Fehlauswertungen und Überlastungen der Datenverbindung handzuhaben. Fehlauswertungen eines Bildsensors können z.B. durch elektrische Störungen (Rauschen) entstehen. Werden die Objekte in den Bildern nicht richtig erfasst, nimmt die Bildverarbeitungssoftware an, dass das am nächsten liegende Produkt in der Linie fehlerhaft ist. Das Bild sorgt somit für eine Netzwerküberlastung, die die Übertragung anderer wichtiger Daten verzögert. Ein Fehler-Auslösebereich handhabt das Problem von Fehlentscheidungen. Diese Funktion wird dann aktiviert, wenn das Auslösesignal (Trigger) länger als die vorgegebene Zeit in Anspruch nimmt. Alle kürzeren Triggersignale können als Rauschen vernachlässigt werden.

Echtzeit mit IEEE1588

Bildverarbeitung in Echtzeit wird durch Punkt-zu-Punkt-Verbindungen zwischen Kameras und Bildverarbeitungs-Subsystemen erzielt. Dies schränkt allerdings die Verbindungstopologie ein und erschwert die Weiterleitung der Bilddaten an verschiedene Verarbeitungs-Engines. Dies ist dann von Bedeutung, wenn Vergleiche oder parallele Verarbeitungen mit hohem Durchsatz erforderlich sind. Eine netzwerkbasierte Topologie bietet wesentlich mehr Freiheit, sorgt aber für einen Datenstau, wenn mehrere Kameras versuchen, Bilder gleichzeitig zu senden. Ethernet bietet die Möglichkeit, praktisch jede Topologie – von Stern- bis hochkompakten Mesh-Netzwerken – mit seiner Hub- und Spoke-Konfiguration zu erstellen. Es erlaubt Distanzen von bis zu 100m zwischen Netzwerkknoten und Hubs – und das über kostengünstige verdrillte Doppelkabel (Twisted Pair) mit einer hoher Widerstandsfähigkeit gegen Rauschen. Ist eine höhere elektrische Störfestigkeit oder eine längere Distanz vom Hub zum Netzwerkknoten erforderlich, können Glasfaserverbindungen eingesetzt werden. Als Standard wird Ethernet von fast jeder Rechnerhardware unterstützt und ist ideal, wenn Interoperabilität gefragt ist. Die Einführung von Gigabit Ethernet mit Datenübertragungsraten bis zu 1Gb/s wurde seinerzeit vom GigE-Vision-Standardisierungsgremium übernommen. Neben Gigabit Ethernet ist auch das IEEE1588 Precision Time Protocol ein wichtiges Protokoll innerhalb der GigE-Vision-Gruppe. Damit erhöht sich die Genauigkeit in der Fertigung, da sichergestellt wird, dass jedes System im Netzwerk zu einem gemeinsamen hochpräzisen Taktsignal synchronisiert ist, das resistent gegen Netzwerkverzögerungen ist. Das Protokoll stellt sicher, dass die Bildaufnahme genau mit der Datenverarbeitung abgestimmt ist. IEEE1588 fügt einen genauen Zeitstempel zu jedem Bild hinzu, damit das System Bilder und Ergebnisse mit einem bestimmten Objekt in der Fertigungslinie verknüpfen kann. Damit steht ein präziser Mechanismus zum Auslösen der Bilderfassung durch Software über mehrere Kameras bereit, ohne separate Punkt-zu-Punkt-Hardware-Verbindungen von einem Controller zu den einzelnen Sensoren aufbauen zu müssen.

GeniCam-Standard

GigE Vision fördert die Interoperabilität in der Bildverarbeitung, da der GeniCam-Standard (Generic Interface for Cameras) für die Softwareentwicklung genutzt wird. Durch die Übernahme offener Softwarestandards können Kamera- und Subsystem-Hersteller den Integratoren und Endanwendern garantieren, dass ein einfacher Migrationspfad für mehr Funktionen, höhere Auflösung und Leistungsfähigkeit zur Verfügung steht. GenICam unterstützt fünf grundlegende Funktionen, mit denen sich die Konfiguration von Bildverarbeitungssystemen beschleunigt. Die Kamera wird über Standard-APIs konfiguriert, um verschiedene Kamerafunktionen wie Bildgröße, Erfassungsgeschwindigkeit und Pixelformat zu unterstützen. Weitere APIs unterstützen das Aussenden zusätzlicher Daten zusammen mit dem Bild, wie z.B. Aufnahmeparameter, Zeitstempel und Bildbereiche, die besonders von Interesse sind. Die APIs bieten auch die Möglichkeit, Ereignisse einzurichten und zu behandeln, z.B. Aufnahme-Trigger. Die schnelle Datenübertragung über GigE und die zeitliche Genauigkeit von IEEE1588 unterstützt die zeitliche Konsistenz in der Bildverarbeitung. Die räumliche Genauigkeit ist genauso wichtig, um einen hohen Durchsatz und geringe Taktzeiten zu unterstützen. Ein hoher Grad an Bild-Wiederholgenauigkeit ist ebenfalls entscheidend, da dies die Wahrscheinlichkeit der Fehlinterpretation und den Rechenaufwand für das Bildverarbeitungssystem verringert. Die räumliche Reproduzierbarkeit erübrigt Übertragungs- und Rotationskorrekturen bei aufgenommenen Bildern, die vielleicht anderswo benötigt werden.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Das Camera Link HS (CLHS) Sub-Comittee hat nach sieben Jahren die Version 1.1 veröffentlicht. Im ersten Schritt wurde das Interface mit den neuen Bitraten 12,5G, 13,7G und 16G erweitert.‣ weiterlesen

www.pco.de

Anzeige

Die European Machine Vision Association hat Werner Feith als neuen EMVA Standards Manager ernannt.‣ weiterlesen

www.emva.org

Anzeige

ZF übernimmt 90% der Anteile von Simi Reality Motion Systems. Das Unternehmen mit derzeit 35 Mitarbeitern ist spezialisiert auf bildbasierte 3D-Systeme zum Erfassen und Analysieren menschlicher Bewegungen.‣ weiterlesen

press.zf.com

Anzeige

Bullard gibt die Übernahme von Darix bekannt, einem Spinoff der Eidgenössischen Technischen Hochschule in Lausanne, das sich darauf konzentriert, das Situationsbewusstsein von Fachleuten in kritischen Umgebungen zu verbessern.‣ weiterlesen

www.prnewswire.com

Gpixel hat eine Niederlassung in Tokyo, Japan eröffnet.‣ weiterlesen

www.gpixelinc.com

Anzeige

Visionlink ist ab sofort neuer Vertriebspartner von Vision Components für den italienischen Markt.‣ weiterlesen

www.vision-components.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige