Echtzeit im Takt

Systemfaktoren für eine effizientere Bildverarbeitung

Hohe Effizienz in der industriellen Bildverarbeitung stellt vielschichtige Anforderungen. Gerade im Industriebereich ist hierfür mehr als ’nur‘ ein hochauflösender Bildsensor erforderlich. Zahlreiche Aspekte auf Systemebene bestimmen, wie effizient eine Bildverarbeitungslösung in ihrer jeweiligen Umgebung arbeitet. Diese reichen von den mechanischen Befestigungen bis hin zur Fähigkeit des Systems, konsistente Ergebnisse bei hoher Geschwindigkeit zu liefern.
Eine wichtige Anforderung an die Bildverarbeitung ist es, die Zeitspanne zu verringern, die zur Erkennung der notwendigen Informationen erforderlich ist. Je schneller ein beschädigtes, unfertiges oder falsch montiertes Produkt aus dem Fertigungsfluss entfernt oder an eine Station zur Weiterbearbeitung bzw. Ausbesserung geleitet wird, desto effizienter ist der Gesamtprozess. Um sicherzustellen, dass alle Produkte, die sich außerhalb der geforderten Toleranzen befinden, korrekt ausgewiesen werden, muss auf Konsistenz geachtet werden. Bei hohen Geschwindigkeiten besteht das Risiko, dass ein fehlerhaftes Produkt fälschlicherweise als IO (in Ordnung) ausgewiesen wird, da sein Bild nicht korrekt erfasst wurde. Andererseits können auch IO-Produkte als fehlerhaft deklariert werden, da ein Fehler oder eine Verzögerungen bei der Bildaufnahme einen Lesefehler in der Erkennungssoftware verursacht. Im schlimmsten Fall muss muss die Geschwindigkeit der gesamten Fertigungslinie verlangsamt werden, um sie an das Inspektionssystem anzupassen. Eine bessere Alternative ist die Überprüfung der Systemarchitektur, um Änderungen vornehmen zu können, mit denen sich die Genauigkeit und Wiederholbarkeit des Systems erhöhen. Die Architektur muss in der Lage sein, Vorkommnisse wie Fehlauswertungen und Überlastungen der Datenverbindung handzuhaben. Fehlauswertungen eines Bildsensors können z.B. durch elektrische Störungen (Rauschen) entstehen. Werden die Objekte in den Bildern nicht richtig erfasst, nimmt die Bildverarbeitungssoftware an, dass das am nächsten liegende Produkt in der Linie fehlerhaft ist. Das Bild sorgt somit für eine Netzwerküberlastung, die die Übertragung anderer wichtiger Daten verzögert. Ein Fehler-Auslösebereich handhabt das Problem von Fehlentscheidungen. Diese Funktion wird dann aktiviert, wenn das Auslösesignal (Trigger) länger als die vorgegebene Zeit in Anspruch nimmt. Alle kürzeren Triggersignale können als Rauschen vernachlässigt werden.

Echtzeit mit IEEE1588

Bildverarbeitung in Echtzeit wird durch Punkt-zu-Punkt-Verbindungen zwischen Kameras und Bildverarbeitungs-Subsystemen erzielt. Dies schränkt allerdings die Verbindungstopologie ein und erschwert die Weiterleitung der Bilddaten an verschiedene Verarbeitungs-Engines. Dies ist dann von Bedeutung, wenn Vergleiche oder parallele Verarbeitungen mit hohem Durchsatz erforderlich sind. Eine netzwerkbasierte Topologie bietet wesentlich mehr Freiheit, sorgt aber für einen Datenstau, wenn mehrere Kameras versuchen, Bilder gleichzeitig zu senden. Ethernet bietet die Möglichkeit, praktisch jede Topologie – von Stern- bis hochkompakten Mesh-Netzwerken – mit seiner Hub- und Spoke-Konfiguration zu erstellen. Es erlaubt Distanzen von bis zu 100m zwischen Netzwerkknoten und Hubs – und das über kostengünstige verdrillte Doppelkabel (Twisted Pair) mit einer hoher Widerstandsfähigkeit gegen Rauschen. Ist eine höhere elektrische Störfestigkeit oder eine längere Distanz vom Hub zum Netzwerkknoten erforderlich, können Glasfaserverbindungen eingesetzt werden. Als Standard wird Ethernet von fast jeder Rechnerhardware unterstützt und ist ideal, wenn Interoperabilität gefragt ist. Die Einführung von Gigabit Ethernet mit Datenübertragungsraten bis zu 1Gb/s wurde seinerzeit vom GigE-Vision-Standardisierungsgremium übernommen. Neben Gigabit Ethernet ist auch das IEEE1588 Precision Time Protocol ein wichtiges Protokoll innerhalb der GigE-Vision-Gruppe. Damit erhöht sich die Genauigkeit in der Fertigung, da sichergestellt wird, dass jedes System im Netzwerk zu einem gemeinsamen hochpräzisen Taktsignal synchronisiert ist, das resistent gegen Netzwerkverzögerungen ist. Das Protokoll stellt sicher, dass die Bildaufnahme genau mit der Datenverarbeitung abgestimmt ist. IEEE1588 fügt einen genauen Zeitstempel zu jedem Bild hinzu, damit das System Bilder und Ergebnisse mit einem bestimmten Objekt in der Fertigungslinie verknüpfen kann. Damit steht ein präziser Mechanismus zum Auslösen der Bilderfassung durch Software über mehrere Kameras bereit, ohne separate Punkt-zu-Punkt-Hardware-Verbindungen von einem Controller zu den einzelnen Sensoren aufbauen zu müssen.

GeniCam-Standard

GigE Vision fördert die Interoperabilität in der Bildverarbeitung, da der GeniCam-Standard (Generic Interface for Cameras) für die Softwareentwicklung genutzt wird. Durch die Übernahme offener Softwarestandards können Kamera- und Subsystem-Hersteller den Integratoren und Endanwendern garantieren, dass ein einfacher Migrationspfad für mehr Funktionen, höhere Auflösung und Leistungsfähigkeit zur Verfügung steht. GenICam unterstützt fünf grundlegende Funktionen, mit denen sich die Konfiguration von Bildverarbeitungssystemen beschleunigt. Die Kamera wird über Standard-APIs konfiguriert, um verschiedene Kamerafunktionen wie Bildgröße, Erfassungsgeschwindigkeit und Pixelformat zu unterstützen. Weitere APIs unterstützen das Aussenden zusätzlicher Daten zusammen mit dem Bild, wie z.B. Aufnahmeparameter, Zeitstempel und Bildbereiche, die besonders von Interesse sind. Die APIs bieten auch die Möglichkeit, Ereignisse einzurichten und zu behandeln, z.B. Aufnahme-Trigger. Die schnelle Datenübertragung über GigE und die zeitliche Genauigkeit von IEEE1588 unterstützt die zeitliche Konsistenz in der Bildverarbeitung. Die räumliche Genauigkeit ist genauso wichtig, um einen hohen Durchsatz und geringe Taktzeiten zu unterstützen. Ein hoher Grad an Bild-Wiederholgenauigkeit ist ebenfalls entscheidend, da dies die Wahrscheinlichkeit der Fehlinterpretation und den Rechenaufwand für das Bildverarbeitungssystem verringert. Die räumliche Reproduzierbarkeit erübrigt Übertragungs- und Rotationskorrekturen bei aufgenommenen Bildern, die vielleicht anderswo benötigt werden.

Das könnte Sie auch interessieren

Vertriebskooperation zwischen Tattile und Framos

Die beiden Unternehmen Tattile und Framos haben eine gemeinsame Zusammenarbeit bekannt gegeben. Die Vertriebskooperation umfasst die gesamte Palette an Hardware- und Softwareprodukten (Vision Controller, Industriekameras etc.) des Unternehmens Tattile, die zukünftig über das Framos-Vertriebsnetz in Europa und Nordamerika erhältlich sein wird.

www.tattile.com

Robotics & Automation 2017

Die neue ‚Robotics & Automation‘-Messe findet vom 11. bis 12. Oktober in der Arena MK in Milton Keynes, Großbritannien, statt. Die Messe richtet sich vor allem an Kunden aus den Bereichen Manufacturing, Automotive, Distribution, Warehouse, Einzelhandel sowie an pharmazeutische Kunden und beinhaltet neben Messe-Ständen auch Vorträge und Live-Applikationen.

www.roboticsandautomation.co.uk

Anzeige
Schneider-Kreuznach mit neuem Vertriebsleiter

Seit 1. Mai ist Dr. Raimund Lassak neuer Vertriebsleiter der Jos. Schneider Optische Werke GmbH. Der 52-jährige gelernte Ingenieur bringt weitreichende Erfahrungen aus verschiedenen Managementpositionen bei Technologie-Unternehmen mit sich. Er verantwortet bei Schneider-Kreuznach nun sämtliche globalen Vertriebsaktivitäten.

www.schneiderkreuznach.com

VDMA: Deutsche Bildverarbeitung mit +9%

Die deutsche industrielle Bildverarbeitung hat im Jahr 2016 ein Umsatzplus von 9% gegenüber dem Vorjahr erwirtschaftet. Dabei stieg das Inlandsgeschäft um 3%, das Auslandsgeschäft um 14%. Laut Prognose des VDMA Robotik + Automation rechnet man für 2017 mit einem Umsatzplus von 10% auf dann 2,4Mrd. Euro.

ibv.vdma.org

Anzeige
3. Fachkonferenz ML4CPS

Die dritte Fachkonferenz ‚Maschinelles Lernen in der Produktion‘ findet vom 25. bis 26. Oktober in der SmartFactoryOWL in Lemgo statt. An beiden Konferenztagen geben verschiedene Vorträge und Networking-Veranstaltungen Einblick in das Thema ‚Machine Learning for Cyber Phisical Systems‘ (ML4PCS). Die Konferenz ist eine Kooperation zwischen dem Fraunhofer IOSB-INA und SV-Veranstaltungen.

www.sv-veranstaltungen.de

80% Zeitersparnis dank Deep learning

Das IBM Cognitive Visual Inspection (CVI) Systen macht über Ultra-HD-Kameras Videoaufnahmen von Werkstücken in der Fabrik. Die intelligente Lösung lernt dabei ständig dazu, basierend auf der Klassifikation der gefundenen Qualitätsmängel durch die sie bedienenden Mitarbeiter. Die integrierte künstliche Intelligenz Watson hilft Fehler schneller zu erkennen und zu klassifizieren. Tests ergaben, dass bei einem acht Tage dauernden Produktionszyklus bis zu 80% der ursprünglich für die Prüfung veranschlagten Zeit eingespart werden konnte.

www.ibm.com

Anzeige