Vereinfachte Synchronisierung

Mithilfe von IEEE1588 wird die Kamera zum Master

Bislang werden die in Kameras eingebauten Taktgeber beim Einschalten der Energiequelle zurückgesetzt, und die Zeitstempel beginnen asynchron aufwärts zu zählen. Bei vernetzten Kameras geht die Synchronisierung dieser Zeitstempel im Laufe der Zeit – infolge von Abweichungen der Taktgeberfrequenzen – nach und nach verloren. Das bedeutet, dass vom Kamerasystem ausgegebene Informationen unzuverlässig sein können.
Bei IEEE1588 handelt es sich um ein vom Precision Time Protocol (PTP) gefordertes Protokoll, das für Ethernet verbundene Geräte einsetzt. Es sorgt für eine extrem genaue zeitliche Synchronisierung von Kameras, die über ein Ethernet-Kabel mit einer Grand-Master-Standardzeituhr verbunden sind. Kameras, die IEEE1588 unterstützen, tauschen in vorher festgelegten Zyklen synchronisierte Meldungen mit dem Grand Master aus, wobei der interne Zähler in Übereinstimmung mit der Zeitstempelinformation zum Sende- und Empfangszeitpunkt jeweils neu kalibriert wird. Der IEEE1588-Zeitstempel ist ein Epochen-Zeitzähler, bei dem der 1. Januar 1970, 00:00 Uhr, als [0] gesetzt ist, und bietet eine Auflösung von 1ns (1GHz). Im Gegensatz zu den Mechanismen des Phasenregelkreises (PLL) werden freilaufende Zähler jedes Mal aktualisiert, wenn eine Synchronisierungsmeldung ausgetauscht wird. Eine Verkürzung des Zyklusintervalls mit dem Grand Master verbessert die Genauigkeit weiter.

Trigger und GPO-Links

Vor IEEE1588 war es unmöglich, eine präzise gleichzeitige Bilderfassung in einem Mehrkamerasystem zu gewährleisten. Die Vorgängergenerationen der GigE-Vision-Kameras (bis Version GigE v1.2) enthielten Aktionsbefehle, die so entwickelt waren, dass sie gleichzeitig mit einem einzigen Befehl für mehrere Kameras arbeiteten. Allerdings gab es dabei einige nicht eindeutige Elemente, z.B. die Verzögerungen bei der Ausbreitung im Netzwerk oder in der Firmware-Verarbeitung. Um dies zu beheben, ermöglichte eine Kombination von IEEE1588 und dem Aktionsbefehl ab GigE Vision 2.0 jeder einzelnen Kamera die Vorgabe eines Zeitraumes zur Aktionsausführung. Die Kamera XCG-CG wurde mit einer Funktion ausgestattet, welche die Belichtung in Synchronisation mit dieser absoluten Zeit beginnt, einschließlich Funktionen, die als IEEE1588-Applikationen definiert wurden und die mit GigE Vision konform sind. Diese Funktionen werden als Scheduled Action Commands bezeichnet. Die Aufgabe der Befehle ist die Zeit der Synchronisierung für Software-Trigger und IEEE1588 vorzugeben, z.B. lässt sich die Synchronisation auf ‚einmal pro Sekunde‘ einstellen, wonach sämtliche Kameras in einem Netzwerk in diesem Intervall mit dem Grand Master synchronisiert werden. Durch eine Reduzierung des Intervalls zwischen der Synchronisierung kann sie ausgeführt werden, solang die Zeitdiskrepanzen noch gering sind, was zu einer Minimierung des Jitter führt. Was den Freilauf betrifft, wird der Zeittakt bis zum Start der Kamerabelichtung mit der Zeit abgestimmt, die über den Grand Master synchronisiert wurde. Obwohl diese Vorgehensweise durch die Netzwerkumgebung beeinflusst wird, kann die Synchronsteuerung der Belichtung im Idealfall innerhalb von 1µs durchgeführt werden. Im Allgemeinen müssen getrennte Geräte vorgesehen werden, die als Grand Master fungieren – entweder auf dem Markt erhältliche Spezialgeräte oder ein PC mit einem Linux-OS, auf dem die Grand-Master-Software läuft. Jedoch werden bereits Untersuchungen über die Aufnahme einer IEEE1588-Master-Funktion in die XCG-CG-Familie im Rahmen eines künftigen Upgrades vorgenommen. Auf diese Weise würde die Kamera selbst Master werden und die Bereitstellung eines getrennten Grand-Master-Zeittakt würde entfallen. So ließe sich der Mechanismus zur Synchronisation zwischen Kameras bzw. Kameras und Peripheriegeräten vereinfachen.

Anzeige

Vorteile und Einsatzszenarien

Post-Event-Analyse: Durch eine Bestückung von GigE-Vision-Kameras mit IEEE1588 sind diese in der Lage, ihre Zeiteinstellung mit der Grand Master Clock zu synchronisieren. Die mit den Bildpaketen verbundenen Zeitstempel können die absolute Uhrzeit anzeigen. Somit wäre bei intelligenten Verkehrssystemen die noch genauere Erfassung von Fahrzeugen möglich, welche die Höchstgeschwindigkeit überschreiten, ohne dass man Radar dazu braucht. Mithilfe der Zeitstempel, die man von zwei verschiedenen Punkten erhält, lässt sich entscheiden, ob Fahrzeuge das Tempolimit überschreiten oder nicht. Zudem erhält man die genaue Uhrzeit von Bildern, die an beiden Punkten aufgenommen wurden, was die Geschwindigkeitsanalyse vereinfacht. IEEE1588-Zeitstempel werden sich – auch für Industrieroboter sowie alle Arten von Prüfeinrichtungen – als besonders effektiv erweisen. Dadurch, dass man Bilder, welche die Prüfungsvorgänge und die Ergebnisse zeigen, mit der absoluten Uhrzeit versieht, lassen sich die betreffenden Gegenstände leichter identifizieren.

Verbesserte Zuverlässigkeit des Systems: Eines der Probleme bei der Installation von Bildverarbeitungssystemen für Montage-/Prüfroboter und Geräte ist das Layout der Verdrahtung. Kabel können Verschleiß unterliegen und sich auflösen. Die Wahrscheinlichkeit, dass dies passiert, nimmt mit der Anzahl von Kameras in einem System zu, d.h. die Anzahl der Kabel muss ebenfalls erhöht werden, wenn jede Kamera synchronisiert werden soll. Die XCG-CG-Serie ermöglicht die Synchronisierung mehrerer Kameras mit IEEE1588 und Scheduled Action Commands. Sie unterstützen zudem PoE (Power over Ethernet), wodurch lediglich ein Kabel zur Belichtungssynchronisation, Bildausgabe und Energieversorgung benötigt wird.

Einschränkung der Taktung: Ein Problem bei IEEE1588-konformen Systemen ist die Verzögerung zwischen Bilderfassung und dem Zeitpunkt, zu dem Peripheriegeräte, die IEEE1588 nicht unterstützen, in Aktion treten. Daher plant Sony, die Kamerafamilie mit dem universellen Ausgang GPO (General Purpose Output) zu verbinden, um den Betrieb derartiger Peripheriegeräte auf Basis von Zeitsynchronität zu ermöglichen. Dadurch wäre die Verbindung des GPO der Kamera mit Robotern, während des erwähnten Zeitraumes, möglich, zu dem die Kamera Bilder erfasst, und bis der Roboter beginnt die Arbeit aufzunehmen, wodurch die Synchronisierung von Bilderfassung und Roboteraktionen erfolgt. Ein anderes Beispiel entstammt der Flascheninspektion. Dabei müssen mehrere Kameras synchronisiert werden, wobei die Prüfgegenstände mit einer vorgegebenen Geschwindigkeit transportiert werden. Bei Verwendung dieser Methode ergibt sich eine hohe Übereinstimmung mit Systemen, welche die genauen Synchronisationsfähigkeiten von IEEE1588 einsetzen.

Vereinfachte Synchronisierung
Die XCG-CG-Kameraserie ermöglicht die Synchronisierung mehrerer Kameras mit IEEE1588 und Scheduled Action Commands. (Bild: Sony)


Das könnte Sie auch interessieren

Mit dem Digital4Eyes-Wettbewerb möchte die Bayer AG Teams dazu aufrufen, ihre Kompetenzen in Bilderkennung und/oder maschinellem Lernen mit der eigenen Produktionskompetenz zu kombinieren. Ziel der Aufgabe ist ein lernfähiger, digitaler Prototyp, der in der Lage ist, einen 4-Augen-Check durchzuführen. Einsendeschluss für die Projekte ist der 15. Januar 2018.

grants

Anzeige

Neu am Markt ist die Firma NotaVis aus Ettlingen. Geschäftsführer Thomas Schweitzer (Bild) und sein Team bieten Bildverarbeitungskomponenten für OEMs und Integratoren an. Im Programm enthalten sind Kameras (u.a. Dahua), Intelligente Kameras (Vision Components), sowie Software, Optik und Beleuchtungen.

 

www.notavis.com

Die Viscom AG kann mit der Veröffentlichung der aktuellen Halbjahresbilanz des Unternehmens Rekordergebnisse in allen Vertriebsregionen verzeichnen. Insgesamt konnte ein Umsatzwachstum von +27,8% verglichen zur Vorjahresperiode verzeichnet werden. Damit erwirtschaftet das Unternehmen im ersten Halbjahr 2017 Umsatzerlöse in Höhe von rund 40Mio.€.

www.viscom.com

Anzeige

Am 12. Januar 2018 findet ab 13 Uhr an der Universität Heidelberg eine Festveranstaltung zu Ehren ’10 Jahre Heidelberg Collaboratory for Image Processing (HCI)‘ statt. Zehn Jahre erfolgreiche Zusammenarbeit zwischen Forschung und Industrie im HCI sollen dabei gewürdigt , sowie die wichtigsten Forschungsergebnisse und einen Ausblick auf die Zukunft gegeben werden. Die Teilnahme an der Veranstaltung ist kostenfrei, eine Anmeldung allerdings erforderlich.

www.bv-forum.de

Anzeige

Die kanadische Firma Lucid Vision Labs wurde im Januar 2017 in der Nähe von Vancouver gegründet und entwickelt eigene Bildverarbeitungskameras. Hinter dem neuen Unternehmen stehen zwei bekannte Vision-Experten: Rod Barman (rechts, einer der Gründer von Point Grey) ist Geschäftsführer des Unternehmens; Torsten Wiesinger (links, ehemals IDS und MVTec) ist General Manager für den EMEA-Bereich. Mit der GigE-Kamera Phoenix und der IP67-Kamera Triton sind bereits erste Produkte verfügbar.

www.thinklucid.com

Am Mittwoch, den 29.11., findet auf der SPS IPC Drives in Nürnberg die Podiumsdiskussion ‚Sind individualisierbare Sensoren und Bildverarbeitungssysteme die Antwort auf Industrie 4.0?‘ statt. Die Diskussion startet ab 15:00 Uhr auf dem VDMA Forum in Halle 3 Stand 668. Dabei geht es um neue Möglichkeiten für die Anwender, anwenderspezifische Systeme einfach selbst zu erstellen. Teilnehmer der Diskussion sind Vertreter der Firmen Baumer, Matrix Vision/Balluff, MVTec, Sick, Silicon Software und Stemmer Imaging.

ibv.vdma.org

Anzeige