Vereinfachte Synchronisierung

Mithilfe von IEEE1588 wird die Kamera zum Master

Bislang werden die in Kameras eingebauten Taktgeber beim Einschalten der Energiequelle zurückgesetzt, und die Zeitstempel beginnen asynchron aufwärts zu zählen. Bei vernetzten Kameras geht die Synchronisierung dieser Zeitstempel im Laufe der Zeit – infolge von Abweichungen der Taktgeberfrequenzen – nach und nach verloren. Das bedeutet, dass vom Kamerasystem ausgegebene Informationen unzuverlässig sein können.
Bei IEEE1588 handelt es sich um ein vom Precision Time Protocol (PTP) gefordertes Protokoll, das für Ethernet verbundene Geräte einsetzt. Es sorgt für eine extrem genaue zeitliche Synchronisierung von Kameras, die über ein Ethernet-Kabel mit einer Grand-Master-Standardzeituhr verbunden sind. Kameras, die IEEE1588 unterstützen, tauschen in vorher festgelegten Zyklen synchronisierte Meldungen mit dem Grand Master aus, wobei der interne Zähler in Übereinstimmung mit der Zeitstempelinformation zum Sende- und Empfangszeitpunkt jeweils neu kalibriert wird. Der IEEE1588-Zeitstempel ist ein Epochen-Zeitzähler, bei dem der 1. Januar 1970, 00:00 Uhr, als [0] gesetzt ist, und bietet eine Auflösung von 1ns (1GHz). Im Gegensatz zu den Mechanismen des Phasenregelkreises (PLL) werden freilaufende Zähler jedes Mal aktualisiert, wenn eine Synchronisierungsmeldung ausgetauscht wird. Eine Verkürzung des Zyklusintervalls mit dem Grand Master verbessert die Genauigkeit weiter.

Trigger und GPO-Links

Vor IEEE1588 war es unmöglich, eine präzise gleichzeitige Bilderfassung in einem Mehrkamerasystem zu gewährleisten. Die Vorgängergenerationen der GigE-Vision-Kameras (bis Version GigE v1.2) enthielten Aktionsbefehle, die so entwickelt waren, dass sie gleichzeitig mit einem einzigen Befehl für mehrere Kameras arbeiteten. Allerdings gab es dabei einige nicht eindeutige Elemente, z.B. die Verzögerungen bei der Ausbreitung im Netzwerk oder in der Firmware-Verarbeitung. Um dies zu beheben, ermöglichte eine Kombination von IEEE1588 und dem Aktionsbefehl ab GigE Vision 2.0 jeder einzelnen Kamera die Vorgabe eines Zeitraumes zur Aktionsausführung. Die Kamera XCG-CG wurde mit einer Funktion ausgestattet, welche die Belichtung in Synchronisation mit dieser absoluten Zeit beginnt, einschließlich Funktionen, die als IEEE1588-Applikationen definiert wurden und die mit GigE Vision konform sind. Diese Funktionen werden als Scheduled Action Commands bezeichnet. Die Aufgabe der Befehle ist die Zeit der Synchronisierung für Software-Trigger und IEEE1588 vorzugeben, z.B. lässt sich die Synchronisation auf ‚einmal pro Sekunde‘ einstellen, wonach sämtliche Kameras in einem Netzwerk in diesem Intervall mit dem Grand Master synchronisiert werden. Durch eine Reduzierung des Intervalls zwischen der Synchronisierung kann sie ausgeführt werden, solang die Zeitdiskrepanzen noch gering sind, was zu einer Minimierung des Jitter führt. Was den Freilauf betrifft, wird der Zeittakt bis zum Start der Kamerabelichtung mit der Zeit abgestimmt, die über den Grand Master synchronisiert wurde. Obwohl diese Vorgehensweise durch die Netzwerkumgebung beeinflusst wird, kann die Synchronsteuerung der Belichtung im Idealfall innerhalb von 1µs durchgeführt werden. Im Allgemeinen müssen getrennte Geräte vorgesehen werden, die als Grand Master fungieren – entweder auf dem Markt erhältliche Spezialgeräte oder ein PC mit einem Linux-OS, auf dem die Grand-Master-Software läuft. Jedoch werden bereits Untersuchungen über die Aufnahme einer IEEE1588-Master-Funktion in die XCG-CG-Familie im Rahmen eines künftigen Upgrades vorgenommen. Auf diese Weise würde die Kamera selbst Master werden und die Bereitstellung eines getrennten Grand-Master-Zeittakt würde entfallen. So ließe sich der Mechanismus zur Synchronisation zwischen Kameras bzw. Kameras und Peripheriegeräten vereinfachen.

Anzeige

Vorteile und Einsatzszenarien

Post-Event-Analyse: Durch eine Bestückung von GigE-Vision-Kameras mit IEEE1588 sind diese in der Lage, ihre Zeiteinstellung mit der Grand Master Clock zu synchronisieren. Die mit den Bildpaketen verbundenen Zeitstempel können die absolute Uhrzeit anzeigen. Somit wäre bei intelligenten Verkehrssystemen die noch genauere Erfassung von Fahrzeugen möglich, welche die Höchstgeschwindigkeit überschreiten, ohne dass man Radar dazu braucht. Mithilfe der Zeitstempel, die man von zwei verschiedenen Punkten erhält, lässt sich entscheiden, ob Fahrzeuge das Tempolimit überschreiten oder nicht. Zudem erhält man die genaue Uhrzeit von Bildern, die an beiden Punkten aufgenommen wurden, was die Geschwindigkeitsanalyse vereinfacht. IEEE1588-Zeitstempel werden sich – auch für Industrieroboter sowie alle Arten von Prüfeinrichtungen – als besonders effektiv erweisen. Dadurch, dass man Bilder, welche die Prüfungsvorgänge und die Ergebnisse zeigen, mit der absoluten Uhrzeit versieht, lassen sich die betreffenden Gegenstände leichter identifizieren.

Verbesserte Zuverlässigkeit des Systems: Eines der Probleme bei der Installation von Bildverarbeitungssystemen für Montage-/Prüfroboter und Geräte ist das Layout der Verdrahtung. Kabel können Verschleiß unterliegen und sich auflösen. Die Wahrscheinlichkeit, dass dies passiert, nimmt mit der Anzahl von Kameras in einem System zu, d.h. die Anzahl der Kabel muss ebenfalls erhöht werden, wenn jede Kamera synchronisiert werden soll. Die XCG-CG-Serie ermöglicht die Synchronisierung mehrerer Kameras mit IEEE1588 und Scheduled Action Commands. Sie unterstützen zudem PoE (Power over Ethernet), wodurch lediglich ein Kabel zur Belichtungssynchronisation, Bildausgabe und Energieversorgung benötigt wird.

Einschränkung der Taktung: Ein Problem bei IEEE1588-konformen Systemen ist die Verzögerung zwischen Bilderfassung und dem Zeitpunkt, zu dem Peripheriegeräte, die IEEE1588 nicht unterstützen, in Aktion treten. Daher plant Sony, die Kamerafamilie mit dem universellen Ausgang GPO (General Purpose Output) zu verbinden, um den Betrieb derartiger Peripheriegeräte auf Basis von Zeitsynchronität zu ermöglichen. Dadurch wäre die Verbindung des GPO der Kamera mit Robotern, während des erwähnten Zeitraumes, möglich, zu dem die Kamera Bilder erfasst, und bis der Roboter beginnt die Arbeit aufzunehmen, wodurch die Synchronisierung von Bilderfassung und Roboteraktionen erfolgt. Ein anderes Beispiel entstammt der Flascheninspektion. Dabei müssen mehrere Kameras synchronisiert werden, wobei die Prüfgegenstände mit einer vorgegebenen Geschwindigkeit transportiert werden. Bei Verwendung dieser Methode ergibt sich eine hohe Übereinstimmung mit Systemen, welche die genauen Synchronisationsfähigkeiten von IEEE1588 einsetzen.

Vereinfachte Synchronisierung
Die XCG-CG-Kameraserie ermöglicht die Synchronisierung mehrerer Kameras mit IEEE1588 und Scheduled Action Commands. (Bild: Sony)


Das könnte Sie auch interessieren

www.baslerweb.com

Anzeige

Basler und Arrow Electronics haben ein Vertriebsabkommen unterzeichnet, laut dem Arrow die Produktpalette von Basler ab dem 1. März in der EMEA-Region vertreiben wird. Darüber hinaus hat Arrow die Produkte auch in seine digitale globale Linecard aufgenommen. Mit einem besonderen Augenmerk auf die Embedded Vision Produkte von Basler arbeitet Arrow daran, diese Technologie in sein eigenes SoM- und Boards-Portfolio zu integrieren.

www.baslerweb.com

Anzeige

Laut einer aktuellen Studie von Yole soll sich der Markt für industrielle Bildverarbeitungskameras von 2Mrd.USD (2017) auf 4Mrd.USD bis 2023 verdoppeln. Wachstumstreiber für Machine Vision seien dabei vor allem nicht-industrielle Anwendungen und auch der Markt für autonome Fahrzeuge.

www.i-micronews.com

Anzeige

Seit dem 1. Februar ist die deutsche Niederlassung von Edmund Optics in Mainz in der Isaac-Fulda-Allee 5 zu finden. Durch den Umzug agiert Edmund Optics mit der zu Beginn des Jahres akquirierten Itos GmbH nun gestärkt vom Standort Mainz.

www.edmundoptics.de

Anzeige

Lucid Vision Labs hat die derzeit weltweit kleinste GigE Vision PoE-Kamera namens Phoenix entwickelt. Der Kunde erhält mit diesem Modell ein flexibles Kameradesign zu einem angemessenen Preis-/Leistungsverhältnis. Zusätzlich zeichnet sich die Kamera durch ein kompaktes NF-Mount 5MP Objektiv sowie optional den neuen ix Industrial Ethernet Anschlüssen aus.‣ weiterlesen

www.thinklucid.com

In Zusammenarbeit mit dem CDTM-Institut der TU München hat Framos ein Wearable entwickelt, das mit Hilfe von 3D-Echtzeit-Technologie Sehbehinderte im Alltag unterstützt. Die Brillen sind mit Intel RealSense Stereokameras ausgestattet, wobei intelligente Algorithmen die visuellen Signale in haptische und akustische Informationen übersetzen. Die Audioinformation basiert auf der Erkennung von Objekten und Schriften, die haptische Rückmeldung über Positionen und Distanzen erhalten die Sehbehinderten über ein mit Vibrationsmotoren ausgestattetes Armband.

www.framos.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige