Anzeige

Echtzeit Streaming

Ultra Low Latency Streaming-Plattform

Auf der SPS 2019 präsentierte Hema Electronic erstmals seine Ultra Low Latency Streaming-Plattform. Hema nutzt als einer der ersten Anwender das Ultra Low Latency 10bit 4:2:2 SDI Video Subsystem von Xilinx auf dem eigens entwickelten Embedded Vision Board.

Die Ultra Low Latency Streaming-Plattform nutzt das Ultra Low Latency 10bit 4:2:2 SDI Video Subsystem von Xilinx und ermöglicht Übertragungsraten von weniger als 35ms. (Bild: Hema Electronic GmbH)


Low Latency-Bildübertragungen sind kein Kind der Neuzeit. Sie stammen aus dem analogen Zeitalter. In den 70er-Jahren galt die Datenübertragung per koaxialer Leitung weltweit als Standard für das Fernsehen. Die Vorteile damals wie heute: Beim Auslesen der Pixel und anschließender Umwandlung in elektrische Signale entstand keine zeitliche Verzögerung. Die Bildqualität jedoch war mit einer Auflösung beim PAL-Standard von 720×576 Pixeln und beim NTSC-Standard mit 720×480 Pixeln im Vergleich zum heutigen Standard sehr niedrig. Mit zunehmenden Möglichkeiten zur Steigerung der Auflösung wurde jedoch schnell das Limit an analoger Datenübertragung erreicht. Die Leitungen ließen es schlicht nicht zu, dass noch mehr Daten übertragen wurden. Die Lösung lautete Komprimierung und Digitalisierung. Doch auch diese Verfahren kamen nicht ohne Nachteile aus. Denn beim Codieren und Decodieren eines Bildes tritt dadurch, dass ein Vergleich zwischen den Veränderungen des aktuellen Bildes mit einem früheren Bild vorgenommen wird, eine Verzögerung von mehreren Bildern auf. In der Summe erreichten Bildübertragungssysteme mehrere hundert Millisekunden an zeitlicher Verzögerung von der Aufnahme bis zur Anzeige am Bildschirm. Von den Anwendern gewünscht waren jedoch maximal 100ms.

Heutige Low Latency-Verfahren zur Bildübertragung und -verarbeitung verzeichnen nur eine sehr geringe und vom menschlichen Auge nicht wahrnehmbare zeitliche Verzögerung, dadurch erfüllen sie höchste Anforderungen. Mit ultrakurzen Latenzzeiten unter 35ms bei 60fps von der Bildaufnahme bis zur Anzeige auf Bildschirmen inklusive einer Codierung und Decodierung mit dem H.265-Standard bei einer Vielzahl von digital übertragenenen Daten bietet hema electronic seinen Kunden Videoübertragungssysteme, die ideale Einsatzmöglichkeiten für Multi-Stream oder Multi-View aufweisen. Typische Anwendungsfelder für solche Systeme gibt es in der Bildverarbeitung, in der Steuerung von Maschinen, Anlagen und Fahrzeugen sowie in der Videoüberwachung und Echtzeit-Videokommunikation für Augmented Reality-Anwendungsszenarien. Also prinzipiell überall dort, wo visuelle Präzision erforderlich ist, um Sicherheit zu gewährleisten.

Übertragungsraten kleiner 35ms

Auf der SPS 2019 präsentierte hema electronic erstmals seine Ultra Low Latency Streaming-Plattform. Auf einem eigens entwickelten Embedded Vision-Board nutzt die Firma als einer der ersten Anwender überhaupt das Ultra Low Latency 10bit 4:2:2 SDI Video Subsystem von Xilinx. Ebenfalls zum Einsatz kamen ein XU8- sowie ein XU9-Modul des Schweizer FPGA-Modulspezialisten Enclustra. „Mit einer schnellen Kamera, einem schnellen Monitor und dem von Xilinx entwickelten Algorithmus für Low Latency erreichen wir mit unserem System Übertragungsraten von weniger als 35ms“, erklärt Michael Mößmer, Entwicklungsleiter bei hema electronic. „Damit sind Verzögerungen bei Bildübertragungen vom menschlichen Auge nicht mehr wahrnehmbar.“ Dies wird z.B. dann relevant, wenn ein Fahrzeug von einer Besatzung mittels Kamera- und Monitorsystemen gesteuert wird. Der bisherige zeitliche Verzug von 200 bis 400ms der Bilddarstellung in Korrelation zu den Bewegungen des Fahrzeugs führt bei der Besatzung im Fahrzeug zu Schwindel und Gleichgewichtsstörungen. Dadurch können Aufgaben nur eingeschränkt oder gar nicht mehr erfüllt werden. Im wirtschaftlichen Anwendungsbereich wiegen die Folgen noch schwerer: Sieht der Fahrer eines Fahrzeugs in der Rückfahrkamera beispielsweise ein ballspielendes Kind auf das Fahrzeug zukommen, darf die Kamera dieses Bild nicht zeitverzögert darstellen. Dasselbe gilt auch für Seiten- oder Rückfahrspiegel bei LKWs. Ein Kranführer, der am Boden per Monitor die Maschine lenkt, muss in Echtzeit erkennen können, was sich oben in luftiger Höhe tut. Und in Produktionsarealen, in denen ausschließlich Roboter arbeiten, kann ein Videoüberwachungssystem, das mit Sensoren verbunden ist, Leben retten, falls sich einmal ein Mensch zwischen die Maschinen verirrt und in deren Arbeitsbereich gelangen sollte. „Ermöglicht wird diese Ultra Low Latency durch die leistungsfähigen FPGA-SOCs von Xilinx, die sowohl programmierbare Logik, als auch mehrere ARM-Prozessoren enthalten. Sie können immense Datenmengen komprimieren und eine entsprechende Verarbeitung ermöglichen“, erläutert Mößmer. „Wir integrieren die FPGA-SOCs mit all ihren Vorteilen auf die von uns entwickelten Embedded Vision-Boards.“

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Ein Roboterarm, an dem das ultraschnelle Autofokussystem Taglens installiert ist, ermöglicht eine Wiederholgenauigkeit von 20µm, um den genauen Abstand und die exakte Positionierung für Autofokus-Einstellungen zu liefern, bevor ein Bild aufgenommen wird. ‣ weiterlesen

Anzeige

Bevor die edlen Weintrauben in der französischen Champagne geerntet und zu Champagner verarbeitet werden, ist eine monatelange Pflege der Weinreben erforderlich. ‣ weiterlesen

Anzeige

Beim autonomen Fahren der höchsten Stufe 5 sind die Fahrgäste im Fahrzeug nur noch unbeteiligte Zuschauer. Diese Ingenieursleistung ist Realität und wurde vom GreenTeam Stuttgart auf ausgewiesenen Test- und Wettbewerbsstrecken umgesetzt. Mit an Bord sind FPGA-basierte Framegrabber.‣ weiterlesen

www.baslerweb.com

Anzeige

Beim autonomen Fahren der höchsten Stufe 5 sind die Fahrgäste im Fahrzeug nur noch unbeteiligte Zuschauer. Diese Ingenieursleistung ist Realität und wurde vom GreenTeam Stuttgart auf ausgewiesenen Test- und Wettbewerbsstrecken umgesetzt. ‣ weiterlesen

Anzeige

Ab Mitte Mai fand für vier Wochen die inVISION Show – virtuelle Messe für Bildverarbeitung und Messtechnik - statt. Wir haben uns auf dem Messegelände umgesehen, was die Highlights der Aussteller waren.‣ weiterlesen

www.tedo-verlag.de

Anzeige

Die Kombination von Time-of-Flight Kameras und Deep Learning ermöglicht es komplexe Aufgaben zeit- und kosteneffizient zu lösen, da das Anlernen der neuralen Netze von der räumlichen Information stark profitiert. Zudem erlaubt die 3D-Punktwolke ein genaues Positionieren und Vermessen von Objekten. ‣ weiterlesen

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige