Revolutioniert Embedded Vision die Bildverarbeitung?

Embedded (R-)Evolution

Revolutioniert Embedded Vision die Bildverarbeitung?

Embedded Vision ist in aller Munde. Führt die ’neue‘ Technologie zu einem Umbruch in der Bildverarbeitung und wie wichtig sind dabei Visionstandards wie z.B. GenICam?

Mit einem GenICam GenTL-Treiber kann auch auf einem SoC mit dem Nvidia Jetson eine hervorragende Leistung im einzug bereitgestellt werden. Spectra GmbH & Co. KG Mahdenstr. 3 D-72768 Reutlingen Telefon +49 (0) 7121-1432-10 E-Mail spectra@spectra.de D www.spectra.de A www.spectra-austria.at CH www.spectra.ch Die industriellen verarbeiter Spectra PowerBox BV-Serie LÜFTERLOSE MINI-PC FÜR DIE INDUSTRIELLE VERARBEITUNG · (Bild: SVS-Vistek GmbH)

Mit einem GenICam GenTL-Treiber kann auch auf einem SoC mit dem Nvidia Jetson eine hervorragende Leistung im Bildeinzug bereitgestellt werden. (Bild: SVS-Vistek GmbH)

Embedded Entwicklungen mit eigenem Board Design und DSPs gibt es bereits seit über 20 Jahren. Heutige Embedded Lösungen erweitern jedoch diesen Begriff. Bereits bei der Begriffsklärung von Embedded Vision erhält man unterschiedliche Antworten. Einige Merkmale werden aber durchgängig genannt:

    • • Die Bildverarbeitungseinheit enthält alle Komponenten des Bildeinzugs On-Board,
    • • Embedded bedeutet eine kleine, kompakte Lösung mit geringem Platzbedarf der Komponenten, wie z. B. die Kombination von Kamera und Strobe Controller in einem Produkt.
    • • intelligentere Komponenten

In manchen hoch spezialisierten Disziplinen wie z. B. Deep Learning können embedded Boards in der Leistung großen PCs durchaus ebenbürtig sein. Embedded Projekte stehen dabei im Spannungsfeld der ökonomischen Vernunft: Hohe Projektvielfalt versus Stückzahlen, d.h. Embedded Entwicklungen sind meist aufwändig und teuer und daher erst bei hohen Volumina wirtschaftlich sinnvoll. Auch lüfterlose Industrie-PCs werden immer kleiner und ermöglichen mit hohen CPU-Leistungen sowie USB3 und GigE Vision ebenfalls sehr leistungsfähige Embedded Vision Lösungen. Die lange Zeit übliche Version einer Embedded Vision Lösung enthält dabei alle Bildverarbeitungskomponenten in einem einzigen Gehäuse: Beleuchtung, Objektiv, integrierte Kamera, Prozessor und Software. Allerdings limitiert die hoch spezialisierte Software die Anwendungsmöglichkeiten der Systeme. Intelligente Kameras werden zwar immer mit speziellen parametrierbaren Fähigkeiten angeboten, sind aber vom Kunden nicht frei programmierbar. Es kommen zudem immer neue Komponenten auf den Markt, die bereits in der Kamera eine Teilauswertung der Bilder vornehmen. Intel hat z.B. mit Real Sense eine neue Kategorie an 3D-Systemen geschaffen. Allgemein geht die Leistung heutiger embedded 3D-Visionsysteme deutlich über das hinaus, was bisher möglich war. So ist mittlerweile die Erzeugung einer 3D-Punktewolke in die FPGAs der Bilderfassung bzw. Kamera(s) ausgelagert.

Der Nachteil von SoCs

SoCs (System on a Chip) sind eine wichtige Basis für Embedded Vision. Die kleinen Rechnereinheiten konnten in den letzten Jahren einen enormen Leistungszuwachs verzeichnen. Es gibt sie mittlerweile sogar mit USB3, GigE Vision oder CSI-Schnittstelle. Zusätzlich bieten sie oftmals Pins zur freien Verwendung in Steuerungen an. Dennoch erreichen sie in Bezug auf die CPU-Rechenleistung noch lange nicht das Niveau eines PCs. Die Kombination von Kleinstrechner und einer leistungsfähigen GPU wie dem Nvidia Jetson TX1 ist jedoch neu und birgt vielfältige Möglichkeiten (s. Kasten). Der Vorteil ist, dass es die kleinen Rechner von der Stange gibt, was die Entwicklungs-Kosten erheblich senkt. Die GPU übernimmt dabei die Aufgaben bisheriger DSPs. Ein Treiber des SoC-Aufschwungs mit integrierter GPU ist sicherlich Deep Learning. Der Erfolg der neuen Algorithmen basiert auf der hohen GPU-Leistung. Allerdings gibt es bei SoCs auch einen Nachteil: Der Bildeinzug der Kamera über die Schnittstelle muss immer noch mit einer normalen, sequentiell arbeitenden CPU bewältigt werden, da SoCs – wie bereits angesprochen – einer großen CPU leistungsmäßig nicht ebenbürtig und daher noch für viele Anwendungsfälle zu langsam sind. Derzeit wird mit sensornahen Hardware-Schnittstellen zur Kamera, wie z.B. CSI oder MIPI, versucht, dort höhere Leistungen zu erzielen. Das Problem für den industriellen Systemintegrator ist dabei aber, dass man sich mit diesen neuen Ansätzen jenseits der etablierten Visionstandards bewegt. Zudem bezahlt der Integrator dies mit einem Verlust an Flexibilität bei der Wahl der Kamera, Software und Hardware, was sich oft erst gegen Ende des Lebenszyklus der Applikation als Problem herausstellt. Gerade die Verwendung etablierter Standards wie GenICam gibt dem Anwender die Planungssicherheit, auch langfristig auf ändernde Anforderungen oder Liefersituationen flexibel reagieren zu können. Natürlich gibt es Applikationen, bei denen es weiterhin ausreicht, Board Level Kameras per Flachbandkabel und MIPI an einen Kleinstrechner anzuschließen. Das befürchtete Schnittstellenchaos im sehr agilen Bildverarbeitungsmarkt scheint zum Glück jedoch auszubleiben. GenICam-basierende Kameratechnik und Schnittstellen bieten hier enorme Vorteile. Diese behalten sie auch bei der Auswertung mit Hilfe von Deep Learning.

Fazit

Auf Vision-Standards (wie z.B. GenICam) basierte Embedded Vision Lösungen helfen Entwicklern bei kleinen und mittleren Stückzahlen, eine gewünschte Verschlankung der Hardware zu erzielen, ohne auf die Flexibilität vertrauter Standardbaukästen verzichten zu müssen. Viele Bildverarbeitungsaufgaben lassen sich mit Deep Learning und den neuen Embedded Vision Lösungen einfacher bzw. überhaupt erstmalig lösen. Embedded Vision ist aber im Gesamtkonzept der industriellen Bildverarbeitung keine Revolution, sondern eher eine Evolution.

SVS-Vistek GmbH

Das könnte Sie auch Interessieren