Machine Vision goes Embedded

Teil 2: Schnittstelle zum Software-API vor embedded Vision

Die GenCam- und GenTL-Standards dienen hauptsächlich dem Zugriff auf Machine-Vision-Kameras für die Aufnahme von Bildrohdaten. Embedded-Smart-Kameras arbeiten hingegen anders. Durch ihre interne Bildverarbeitung geben sie keine Rohbilder aus, sondern vorverarbeitete Bilder bis hin zu Ergebnisdaten. Diese neue Komplexität von Multi-Format- und Multi-Layer-Daten mit festen oder variablen Datenlängenformaten von Messergebnissen erfordert allerdings generischere Beschreibungsmodelle von Datenformaten/-strukturen und der enthaltenen semantischen Information.

Auf dem Future Standards Forum Meeting im April 2015 wurde die Gründung der EVSG (Embedded Vision Study Group) beschlossen, um der wachsenden Bedeutung der Embedded Vision Standards gerecht zu werden. Die dreiteilige inVISION-Serie gibt aktuelle Entwicklungen der EVSG wieder. Diese ist in dem internationalen Standardisierungsverbund G3 – bestehend aus den Verbänden AIA, CMVU, EMVA, JIIA und VDMA – eingebunden. Der Report kann als registriertes Mitglied über die VDMA-Homepage, Fachbereich Industrielle Bildverarbeitung (http://ibv.vdma.org), heruntergeladen werden.

Datenverarbeitung in einer embedded Smart Camera kann sich auf verschiedene Typen, von Prozessormodulen verteilen. Bilddaten können z.B. von FPGAs, GPUs und auch ARM-CPUs verarbeitet werden, deren Abfolge nicht fest definiert ist. Hierdurch wird ein flexibles Modell benötigt, das die Prozessormodule als Black Boxes´ mit Ein- und Ausgänge beliebig kombinieren lässt. Dieses erfordert allerdings eine allgemeinere Beschreibung von Datenformaten und -strukturen, die den jeweiligen Ein-/Ausgängen und Kapazitäten angepasst ist. Das Prozessormudul-Netzwerk muss in einer allgemeinen Weise beschrieben werden. Da die Module von unterschiedlichen Herstellern sein können, muss zudem deren Interoperabilität sichergestellt sein. Die Fallbeispiele listen sieben unterschiedliche Szenarien (u.a. 3D Smart Cameras, programmierbare und mit festen Funktionen, basierend auf ARM-CPUs oder FPGA-SoCs) auf. Interessant sind die Vorüberlegungen zu 3D-Kameras, die schon vor der EVSG-Initiierung (s. Kasten) formuliert wurden und ebenso auf den Bedarf einer erweiterten Beschreibung der Datenformate, -strukturen und Semantik hinweisen.

Abwehr von Hackerangriffen

Eine weitere Fallbetrachtung liegt im Bereich der Sicherheitsmechanismen, um Hackerangriffe abzuwehren. Als eine Anforderung im Bereich großer Factory-Floor-Netzwerke ist es zukünftig wichtig, originale Bilddaten oder Ergebnisdaten vom Sender zu verschlüsseln und beim Empfänger zu entschlüsseln und dann zu validieren. Die Anforderungsliste an einen Standardisierungskandidaten umfasst zwölf Einträge. Tabelle 1 zeigt eine Auswahl. Wegen der großen Verbreitung von GenCam in der Bildverarbeitung gab es die Entscheidung, das eine Lösung GenCam-kompatibel sein muss. Die Evaluierung alternativer Lösungen wurde abgebrochen, nachdem sich zeigte, dass eine GenCam Erweiterung praktikabel sein könnte. Die Vorüberlegungen zu Lösungen bei 3D-Kameras beschleunigten den Prozess. Anforderungen an einen IP-Schutz können ausschließlich in Kombination mit Hardwarelösungen integriert werden. Hier wurde neben dem USB-Dongle und der Netzwerkkarten-ID, ein Unique Identifier Chip oder die DNS/FPGA-Seriennummer als vielversprechendste Lösungsansätze gesehen. Hierfür müssten die SFNC und GenTL der GenCam-Spezifikation entsprechend erweitert werden. Die EVSG empfiehlt, GenCam um die Anforderungen im Bereich embedded Systeme zu erweitern. Der Schwerpunkt ist die Unterstützung generischer Datenformate und Prozessormodule. Initiativen mit ähnlichen Anforderungen (Standards für 3D-Zeilensensoren) sollen zukünftig in den Prozess miteinbezogen werden. Die Erweiterungen sollen innerhalb der GenCam-Gruppen ausgearbeitet werden. GenCam ist derzeit bereits ein weitverbreiteter Standard in der Bildverarbeitung. Durch die Implementierungen der Erweiterungen wird er zukünftig auch zu einer essentiellen Schnittstelle für embedded Systeme werden.

Fazit

Der bereits existierende Softwarestandard GenCam und GenTL reichen generell für die Anforderungen an embedded Systeme aus. Dennoch werden einige Erweiterungen empfohlen, um die steigende Komplexität neuer Datenformate und Parameterisierungen von Komponenten abzudecken. Die Anforderungen an die Erweiterungen sind bereits für den Bereich der 3D-Kameras formuliert worden und müssen, um eine Anwendungsbreite zu erreichen, verallgemeinert werden. Die EVSG spricht sich hierbei für eine Erweiterung von GenCam, die Aufnahme generischer Datenformate und von Prozessor-Module aus.

Teil 3 zeigt die Untersuchung und Ergebnisse zum Standardisierungskandidaten für die Schnittstelle zwischen der Kamera und der Verarbeitungsumgebung.

[Die verwendeten Bilder, Tabellen und Grafiken sind Teil der EVSG Studie, die Texte geben ausschließlich Inhalte der EVSG Studie wieder.]

Das könnte Sie auch interessieren

Oberflächen- und Konturmessung in einem Gerät

Das integrierte Messsystem Duo Vario bietet zwei Messverfahren: das Konfokale und die Fokusvariation, für eine Oberflächenanalyse von Rauheit sowie Konturmessungen. Mit dem konfokalen Verfahren können stark reflektierende Oberflächen rückführbar auf herstellerunabhängige Raunormale gemessen werden. Mit dem neuen Gerät ist dies nun auch mit einem größeren Bildfeld und mit einer höheren lateralen Auflösung möglich. Das Fokusvariationsverfahren ist vor allem für die Messung von Formen und Konturen vorteilhaft. Dabei beträgt der Akzeptanzwinkel über 85°.

www.confovis.com

3D-Fotogrammetrie-Kamera mit visueller Projektion

Die Maxshot 3D-Fotogrammetrie-Kamera verbindet eine einfache Bedienung und Genauigkeit mit umfangreichen Größenmessprojekten. Sie kann als einzelnes Messgerät aber auch in Kombination mit Creaforms 3D-Scannern und tragbaren KMMs verwendet werden. Das Gerät ist 40% präziser als der Vorgänger und hat eine volumetrische Genauigkeit von bis zu 0,015mm/m. Eine visuelle Projektion mit Echtzeit-Feedback direkt auf dem Teil, leitet den Nutzer zu der richtigen Position für die Aufnahme.

www.creaform

Reflektivität in voller Bandbreite

Das Interferometer µPhase basiert auf dem Twyman-Green-Prinzip und vermisst hochpräzise Abweichungen in Planität und Sphärizität, mit einer Genauigkeit bis zu 0.01µm. Die berührungsfreie Messung und Auswertung erfolgt dabei großflächig innerhalb von Sekunden.

www.trioptics.com

Anzeige
66. Heidelberger Bildverarbeitungsforum

Das 66. Heidelberger Bildverarbeitungsforum wird am 10. Oktober in Freiburg an der Technischen Fakultät der Albert-Ludwigs-Universität stattfinden. Das diesjährige Schwerpunktthema lautet ‚Mensch-Maschine-Interaktion mit Vision‘ und gibt anhand von verschiedenen Vorträgen einen systematischen Einblick in die Anwendungsfelder, in der Vision-Technologien zur Interaktion mit dem Menschen eingesetzt werden können. Am Ende der Veranstaltung wird es eine große Abschlussdiskussion zur Fazit-Findung geben.

www.bv-forum.de

Anzeige
Yxlon: Neuer Global Director of Electronics Sales

Yxlon International, spezialisiert auf Durchleuchtungs- und CT-Inspektionssysteme, hat Keith Bryant zum neuen Global Director Electronics Sales ernannt. Bryant bringt über 25 Jahre an Erfahrungen im Bereich Technical Sales mit sich, besonders aus dem Bereich X-Ray. Er wird fortan für alle globalen Marktkanäle zuständig sein und dem globalen Salesteam des Unternehmens vorstehen.

www.yxlon.com

Anzeige
Megatrend Embedded Vision

Mit der ersten Embedded Vision Europe (EVE) Konferenz wird Stuttgart vom 12. bis 13. Oktober zur Embedded Vision Hauptstadt Europas. Hauptredner und Aussteller für die Premierenveranstaltung im ICS Stuttgart stehen bereits fest.

www.embedded-Vision-emva.org

Anzeige