Anzeige

Mehr als ein Gateway

Edge Computing für Machine-Vision-Anwendungen

Edge Computer erlauben die Anbindung von Maschinen mit Bildverarbeitungssystemen an die Cloud. Sie managen zwischen den verschiedenen Clouddiensten, lokal installierten Programmen und autark arbeitenden intelligenten Visionkomponenten.

 Die EdgeBox ist das Tor zwischen Cloudservices, lokaler Rechenpower und angeschlossenen Vision-Komponenten. Der Acht-Kern-Prozessor kann sowohl auf der Linux- als auch der Cloudseite Rechenleistung zur Verfügung stellen und unterscheidet sich damit von einem einfachen Gateway. (Bild: Imago Technologies GmbH)

Bild 1 | Die EdgeBox ist das Tor zwischen Cloudservices, lokaler Rechenpower und angeschlossenen Vision-Komponenten. Der Acht-Kern-Prozessor kann sowohl auf der Linux- als auch der Cloudseite Rechenleistung zur Verfügung stellen und unterscheidet sich damit von einem einfachen Gateway. (Bild: Imago Technologies GmbH)

Am Arbeitsplatz nehmen Sie Ihr Tablet in die Hand und sehen sofort die Zustände und Statistiken Ihrer irgendwo auf der Welt agierenden Maschinen. Via Cloud-Services greifen Sie dann auf den Cloudrechner und die daran angeschlossenen Geräte zu, wie z.B. Visionsysteme, Smart Cameras oder (Vision) Sensoren. Direkt nach ferngesteuertem Update durch den zuständigen Experten, starten Sie die Vision-Anwendung neu, und die Maschine reagiert umgehend mit den neuen Bildverarbeitungsfunktionen. Für den einen oder anderen großen Maschinenbaukonzern ist dies keine Neuigkeit. Nur wie gestaltet es sich mit diesen Ideen in mittelständischen Firmen? Wie sieht real die Technik aus, um Industrie 4.0- bzw. IoT-Ansätze umzusetzen? Wie geht man dabei insbesondere mit Bildverarbeitungssystemen um, bei denen nicht nur ein paar Bytes, sondern komplette Bilder verarbeitet werden? Reicht die Übertragung von Metadaten aus? Fragen die beantwortet werden müssen, wenn eine Maschine ausgiebig Bildverarbeitung einsetzt. Gleich mehrere Ziele werden mit der Cloudtechnologie für die Bildverarbeitung erreicht: Serienmaschinenbauer, die diese weltweit verkaufen, möchten Daten und Statistiken ihrer Maschinen haben, um diese warten und verbessern zu können. Aus den Visionsystemen lassen sich Daten generieren und Bilder übertragen, um die Maschine schnell an neue Situationen anzupassen. Zudem muss der Hersteller in das Visionsystem ein Update einspielen können. Überflüssig? Nur solange bis der Wettbewerber mit eben diesen Features punktet. Somit wird es Zeit, über die Kette von der Cloud bis zum (Vision) Sensor nachzudenken.

Edge Computing & Security

Starten wir beim obigem Szenario und arbeiten uns dann schrittweise bis zum Vision Sensor vor. Zentrale Schnittstelle zur Außenwelt ist der Edge Computer. Mit Edge Computing wird die Schnittstelle zwischen der Maschine und dem Internet beschrieben. Auf dem Edge Computer selbst können Clouddienste ablaufen, das heißt die Cloudservices großer Anbieter können ihre Dienste auf lokalen Rechnern ablaufen lassen, ohne dass hierfür Serverfarmen erforderlich sind. Auch können die lokalen Clouddienste mit weiteren Diensten aus der Cloud kombiniert werden, je nachdem wo sensible Daten verarbeitet werden sollen (z.B. Microsoft Azure). Die Kante (Edge) ist somit das Tor zwischen Cloudservices, lokaler Rechenpower und angeschlossenen Komponenten. Wichtig ist hier ein oft unterschätztes Thema: Security! Angriffe von außen dürfen nicht erfolgreich sein, das heißt der Edge Computer muss sicher sein. Konsens ist dabei, dass die untersten Ebenen eines Computers kryptographisch mit der Hardware gekoppelt sind, das heißt die kryptographischen Verfahren um den Rechner sicher zu booten, sowie Firmware, Treiber und Software zu laden, werden hardwareseitig abgesichert. Dies wird in einem separaten Chip oder im Prozessor selbst bereitgestellt. Die Multicore-CPU ARM Cortex-A72 der neuen EdgeBox von Imago hat derartige Komponenten bereits integriert und kann mit kryptographischen Verfahren die Firmware absichern. Der frei programmierbare Rechner bietet zudem eine Arbeitsplattform mit einem abgesicherten Linux OS, sowie die Implementierung von Cloudservices an. Der Acht-Kern-Prozessor kann sowohl auf der Linuxseite, als auch auf der Cloudseite Rechenleistung zur Verfügung stellen, und unterscheidet sich damit von einem einfachen Gateway.

 

Vision-Komponenten

An die EdgeBox können alle Geräte angeschlossen werden, die per Ethernet kommunizieren. Angefangen bei GigE- bis hin zu 10GigE-Kameras läuft die Bildverarbeitung gegebenenfalls direkt auf dem Rechner, wie in einer VisionBox. Die Daten (Ergebnisse, Statistiken, Fehlermeldungen, Fehlerbild…) werden konsolidiert an die Cloudservices übergeben. Weitere an die EdgeBox angeschlossene Visionsysteme, beispielsweise auf Basis der VisionCam oder VisionBox, liefern zusätzliche Metadaten. Diese können mit anderen Metadaten korreliert und konsolidiert werden. Welche Protokolle zwischen Visionsystem und EdgeBox ablaufen ist dabei zweitrangig, da auf allen Komponenten z.B. OPC UA implementiert werden kann. Auch intelligente Kameras oder Vision Sensoren können direkt angesprochen werden. Imago liefert hierfür ein individuelles Baukastensystem: Auf ARM-basierten Linuxrechnern, ausgestattet mit verschiedenen Flächen- oder Zeilensensoren, implementieren Sie die Anwendung. Der Trick in der Nutzung einer Linux-basierten, frei programmierbaren VisionCam oder eines VisionSensors kommt aus der Ingenieursphantasie: Während die mit fertigen, parametrierbaren Applikationssoftwares ausgestatteten Smart Kameras die Aufgabe ‚irgendwie‘ lösen müssten, sieht der Bildverarbeitungsingenieur sofort die Einfachheit der Anwendung, programmiert mit wenigen Operatoren eine schlanke Lösung und denkt sogleich darüber nach, welche Daten für die EdgeBox bzw. die Cloudservices erforderlich sind. Warum sich mit Daten und Funktionen ärgern, die keiner benötigt und die den gesamten Vorgang zu komplex machen? Abhängig von der lokalen Aufgabe kann der Anwender entscheiden, ob ein VisionSensor, eine VisionCam (mit mehr Rechenleistung) oder ein VisionBox-Kamerasystem die Aufgabe am besten löst. Entsprechende Algorithmen sorgen für die entsprechende Performance. Aufgabenabhängig leitet man die Metadaten oder Bildausschnitte (z.B. Entscheidungen in der Grauzone oder von mehreren Systemen) an die übergeordnete EdgeBox weiter.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Aeva gibt eine Series-A-Finanzierungsrunde bekannt, die von Lux Capital und Canaan geleitet wird und folgt einer Seed-Runde über 3,5Mio.$ aus dem Jahr 2017. Die Investitionen sollen für den Ausbau des Geschäftsbetriebs verwendet werden, mit dem Ziel, Sensoren für autonome Fahrzeuge ab Anfang der 2020er Jahre in großem Umfang an Auto- und Technologiekunden liefern zu können.

venturebeat.com

Anzeige

Stemmer Imaging hat die Termine für seine Machine Vision Technology Roadshow 2019 bekannt gegeben. Vom 8. bis 9. Oktober 2019 findet das Technologieforum in Unterschleissheim bei München statt, danach in den Niederlanden (15.10.), Frankreich (17.10.), Schweden (22.10.) und zum Abschluss in Großbritannien (13.-14.11.).

www.stemmer-imaging.com

Anzeige

Die VDMA Fachabteilung Industrielle Bildverarbeitung hat im Rahmen der Eröffnung der Vision die aktuellen Branchenzahlen veröffentlicht. Die Deutsche Bildverarbeitunsbranche wuchs im Geschäftsjahr 2017 um 17,5%. Für 2018 rechnet der VDMA nach aktuellen Umfragen damit, dass das Rekordniveau von 2,6Mrd.€ gehalten wird.

rua.vdma.org

Anzeige

Der EMVA und die Messe Vision werden im nächsten Jahr die zweite Embedded Vision Europe organisieren. Die Konferenz findet dann vom 24. bis 25. Oktober 2019 erneut im Stuttgarter ICS statt. Zur Premiere kamen im letzten Jahr bereits 200 Teilnehmer.

www.emva.org

Anzeige

Knapp 85 Teilnehmer aus dem oberen Management der Bildverarbeitungsbranche nahmen am zweiten Early Bird Event der inVISION am Mittwoch Morgen auf der Messe Vision teil.

www.tedo-verlag.de

Die Unternehmen haben während der Vision eine HDR-Videoüberwachungslösung vorgestellt, die kontrastreiche Szenen (120dB) mit 1080p und 30fps aufnehmen kann. Das System, das auf dem Xilinx Zynq 7030 SoC basiert, ist auf die Erfassung von Highlight- und Schattendetails ausgelegt und soll einen besonders hohen Dynamikumfang bieten. Hierzu wurde der Pinnacle Denali-MC HDR ISP mit dem AR0239 CMOS-Bildsensor von ON Semiconductor kombiniert.

www.onsemi.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige