Anzeige
Anzeige
Anzeige

Mehr als ein Gateway

Edge Computing für Machine-Vision-Anwendungen

Edge Computer erlauben die Anbindung von Maschinen mit Bildverarbeitungssystemen an die Cloud. Sie managen zwischen den verschiedenen Clouddiensten, lokal installierten Programmen und autark arbeitenden intelligenten Visionkomponenten.

 Die EdgeBox ist das Tor zwischen Cloudservices, lokaler Rechenpower und angeschlossenen Vision-Komponenten. Der Acht-Kern-Prozessor kann sowohl auf der Linux- als auch der Cloudseite Rechenleistung zur Verfügung stellen und unterscheidet sich damit von einem einfachen Gateway. (Bild: Imago Technologies GmbH)

Bild 1 | Die EdgeBox ist das Tor zwischen Cloudservices, lokaler Rechenpower und angeschlossenen Vision-Komponenten. Der Acht-Kern-Prozessor kann sowohl auf der Linux- als auch der Cloudseite Rechenleistung zur Verfügung stellen und unterscheidet sich damit von einem einfachen Gateway. (Bild: Imago Technologies GmbH)

Am Arbeitsplatz nehmen Sie Ihr Tablet in die Hand und sehen sofort die Zustände und Statistiken Ihrer irgendwo auf der Welt agierenden Maschinen. Via Cloud-Services greifen Sie dann auf den Cloudrechner und die daran angeschlossenen Geräte zu, wie z.B. Visionsysteme, Smart Cameras oder (Vision) Sensoren. Direkt nach ferngesteuertem Update durch den zuständigen Experten, starten Sie die Vision-Anwendung neu, und die Maschine reagiert umgehend mit den neuen Bildverarbeitungsfunktionen. Für den einen oder anderen großen Maschinenbaukonzern ist dies keine Neuigkeit. Nur wie gestaltet es sich mit diesen Ideen in mittelständischen Firmen? Wie sieht real die Technik aus, um Industrie 4.0- bzw. IoT-Ansätze umzusetzen? Wie geht man dabei insbesondere mit Bildverarbeitungssystemen um, bei denen nicht nur ein paar Bytes, sondern komplette Bilder verarbeitet werden? Reicht die Übertragung von Metadaten aus? Fragen die beantwortet werden müssen, wenn eine Maschine ausgiebig Bildverarbeitung einsetzt. Gleich mehrere Ziele werden mit der Cloudtechnologie für die Bildverarbeitung erreicht: Serienmaschinenbauer, die diese weltweit verkaufen, möchten Daten und Statistiken ihrer Maschinen haben, um diese warten und verbessern zu können. Aus den Visionsystemen lassen sich Daten generieren und Bilder übertragen, um die Maschine schnell an neue Situationen anzupassen. Zudem muss der Hersteller in das Visionsystem ein Update einspielen können. Überflüssig? Nur solange bis der Wettbewerber mit eben diesen Features punktet. Somit wird es Zeit, über die Kette von der Cloud bis zum (Vision) Sensor nachzudenken.

Edge Computing & Security

Starten wir beim obigem Szenario und arbeiten uns dann schrittweise bis zum Vision Sensor vor. Zentrale Schnittstelle zur Außenwelt ist der Edge Computer. Mit Edge Computing wird die Schnittstelle zwischen der Maschine und dem Internet beschrieben. Auf dem Edge Computer selbst können Clouddienste ablaufen, das heißt die Cloudservices großer Anbieter können ihre Dienste auf lokalen Rechnern ablaufen lassen, ohne dass hierfür Serverfarmen erforderlich sind. Auch können die lokalen Clouddienste mit weiteren Diensten aus der Cloud kombiniert werden, je nachdem wo sensible Daten verarbeitet werden sollen (z.B. Microsoft Azure). Die Kante (Edge) ist somit das Tor zwischen Cloudservices, lokaler Rechenpower und angeschlossenen Komponenten. Wichtig ist hier ein oft unterschätztes Thema: Security! Angriffe von außen dürfen nicht erfolgreich sein, das heißt der Edge Computer muss sicher sein. Konsens ist dabei, dass die untersten Ebenen eines Computers kryptographisch mit der Hardware gekoppelt sind, das heißt die kryptographischen Verfahren um den Rechner sicher zu booten, sowie Firmware, Treiber und Software zu laden, werden hardwareseitig abgesichert. Dies wird in einem separaten Chip oder im Prozessor selbst bereitgestellt. Die Multicore-CPU ARM Cortex-A72 der neuen EdgeBox von Imago hat derartige Komponenten bereits integriert und kann mit kryptographischen Verfahren die Firmware absichern. Der frei programmierbare Rechner bietet zudem eine Arbeitsplattform mit einem abgesicherten Linux OS, sowie die Implementierung von Cloudservices an. Der Acht-Kern-Prozessor kann sowohl auf der Linuxseite, als auch auf der Cloudseite Rechenleistung zur Verfügung stellen, und unterscheidet sich damit von einem einfachen Gateway.

 

Vision-Komponenten

An die EdgeBox können alle Geräte angeschlossen werden, die per Ethernet kommunizieren. Angefangen bei GigE- bis hin zu 10GigE-Kameras läuft die Bildverarbeitung gegebenenfalls direkt auf dem Rechner, wie in einer VisionBox. Die Daten (Ergebnisse, Statistiken, Fehlermeldungen, Fehlerbild…) werden konsolidiert an die Cloudservices übergeben. Weitere an die EdgeBox angeschlossene Visionsysteme, beispielsweise auf Basis der VisionCam oder VisionBox, liefern zusätzliche Metadaten. Diese können mit anderen Metadaten korreliert und konsolidiert werden. Welche Protokolle zwischen Visionsystem und EdgeBox ablaufen ist dabei zweitrangig, da auf allen Komponenten z.B. OPC UA implementiert werden kann. Auch intelligente Kameras oder Vision Sensoren können direkt angesprochen werden. Imago liefert hierfür ein individuelles Baukastensystem: Auf ARM-basierten Linuxrechnern, ausgestattet mit verschiedenen Flächen- oder Zeilensensoren, implementieren Sie die Anwendung. Der Trick in der Nutzung einer Linux-basierten, frei programmierbaren VisionCam oder eines VisionSensors kommt aus der Ingenieursphantasie: Während die mit fertigen, parametrierbaren Applikationssoftwares ausgestatteten Smart Kameras die Aufgabe ‚irgendwie‘ lösen müssten, sieht der Bildverarbeitungsingenieur sofort die Einfachheit der Anwendung, programmiert mit wenigen Operatoren eine schlanke Lösung und denkt sogleich darüber nach, welche Daten für die EdgeBox bzw. die Cloudservices erforderlich sind. Warum sich mit Daten und Funktionen ärgern, die keiner benötigt und die den gesamten Vorgang zu komplex machen? Abhängig von der lokalen Aufgabe kann der Anwender entscheiden, ob ein VisionSensor, eine VisionCam (mit mehr Rechenleistung) oder ein VisionBox-Kamerasystem die Aufgabe am besten löst. Entsprechende Algorithmen sorgen für die entsprechende Performance. Aufgabenabhängig leitet man die Metadaten oder Bildausschnitte (z.B. Entscheidungen in der Grauzone oder von mehreren Systemen) an die übergeordnete EdgeBox weiter.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Mit Ansprechzeiten von 0,5ms lässt sich mit dem Weißlicht-Farbsensor FSB10 die Anwesenheit von farbigen Objekten und deren Qualität kontrollieren.‣ weiterlesen

www.di-soric.com

Anzeige

The ultrahigh-speed camera Phantom v1840 provides a very high image quality at 18Gpix/sec. It has the lowest noise floor of any Phantom camera and a high 64dB dynamic range.‣ weiterlesen

www.visionresearchinc.net

Anzeige

NaturalIQ is an AI approach that allows customers to automate subjective camera tuning by learning image quality (IQ) preferences from their own natural image datasets.‣ weiterlesen

www.algolux.com

Anzeige

Der Farbsensor CFO200 hebt die True Color Farberkennungssensoren der Reihe CFO auf eine neue Leistungsstufe. Bei einer Messfrequenz von 20kHz lassen sich 320 Farben in 254 Farbgruppen mit höchster Farbgenauigkeit detektieren.‣ weiterlesen

www.micro-epsilon.de

Anzeige

Nach der Weiterentwicklung des LineFinder IP-Cores, der in der MV1 Kameraserie verwendet wird, hat Photonfocus den IP-Core in vier MV0 Kameramodellen implementiert. ‣ weiterlesen

www.photonfocus.com

Die webbasierte Konfigurationsoberfläche und Ergebnisanzeige machen die Einrichtung der intelligenten Infrarotkameras der IRSX-Serie für thermische Überwachungsaufgaben einfach.‣ weiterlesen

www.automationtechnology.de

Anzeige
Anzeige
Anzeige