Kommunikation Vision – Factory

Machine Vision goes Embedded (Teil 3/3): OPC UA

Für die Bildverarbeitung ist es eine Herausforderung, mit ihren Vision-Standards in heutige Produktionsumgebungen zu gelangen. Zwischen der Bildverarbeitung und Factory Automation gibt es nur wenige Schnittstellen und die Kommunikation ist derzeit leider immer noch sehr limitiert.

Auf dem Future Standards Forum Meeting im April 2015 wurde die Gründung der EVSG (Embedded Vision Study Group) beschlossen, um der wachsenden Bedeutung der Embedded Vision Standards gerecht zu werden. Die EVSG ist in dem internationalen Standardisierungsverbund G3, bestehen aus den Verbänden AIA, CMVU, EMVA, JIIA und VDMA, eingebunden.

Für Systemintegratoren ist dies ein Problem, da Anpassungen individuell vorgenommen werden müssen, z.B. übernehmen E/A-Karten für den Feldbus Schnittstellenaufgaben, um mit der Prozessumgebung zu kommunizieren. Zudem hat die Fertigungsautomation eine große Auswahl an Feldbus-Hardware-Standards, aber keine Software-Standards. Die vertikale Integration in höhere Ebenen – wie z.B. ERP oder MES – ist daher extrem aufwendig. Der niedrige Investitionswert von Embedded-Komponenten erweist sich zudem als problematisch, da kaum Budget für eine komplexe Software-Integration zur Verfügung steht. Bis heute sind daher Machine Vision und Factory Automation strikt getrennt, da es keinen Software Layer zwischen beiden Welten gibt. Weder für das Detektieren und die Steuerung vorhandener Komponenten, noch für Gerätekommunikation und Austausch von Messergebnissen. Die Situation ist insoweit unglücklich, da die Bildverarbeitung erprobte Software-Standards besitzt, die im Fertigungsbereich genutzt werden könnten. Das Problem ist, dass die Steuerungswelt derzeit noch keinen Zugang ermöglicht, da die Feldbusse keinen Software-Standard bieten. Das Ziel der Embedded Vision Study Group (EVSG) war es daher, Wege zu finden, um (Embedded)-Vision-Systeme in Fertigungsumgebungen zu integrieren. Die Aufgaben der EVSG waren…

  • • Verständnis über die bei Industrie 4.0 (I4.0) verwendeten Software-Standards und deren Auswirkungen auf die Bildverarbeitung zu bekommen
  • • Mögliche Kooperationen mit I4.0-Standards zu untersuchen
  • • Wege zu finden, um Kompatibilitäten zu existierenden Machine-Vision-Standards zu erreichen.

OPC UA als Basis

Industrie 4.0 ist ein komplexes System von Spezifikationen, das den gesamten Produktionsprozess und den Produktlebenszyklus abdeckt. Im Reference Architecture Model for Industry 4.0 (Rami 4.0) wird eine alleinige Empfehlung für OPC UA (OPC unified architecture) als Standard ausgesprochen. OPC UA bietet ein erprobtes Software-Modell, bei dem industriespezifische Definitionen Teil von OPC UA sind, die in sogenannten Companion Specifications ausgeführt werden. Als möglicher Technologiekandidat wurde von der EVSG der GenICam-Standard aus der Bildverarbeitung als Companion-Standard evaluiert. OPC UA ist ein Protokoll für die industrielle Kommunikation für Geräte aus den Bereichen Factory Floor, Laborausstattung, Testausrüstungen oder Datenbanken. Steuerungssysteme, Scada, MES und ERP wurden bereits standardisiert in der Norm IEC62541. OPC UA bietet eine übergreifende SOA (service-oriented architecture)-Plattform für die Prozesssteuerung, Transfer und semantische Repräsentation von machine-lesbaren Daten sowie die Möglichkeit einer sicheren und zuverlässigen Kommunikation von Embedded-Geräten zu (Unternehmens-)Clouds. Das Protokoll von OPC UA ist TCP-IP basiert und bietet über UA XML den Austausch von nicht zeitkritischen Daten zwischen Mensch und Maschine an. UA Binary ist eine schnellere Mensch-Maschinen-Kommunikation, aber weder für hohe Videodatenströme ausgelegt, noch echtzeitfähig. OPC UA ist zwar kein Feldbus, für intelligente Kameras mit Übertragung vorverarbeiteter und komprimierter Bildströme könnte die Leistung aber ausreichen. Weiterhin wurden bereits OPC- UA-Verbesserungen diskutiert:

  • • Unterstützung von TSN (Time Sensitive Network IEEE 802.1)
  • • UDP (1:n) Broadcast-Erweiterungen

Die OPC UA Companion Specifications beinhaltet keine semantische Spezifikation. Sie beschreibt das wie, jedoch nicht das was. Die OPC Foundation ist an einer Zusammenarbeit mit der Machine Vision Community interessiert. Die pragmatischste Herangehensweise ist die Übernahme der SFNC als Semantik. Die Fallbeispiele listen fünf unterschiedliche Szenarios (Smart Cameras, Robotersteuerung, Überwachung, HMI-Schnittstelle, Service und Wartung) auf. Die Anforderungsliste umfasst 28 Einträge. Vorteile, die sich aus der Zusammenarbeit mit OPC UA ergeben:

  • • Eine schnellere Integration von Machine Vison in die Factory Floor Software (ERP/MES). Dieses wird auch eine schnellere Integration von Bildverarbeitungssystemen mit sich bringen. Ebenso wird sich die Akzeptanz der Bildverarbeitung erhöhen.
  • • Machine Vision wird direkt in die PLC-Software integriert. Vorteil ist eine reduzierte Time-to-Market und eine höhere Kundenakzeptanz.
  • • OPC UA, kombiniert mit der Machine-Vision-Semantik, ermöglicht die Entwicklung generischer HMI-Schnittstellen für Machine-Vison-Komponenten. Hersteller von Embedded-Sensoren und HMI müssen nicht dieselben sein. Der Vorteil ist eine schnellere Produktentwicklung und eine höhere Nutzerfreundlichkeit.
  • • Direkte Integration von embedded/ smart Cameras und Sensoren in die Produktionslinie. Neue Anwendungsklassen können abgedeckt werden, was vorteilhaft für die Wettbewerbsfähigkeit der Bildverarbeitung gegenüber der Vision-Sensor-Hersteller ist.
  • • Embedded Vision wird die Bildverarbeitung in der Factory Floor Automation im Allgemeinen definieren. Dies ermöglicht es, die Bildverarbeitung voranzutreiben und neue Anwendungen abzudecken.

Fazit

OPC UA gibt der industriellen Bildverarbeitung zukünftig die Möglichkeit mit dem Factory Floor zu kommunizieren. Die Empfehlung der EVSG ist es, GenICam als Companion-Spezifikation für OPC UA einzubringen. Die Spezifikation wird GenICam kompatibel sein, wobei der Schwerpunkt auf der Semantik des Software-Modells liegt. Ein unabhängiger Arbeitskreis oder eine GenICam-Untergruppe soll diese Spezifikation zeitnah ausarbeiten.

Das könnte Sie auch interessieren

Direktes Feedback aus der Linie

Auf dem Weg zur Losgröße 1 müssen Karosseriebauer schon heute eine wachsende Variantenvielfalt auf ein und derselben Produktionslinie bewältigen. Dies erfordert immer kürzere Anlaufzeiten für den Produktionsprozess und eine gleichbleibend hohe Prozesssicherheit trotz kurzfristiger Anpassungen. Genau auf diese Anwendungen ist der optische 3D-Sensor AIMax Cloud zugeschnitten.

www.zeiss.de

Anzeige

Embedded Vision gewinnt immer mehr an Bedeutung. Getragen durch technische Trends auf beiden Seiten verschmelzen Computer Vision und Embedded-Systeme zunehmend zu Embedded-Vision-Systemen. Doch leistungsstarke Machine-Vision-Kameras waren bisher aus technischen und Kostengründen der Embedded-Fachwelt weitgehend vorenthalten. Mit einer neuen Kameraplattform soll sich das jetzt ändern.

www.alliedvision.com

Anzeige
Xilinx investiert in Deephi Tech

Das Unternehmen Xilinx hat bekannt gegeben, dass es in den Machine-Learning-Pionier Deephi Tech investiert hat. Deephi Tech wurde von Forschern und Experten der Tsinghua Universität und der Stanford Universität gegründet und ist spezialisiert auf Deep-Compression, Optimierungen der Systemebene und Kompilierungen der Toolchain bei Machine-Learning-Plattformen.

www.xilinx.com

Korrelationsfreies Inline-Messen

Die industrielle Messtechnik ist wesentlicher Bestandteil einer Industrie 4.0. Was sie bereits heute imstande ist zu leisten, verrät uns Dr. Kai-Udo Modrich, Geschäftsführer der Carl Zeiss Automated Inspection.

www.zeiss.de

Anzeige
Deutsch-österreichisches Team gewinnt Argos Challenge

Das ‚Argonauts‘-Team, bestehend aus Informatikern der Technischen Universität Darmstadt und dem Kooperationspartner Taurob GmbH, eine Wiener Roboterfirma, konnte sich dabei gegen eine starke internationale Konkurrenz durchsetzen. Zu der mit 500.000€ dotierten Challenge für intelligente Inspektionsroboter auf Öl- und Gasplattformen hatte das Mineralölunternehmen Total aufgerufen.

www.tu-darmstadt.de

Anzeige
Chii bisher mit 120 Teilnehmern

Vom 7.-8. Juni findet zum zweiten Mal die Hyperspectral Imaging Conference chii in Graz statt. Mittlerweile haben sich bereits 120 Teilnehmer angemeldet, Tendenz stark steigend. Das komplette Vortragsprogramm beider Tage ist mittlerweile online. Anmeldungen sind noch möglich.

 

www.chii

Anzeige