Anzeige
Anzeige

Embedded Only

KI und Embedded Vision Trends der Embedded World 2020

Die Embedded World 2020 war aufgrund des Coronavirus von der Absage zahlreicher Firmen betroffen. Dennoch gab es zahlreiche interessante Neuheiten zu Embedded Vision und KI auf der Messe zu sehen, die in diesem Nachbericht kurz vorgestellt werden.

Auf der Embedded World 2020 fand die Podiumsdiskussion ‚Embedded Vision everywhere‘ statt. Anwender (Stil, CST) und Hersteller (Allied Vision, Congatec, Cubemos, Vision Components) diskutierten dabei über Trends und Entwicklungen sowie die Rolle von KI. (Bild: TeDo Verlag GmbH

Mit Hinweis auf die Verbreitung des Coronavirus hatten etwa 200 Unternehmen ihre Messeteilnahme kurzfristig zurückgezogen, so dass am Ende über 900 Aussteller da waren. Die Besucherzahl lag daher auch mit rund 13.800 deutlich niedriger als in den Vorjahren. Am ersten Messetag wurden die embedded awards vergeben. Sieger in der Kategorie Embedded Vision ist die DC Vision Systems (www.dc-visionsystems.com) für den DC-SVP (Stereo Vision Processor). Dieser vereint eine Stereokamera und elektronische Steuereinheit mit einem integrierten Prozessor und einem auf FPGA-Technologie basierenden Hardwarebeschleuniger. In der Firmware ist eine Stereo-Bildverarbeitungs-Pipeline implementiert. Dies ermöglicht in Echtzeit die Messung von 3D-Geometrien direkt auf der Kamera. Zudem haben Enclustra (www.enclustra.com) und hema electronic (www.hema.de) auf der Messe eine Kooperationsvereinbarung verkündet. Der Schweizer FPGA-Spezialist wird ab dem 1. Mai sein Angebot im Bereich standardisierter FPGA-Module über eine Niederlassung am hema Standort in Aalen anbieten.

Kamera(-module)

Die Systemarchitektur der intelligenten Kameraserie iam von NET (www.net-gmbh.com) mit CPU und FPGA auf einem Chip ermöglicht eine höhere Systemleistung. Mit den zusätzlichen FPGA-Ressourcen können neuronale Netze und konventionelle Algorithmen effizienter für die Bildverarbeitung genutzt werden und Anwender ohne VHDL-Kenntnisse erstmalig die FPGA-Ressourcen für eigene Lösungen nutzen. Mit den MIPI- und FPD-Link Kameras von The Imaging Source (www.theimagingsource.com) ist in Kombination mit dem Nvidia Jetson Nano SDK ein Einstieg in Embedded Vision- und KI-Projekte möglich. Mit vortrainierten neuronalen Netzwerken von Nvidia und MVTec lassen sich Objekterkennungsaufgaben realisieren. Mit einer FPD-Link III-Bridge, bestehend aus einem Serializer-Board auf der Kameraseite und einem Deserializer Board auf der Nvidia Nanoseite, sind Kabellängen bis zu 15m möglich. Der in eine Platinenkamera von Vision Components (www.vision-components.com) integrierte Quad-Core-Prozessor Snapdragon 410 von Qualcomm ist mit 1,2GHz getaktet. Die Kamera bietet eine GigE-Schnittstelle, zwölf GPIOs, 1GB Arbeitsspeicher und 16GB Flash-Memory. Über Zusatzplatinen lassen sich ein SD-Karten-Slot und diverse weitere Schnittstellen ergänzen. Die Alvium MIPI CSI-2 Kamera 1800 C-040 von Allied Vision (www.alliedvision.com) ist mit dem Sony IMX287 Sensor ausgestattet und bietet eine Auflösung von 0,4MP und bis zu 292fps. Ausgestattet mit dem Sony IMX273 Sensor, bietet die Alvium 1800 C-158 dagegen 1,6MP und bis zu 154fps. Die neuen phyCAM-m Kameramodule VM-016 und VM-017 mit MIPI CSI-2 Schnittstelle von Phytec (www.phytec.de) erreichen bei voller 5MP-Auflösung bis zu 60fps. Basler (www.baslerweb.com) hat kurzfristig seinen Messeauftritt gecancelt, aber bereits im Vorfeld ein Kameramodul vorgestellt, das auf die i.MX 8m Plus Prozessor-Reihe von NXP abgestimmt ist. Dieser verfügt über einen ISP, der Dual Camera Support bereitstellt und Echtzeitverarbeitung für gestochen scharfe Bilder ermöglicht. Ein neuronaler Netzwerkbeschleuniger liefert bis zu 2,3Tops. Für das Sensormodul Ecosystem von Framos (www.framos.com) sind zahlreiche Sensormodule (FSM) für verschiedenste Anwendungen hinzugekommen. Für alle neuen FSM-Sensormodule stehen entsprechende Sensor- und Prozessoradapter (FSA, FPA), Treiber und Referenzschaltpläne zur Verfügung. Brillenlose 3D-Digitalmikroskopie ermöglicht das Aegolus System, das aus einem 3D-Kamerasystem mit zwei Kameras und einem 3D-Monitor besteht, der ohne 3D-Brille nutzbar ist. Die Kameraköpfe von Solectrix (www.solectrix.de) liefern hierfür je bis zu 30fps in 4K-UHD-Auflösung. Die Verarbeitungszeit von Bildaufnahme bis zur Anzeige liegt unterhalb 50ms.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Das Pallet Detection System arbeitet mit Time-of-Flight-Technologie (ToF) und hat das Ziel, die Produktivität bei Logistikprozessen zu erhöhen und die Effektivität von Automated Guided Vehicles (AGVs) zu verbessern.‣ weiterlesen

www.ifm-electronic.com

Anzeige

GenDC ist das jüngste Mitglied der GenICam™ (Generic Interface for Cameras) Standardfamilie, die sich als gemeinsame Basis für Plug-and-Play-Schnittstellen zu Kameras und Geräten etabliert hat. GenDC steht für "Generic Data Container" und definiert eine Datenbeschreibung, die unabhängig von der physikalischen Schnittstelle ist. GenDC ermöglicht es, Bilddaten in nahezu jeder Form an ein Hostsystem zu senden oder von diesem zu empfangen. Dabei verwendet GenDC eine einheitliche und standardisierte Datenbeschreibung. GenDC vervollständigt die GenICam-Familie von transportmedienunabhängigen Modulen, die Daten zwischen bildgebenden Geräten steuern und austauschen.‣ weiterlesen

www.emva.org

Anzeige

Gleich drei virtuelle Messen veranstaltet aktuell der TeDo Verlag: die inVISION Show, die Industry Show und die Smart Robotics Show. Für Anwender von Bildverarbeitung und Messtechnik ist dabei die inVISION Show besonders interessant. ‣ weiterlesen

Anzeige

Ein neues Verfahren zur Auswertung interferometrischer Messdaten ermöglicht es, die Auswirkungen externer Störeinflüsse deutlich zu reduzieren. Im Gegensatz zu anderen Methoden, die teilweise Artefakte erzeugen, deren Amplitude größer als die der Störungen sind, ist es robuster und erfordert keine explizite Identifizierung der externen Störeinflüsse.‣ weiterlesen

www.polytec.de

Anzeige

Das Pallet Detection System arbeitet mit Time-of-Flight-Technologie (ToF) und hat das Ziel, die Produktivität bei Logistikprozessen zu erhöhen und die Effektivität von Automated Guided Vehicles (AGVs) zu verbessern. ‣ weiterlesen

www.ifm.com

Anzeige

ActiNav is a new UR+ application kit that simplifies the integration of autonomous bin picking of parts and accurate placement in machines using UR cobots. It synchronously handles vision processing, collision-free motion planning and autonomous real-time robot control.‣ weiterlesen

www.universal-robots.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige