Anzeige
Anzeige
Anzeige

Jenseits der FPGA-Grenzen

All Programmable SoCs für die Bildverarbeitung

Vernetzte Steuerungen mit smartem Zugriff für industrielle und Consumer-orientierte Systeme sind eine Alternative zu traditionellen Software-Lösungen mit eingebetteter Verarbeitung. Eine All Programmable SoC (System-on-Chip) Plattform bietet dagegen höhere Performance, einfache Systemintegration und Interconnect, höheren Datendurchsatz und Flexibilität für rechenintensive Applikationen und ist ideal für die Bildverarbeitung.
Smarte Systeme mit schneller Datenverarbeitung, lokaler Entscheidungsfähigkeit und breitbandiger Netzwerkanbindung sind die Schlüsselelemente für künftige Verkehrsleitsysteme mit unterliegender Car-to-Car-Kommunikation oder für die industrielle Robotik mit durchgehend automatisierter Fertigung und simultaner Abarbeitung digitaler Steueralgorithmen in mehreren Achsen. Auf der anderen Seite dieser Gleichung steht die immer leistungsfähigere Bilderkennung mit Echtzeitverarbeitung, wie sie in Fahrer-Assistenzsystemen, in der industriellen Qualitätskontrolle oder in Überwachungskameras mit komplexer Netzwerkanbindung gefragt sind. Die steigenden Erwartungen an smart vernetzte Applikationen treiben die Highspeed-Verarbeitung auch in der digitalen Bildverarbeitung/-analyse voran. Die Verarbeitung von Steuersignalen soll dabei möglichst in den Außenbereichen der Netze stattfinden, statt in konventionell zentralisierten Architekturen. Beispiele dafür sind weiträumig vernetzte Sicherheits- und Überwachungssysteme mit hoch auflösenden Farb-Videoformaten, die nur die analytisch relevanten Daten übertragen und komplexe Vergleiche mit biometrischen Datenbasen ausführen.

Echtzeitverarbeitung mit FPGAs

Im Kontext der Fertigungsautomation verwenden komplexe Montagesysteme heute ausgefeilte Bilderkennungs-Algorithmen für Inspektionsaufgaben oder zum Sortieren der erfassten Gegenstände mit hoher Geschwindigkeit nach vorgegebenen Kriterien, wie z.B. deren Erscheinungsbild oder dem Vorhandensein von Qualitätsdefekten. Auch Sicherheitsvorrichtungen verwenden zunehmend smarte Vernetzungen zum besseren Schutz des Personals. So werden virtuelle Sicherheitsbarrieren mit zwei oder mehr Videokameras implementiert, um den Gefahrenraum von Fertigungsmaschinen zu überwachen oder andere Gefahren zu berücksichtigen, die mit physikalischen Barrieren nicht zufriedenstellend beherrscht werden können. In derartigen Fällen ist meist eine Echtzeitverarbeitung notwendig. Das ist mit den zentralisierten und software-basierten Verfahren der Bildverarbeitung kaum zu leisten. Seit einiger Zeit setzen die Entwickler von eingebetteten Hochleistungs-Echtzeitsystemen daher FPGAs ein, um diejenigen Funktionen zu beschleunigen, die im Hauptprozessor oder per DSP nicht schnell genug ausgeführt werden können. Dabei zeigt sich, dass sicherheitskritische Systeme signifikant einfacher zu validieren sind, wenn sie in Hardware implementiert sind. Das erlaubt den Verzicht auf rigorose Testverfahren für die sicherheitskritische Software. Dieser Trend nimmt zunehmend an Fahrt auf. Inzwischen überschreiten die Anforderungen an die Performance in einigen Applikationen den auf der Leiterplatte möglichen Interconnect zwischen separaten Prozessoren und FPGA-Bausteinen. Außerdem wächst die Nachfrage nach kompaktem Equipment mit mechatronischen Baugruppen aus den Bereichen wie Videokameras für verdeckte Überwachungen, Bildverarbeitung oder Automotive-Applikationen. Das Ergebnis ist ein zunehmender Entwicklungsdruck in Richtung Hardware-Integration und Miniaturisierung.

SoCs für die Bildverarbeitung

Es gibt eine Reihe von Standard-ICs, insbesondere für die digitale Bildverarbeitung, die die ARM-basierte Steuereinheit mit DSP oder Grafikverarbeitung (GPU) integrieren. Nachteilig dabei ist die rigide Prozessor-Architektur mit begrenzten oder inflexiblen I/O-Ressourcen. Das erschwert die Implementierung anspruchsvoller neuer Funktionen. Upgrades sind nur mit signifikanter Hardware-Umentwicklung möglich, etwa mit zusätzlichem FPGA. Xilinx adressiert die Forderungen an die Performance und die Integration künftiger Generationen smart vernetzter Systeme mit dem Zynq-7000 All Programmable System auf einem Chip. Dieses SoC ist der erste Baustein, der einen ARM Dual-Core Cortex-A9 MPCore zusammen mit programmierbarer Logik und wichtigen Peripherie-Elementen auf einem Chip integriert. Ergänzend dazu steht eine umfassende Support-Infrastruktur mit Tools und IP zur Verfügung. Diese umfasst die Vivado HLS Design-Suite und IP Integrator-Tools, OpenCV-Bibliotheken, die SmartCore-IP und spezielle Entwicklungs-Kits. Die Zynq-7000 All-Programmable-Architektur kombiniert einen ARM-Applikationsprozessor mit programmierbarer Logik einschließlich konfigurierbarer DSP-Ressourcen mit flexiblem I/O für eine Vielzahl von Standard-Protokollen bis zu Multi-Gigabit-Datenraten. Damit eliminiert er die Engpässe mit konventionellen diskreten Prozessoren, FPGAs und I/O-Transceivern. Mehr als 3.000 On-chip-Verbindungen zwischen Prozessor und Logik überwinden die Begrenzungen beim konventionellen Leiterplatten-Interconnect durch Datenaustausch mit ‚Silizium-Speed‘. Das Zynq-SoC bietet die passende Architektur für smart vernetzte Applikationen, insbesondere für hoch leistungsfähige Echtzeit-Videoverarbeitung. Das SoC implementiert die Signalverarbeitung der vom Kamera-Sensor erfassten Daten und unterstützt einen breiten Bereich von I/O-Signalen für unterschiedliche Kamera-Konnektivitäten (Bild 1). Die pixel-basierte Verarbeitung, gefolgt von einer rechenintensiven Analytik unter Nutzung der Parallelverarbeitung in der FPGA-Logik, wird ebenfalls on-chip ausgeführt. Der Zynq-Baustein kann auch das Post-Processing der analytischen Daten übernehmen, Graphikverarbeitungen ausführen und die so entstandenen Signale zur Übertragung aufbereiten.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

The Omnitek DPU (Deep Learning Processing Unit) is a configurable IP core built from a suite of FPGA IP comprising the key components needed to construct inference engines suitable for running DNNs used for a wide range of Machine Learning applications, plus an SDK supporting the development of applications which integrate the DPU functionality.‣ weiterlesen

www.omnitek.tv

Anzeige

Moonvision automatisiert dank AI die Oberflächenerkennung unterschiedlichster Materialien. Was bislang über 50 Bilder erfordert hat, gelingt dem Wiener Startup mit nur elf Bildern. ‣ weiterlesen

www.moonvision.io

Anzeige

Preiswerte Einplatinencomputer haben ihr Bastler-Image längst abgelegt und werden bereits zur Maschinensteuerung eingesetzt. Im Rahmen einer Masterarbeit an der TH Deggendorf wurde nun ein kostengünstiges Smart-Kamera-System auf Basis eines Einplatinencomputers (Raspberry PI 3) als Labormuster entwickelt.‣ weiterlesen

www.th-deg.de

Anzeige

Der neuromorphe System-on-Chip-Baustein (NSoC) Akida ermöglicht erstmals eine gepulste neuronale Netzwerk-Architektur (SNN: Spiking Neural Network) in Serie.‣ weiterlesen

www.brainchipinc.com

Anzeige

Embedded Deep Learning soll künstliche Intelligenz von der Cloud in das Gerät oder die Maschine bringen. Der erste Schritt zur Verkleinerung einer Serverfarm besteht laut Imago darin, ein leistungsstarkes GPU-Board in einer kompakten VisionBox einzusetzen.‣ weiterlesen

www.imago-technologies.com

Die VisionCam ist eine frei unter Linux programmierbare, intelligente Kamera. Die hohen Datenraten werden durch den mit 1,5GHz getakteten Dual-ARM Cortex-A15-Prozessor verarbeitet.‣ weiterlesen

www.imago-technologies.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige