Anzeige
Anzeige
Anzeige

Inferenz Vergleich

VPU, GPU und FPGA im Vergleich für Deep-Learning-Inferenz

GPUs, FPGAs und Vision-Prozessoren (VPUs) verfügen über Vor- und Nachteile, die ein Systemkonzept beim Einstieg in eine Deep-Learning-Inferenz beeinflussen.

Bild 1 | Stromverbrauch vs. Einzelbild-Inferenzzeit im Vergleich einer GPU, SoC und VPU.
Bild unterer Teil: Relative Leistung einer GPU, FPGA und VPU zur Beschleunigung von Inferenz im Vergleich. (Bild: Flir Integrated Imaging Solutions Inc.)

GPU

GPUs sind aufgrund ihrer hochparalellisierten Verarbeitungsarchitektur optimal für die Beschleunigung von Deep Learning Inferenz geeignet. Nvidia hat in die Entwicklung von Tools für Deep Learning und Inferenz investiert, die auf Nvidias Cuda-Kernen (Compute Unified Device Architecture) ausgeführt werden können. Die GPU-Unterstützung von Google TensorFlow ist für Cuda-fähige GPUs von Nvidia bestimmt. Einige GPUs sind mit Tausenden von Prozessorkernen ausgestattet und eignen sich optimal für rechnerisch anspruchsvolle Aufgaben wie autonome Fahrzeuge oder Trainingsnetzwerke, die dem Einsatz mit weniger leistungsfähiger Hardware dienen. In der Regel verbrauchen GPUs viel Strom. Der RTX 2080 erfordert 225W, während der Jetson TX2 bis zu 15W verbraucht. GPUs sind zudem teuer, so kostet z.B. der RTX 2080 ca. 800USD.

FPGA

FPGAs sind in der industriellen Bildverarbeitung weit verbreitet. Sie vereinen die Flexibilität und Programmierbarkeit von Software, die auf einer CPU ausgeführt wird, mit der Geschwindigkeit und Energieeffizienz eines ASICs. Eine Intel Aria 10 FPGA-basierte PCIe Vision Accelerator-Karte verbraucht bis zu 60W Energie und ist für 1.500USD erhältlich. Ein Nachteil von FPGAs besteht darin, dass die FPGA-Programmierung spezielles Wissen und Erfahrung erfordert. Die Entwicklung neuronaler Netzwerke für FPGAs ist aufwändig. Zwar können Entwickler auf Tools von Drittanbietern zurückgreifen, um Aufgaben zu vereinfachen, doch die Tools sind meist teuer und können Anwender an geschlossene Ökosysteme proprietärer Technologien binden.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

ABS fügt seinem Portfolio von Spezialkameras eine Serie von Polarisationskameras mit USB3.1-Gen1-Schnittstelle hinzu. Durch den Einsatz eines Polarisationssensors lassen sich mit einer Bildrate von über 80fps bei 5MP bzw. über 30fps bei 12MP Auflösung die Polarisationsrichtungen und der Anteil an polarisiertem Licht in Echtzeit darstellen und auswerten.‣ weiterlesen

www.kameras.abs-jena.de

Anzeige

Xenic presents its highspeed infrared Manx line-scan SWIR series. Launched during last year's Vision trade fair, this short-wave infrared camera provides high quality line-scan imaging at speeds of up to 390kHz line rate. This outclasses similar cameras by a factor of 2.5, standing as the fastest in its category.‣ weiterlesen

www.xenics.com

Anzeige

Ein prismabasierter RGB-Ansatz mit der Zeilenkamera SW-4000T-10GE und einer 10GBase-T-Schnittstelle mit Rückwärtskompatibilität, die NBase-T und 1000Base-T kombiniert, ermöglicht ein neues Verfahren bei der Farbzeilentechnologie.‣ weiterlesen

www.jai.com

Anzeige

Four new Triton GigE Vision camera models featuring Sony Pregius global shutter CMOS image sensors are announced. The new models, recently moved into series production, range from 0.4 to 12.3MP resolution.‣ weiterlesen

thinklucid.com

Anzeige

Bei der MCS-Serie von modularen 3D-Kompaktsensoren gibt der Kunde die gewünschten Leistungsdaten wie Scan-Breite (x-FOV), Arbeitsabstand, Punkte pro Profil und Scan-Geschwindigkeit an und erhält einen perfekt zugeschnittenen, aus entsprechenden Modulen zusammengesetzten 3D-Sensor - ohne Extrakosten oder zeitlichen Mehraufwand. ‣ weiterlesen

www.automationtechnology.de

Anzeige

Das Multisensor-CNC-Bildverarbeitungsmessgerät MiScan Vision System beeindruckt mit dem neuen scannenden Messkopf MPP-Nano mit einer sehr hohen Messgenauigkeit. ‣ weiterlesen

www.mitutoyo.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige