KI-Beschleunigerkarten für (Vision) Edge Computing

Schneller-Macher

KI-Beschleunigerkarten für (Vision) Edge Computing

Die Mustang Serie an KI-Beschleunigerkarten ist mit ihrer Low Power Architektur und Skalierbarkeit eine Alternative zu GPU-basierten KI-Lösungen. Die Kompatibilität zum Open Visual Inference Neural Network Optimization (OpenVino) Toolkit bietet eine einfache Möglichkeit Trainingsmodelle an der Edge zu implementieren.

Die FPGA-Beschleunigerkarte Mustang-F100 basiert auf dem Intel Arria 10 GX1150 FPGA und ist mit 8GB on-board DDR4 RAM ausgestattet. Sie zeigt eine 87 Prozent höhere Performance bei SqueezeNet 1.1 oder 82 Prozent bei Yolo Tiny V1 gegenüber einer Nvidia P4 Lösung. (Bild: ICP Deutschland GmbH)

Die FPGA-Beschleunigerkarte Mustang-F100 basiert auf dem Intel Arria 10 GX1150 FPGA und ist mit 8GB on-board DDR4 RAM ausgestattet. Sie zeigt eine 87 Prozent höhere Performance bei SqueezeNet 1.1 oder 82 Prozent bei Yolo Tiny V1 gegenüber einer Nvidia P4 Lösung. (Bild: ICP Deutschland GmbH)

Inferenzsysteme verwenden meist vortrainierte Datensätze, sogenannte Trainingsmodelle, die in Hochleistungsrechnern erstellt worden sind. Meist kommen dabei mehrere Grafikkarten zum Einsatz, um das Modell möglichst schnell zu klassifizieren. Daher ist der Einsatz von Grafikkarten an der Edge aus unterschiedlichen Gründen nicht sinnvoll, da u.a. Anforderungen wie physische Größe des Inferenzsystems, Stromverbrauch oder das Preis-/Leistungsverhältnis eine Rolle spielen. Diese Anforderungen lassen sich mit GPU-basierten Systemen kaum erfüllen. Mit der Mustang KI Beschleunigerkarten Serie bieten sich allerdings neue Möglichkeiten. Es stehen zwei unterschiedliche Serien zur Auswahl.

VPU-Beschleunigerkarten

Die VPU-basierte Mustang Serie verwendet Intel Movidius Myriad X MA2485 Visual Processing Units. Diese VPUs sind durch die Kombination ihres neuralen Netzwerks mit 16 Shave Kernen und ihrer Neural Compute Engine speziell für KI Anwendungen im Vision Bereich ausgelegt. Neben einer Vielzahl von implementierten Hardwarefunktionen für die Bildverarbeitung, enthält jede VPU eine Stereo Depth Block Funktion, die in der Lage ist zwei Streams mit einer Auflösung von 720P bei 180Hz zu verarbeiten. Native FP16 Berechnungen oder 8bit Festkommaberechnungen, aber auch die ISP-Pipeline und hardwarebasierte Codierung ermögliche anspruchsvolle Bild-oder Videoverarbeitung mit einer 4k-Auflösung. Jeder einzelnen VPU lässt sich dabei eine andere DL-Topologie zuweisen. Grund hierfür ist deren Multi-Channel Fähigkeit, die eine simultane Ausführung von Berechnungen ermöglicht. So lassen sich unterschiedliche Anwendungen wie Objekterkennung oder Bild- und Videoklassifikation gleichzeitig ausführen. Auf der PCI Express x4 Bus basierten Mustang-V100-MX8 kommen gleich acht VPUs zum Einsatz und erreichen eine Rechenleistung von einem Tops. Damit ist die Karte in der Lage mehr als zehn Video Streams gleichzeitig zu verarbeiten. Dabei verbraucht jede VPU nur 2,5W. Im Gesamten verbleibt die Karte unter 30W und eignet sich für anspruchsvolle Low-Power KI-Anwendungen. Sind weniger als zehn Streams zu verarbeiten kann eine kleinere Variante, wie die Mustang-V100-MX4 mit vier MA2485 VPU Einheiten, verwendet werden. Auch diese basiert auf PCI Express Bus benötigt allerdings nur einen x2 Steckplatz und kann in nahezu jeden Kompakt-PC verbaut werden. Für besonders kompakte Embedded PC Systeme, die keinen PCI Express Steckplatz bieten, stehen zwei VPU Module zur Auswahl die auf dem M.2 Formfaktor basieren. Die Mustang-M2AE-MX1 mit einer VPU Einheit sowie die Mustang-M2BM-MX2 mit zwei MA2485 VPU Einheiten. Für Systeme mit älterem Mini-PCI Express Bus eignet sich die Mustang-MPCIE-MX2 mit zwei Myriad VPU Einheiten.

Seiten: 1 2Auf einer Seite lesen

Themen:

| Fachartikel

Ausgabe:

inVISION 5 2019
ICP Deutschland GmbH

Das könnte Sie auch Interessieren