Anzeige
Anzeige
Anzeige

Fünfmal schnellere Deep-Learning-Inferenz

Matlab bietet ab sofort eine Integration von Nvidia TensorRT über GPU Coder. Dies erleichtert die Entwicklung neuer Modelle für KI und Deep Learning in Matlab.

(Bild: The MathWorks GmbH)

(Bild: The MathWorks GmbH)

Dank der neuen Integration können in Matlab entwickelte Deep-Learning-Modelle auf Nvidia-GPUs mit hohem Durchsatz und geringer Latenz ausgeführt werden. Interne Benchmarks zeigen, dass von Matlab generierter Cuda-Code in Kombination mit TensorRT Alexnet mit fünfmal höherer Leistung und VGG-16 mit 1,25-mal höherer Leistung bereitstellen kann als die Deep-Learning-Inferenz der entsprechenden Netze in TensorFlow.

www.mathworks.de

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Das Camera Link HS (CLHS) Sub-Comittee hat nach sieben Jahren die Version 1.1 veröffentlicht. Im ersten Schritt wurde das Interface mit den neuen Bitraten 12,5G, 13,7G und 16G erweitert.‣ weiterlesen

www.pco.de

Anzeige

Die European Machine Vision Association hat Werner Feith als neuen EMVA Standards Manager ernannt.‣ weiterlesen

www.emva.org

Anzeige

ZF übernimmt 90% der Anteile von Simi Reality Motion Systems. Das Unternehmen mit derzeit 35 Mitarbeitern ist spezialisiert auf bildbasierte 3D-Systeme zum Erfassen und Analysieren menschlicher Bewegungen.‣ weiterlesen

press.zf.com

Anzeige

Bullard gibt die Übernahme von Darix bekannt, einem Spinoff der Eidgenössischen Technischen Hochschule in Lausanne, das sich darauf konzentriert, das Situationsbewusstsein von Fachleuten in kritischen Umgebungen zu verbessern.‣ weiterlesen

www.prnewswire.com

Gpixel hat eine Niederlassung in Tokyo, Japan eröffnet.‣ weiterlesen

www.gpixelinc.com

Anzeige

Visionlink ist ab sofort neuer Vertriebspartner von Vision Components für den italienischen Markt.‣ weiterlesen

www.vision-components.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige