Anzeige
Anzeige

White Box KI

Sparse Modeling für schlanke und leistungsstarke KI

Sparse Modeling basierte KI benötigt nur einen kleinen Satz von Daten und kann damit auf Embedded Plattformen sowohl KI-Trainingsaufgaben als auch Inferenzalgorithmen ausführen.

(Bild: Hacarus Inc.)


Künstliche Intelligenz besitzt großes Potenzial, die Leistungsfähigkeit und Genauigkeit moderner optischer Inspektionssysteme zu verbessern. Herkömmliche KI-Ansätze bergen jedoch einige Nachteile, wie z.B. die Auswertung großer Datensätze, die Notwendigkeit von vorab klassifizierten Bildern, sowie hohe Rechenleistung und Energiebedarf. Sparse Modeling bietet dagegen einen anderen Ansatz und die Integration in Embedded Low-Power-Applikationen. Es ist mittels Re-Training der Systeme direkt am Edge in der Lage, sich kontinuierlich und dynamisch an wechselnde Bedingungen anzupassen, wie z.B. an die Beleuchtung, Vibrationen oder wenn Kameras und/oder Geräte bewegt werden müssen. Im Wesentlichen ist Sparse Modeling ein Ansatz zur Datenerfassung, der sich auf die Identifizierung einzigartiger Merkmale konzentriert. Einfach ausgedrückt interpretiert Sparse Modeling Daten ähnlich dem menschlichen Verstand, anstatt jedes einzelne Haar und jeden Millimeter einer Person zu betrachten. Der Mensch ist in der Lage, Freunde und Familie anhand von Schlüsselmerkmalen – wie Augen oder Ohren – zu erkennen. Sparse Modeling integriert eine vergleichbare Logik in intelligente Visionsysteme mit der Konsequenz, dass nicht das gesamte Volumen an Big Data verarbeitet werden muss, sondern nur wenige ausgewählte Daten. Sparse Modeling-basierte Algorithmen reduzieren folglich die Daten auf diese einzigartigen Merkmale.

Wenn neue Daten erfasst werden, scannt Sparse Modeling nicht den gesamten Inhalt, sondern sucht für die Vorhersagen nach bestimmten, zuvor festgelegten Schlüsselmerkmalen. Ein zusätzlicher Vorteil des Verfahrens ist, dass die isolierten Merkmale für den Menschen verständlich sind. Sparse Modeling erzeugt somit eine erklärbare White Box KI, was ein Unterscheidungsmerkmal zu konventioneller KI ist. Die ersten Entwicklungsphasen eines Modells, in denen die KI-Engine und kundenspezifische Daten zu einem auf den jeweiligen Anwendungsfall zugeschnittenen Modell zusammengeführt werden, basieren dabei vornehmlich auf menschlicher Expertise. Um ein neues Standard-Inferenzmodell zu entwickeln, benötigt Sparse Modeling für die erste Modellerstellung etwa 50 Bilder, was deutlich weniger ist, als die 1.000 oder mehr Bilder, die für eine herkömmliche KI erforderlich sind.

Tests zeigen, dass Sparse Modeling bei gleicher Genauigkeit nur 1% der Energie einer herkömmlichen Deep Learning Plattform verbraucht und deutlich weniger Trainingszeit. Sie ist damit die perfekte KI-Technologie für Embedded Systeme. (Bild: Congatec AG)

Lauffähig auf Embedded Edge-Geräten

Hardware-technisch kann eine Sparse Modeling-Plattform in praktisch jedes Edge-Gerät integriert werden. Sie kann auf eingebetteten x86-Computerplattformen ausgeführt werden und ist sogar für die Implementierung auf Plattformen wie Xilinx und ARM oder Altera und RISC-V vorbereitet. Das Design ist folglich kompatibel zu Mainstream-x86-Prozessoren als auch zu den aktuellen Open-Source-Lösungen. Da der endgültige Footprint entscheidend von der Aufgabenstellung und Komplexität des benötigten Modells abhängt, empfiehlt sich bei der Einführung von Sparse Modeling folglich eine modulare Hardwareplattform auf Basis von Closed Loop Engineering-fähigen Computer-on-Modulen, die beide Prozessorvarianten bedienen können. Die Präzisionsfertigung profitiert von dieser neuen Technologie, weil die Edge Nodes dank Sparse-Modeling nun genügend Rechenleistung bieten, um Inferenz und Training parallel durchzuführen. Auch wird das Versenden von Daten in die Cloud umgangen. Ein weiteres Anwendungsgebiet ist die Medizintechnik, z.B. bei der Erkennung seltener Erkrankungen, die eben nicht genügend Big Data produzieren, wie sie für die Ausbildung eines Deep Learning-basierten KI-Modells erforderlich wären.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Nahezu jede(r) Kamera oder Sensor benötigte bisher eine eigene Software bei steigender Funktionalität. Wenglor hat mit uniVision 2.1 jetzt eine parametrierbare Software entwickelt, die mit allen Visionkomponenten kompatibel ist, von 2D-/3D-Profilsensoren, über intelligente Kameras bis hin zu Visionsystemen. Die Bildverarbeitungssoftware lässt sich dabei auch ohne Programmierkenntnisse einfach nutzen.‣ weiterlesen

www.wenglor.de

Anzeige

Die Time-of-Flight Kamera Spotguard von tofmotion erlaubt eine sichere Raumüberwachung. Das Produkt erkennt in Echtzeit Objekte, die in Gefährdungsräume eindringen und erfüllt vordefinierte Sicherheitsfunktionen, um identifizierte Gefährdungen zu minimieren. Die 3D-Kameras sind zertifiziert und zugelassen nach EN13849 (Performance Level D) und EN62061 (SIL 2, Cat.) für einen Arbeitsbereich von 0,05 bis 10m.‣ weiterlesen

www.tofmotion.com

Anzeige

Der LumiScanX von HD Vision basiert auf Lichtfeld-Sensorik und dreizehn Kameras. Bereits bei Umgebungslicht kann das System ohne Zusatzbeleuchtung genutzt werden. Messabstände/-volumina können dabei variiert werden. Optimale Ergebnisse liegen in einem Messvolumen von 20 bis 120cm Kantenlänge. Insbesondere bei glänzenden Oberflächen und Faserverbundwerkstoffen spielt die Technologie ihre Vorteile aus.‣ weiterlesen

www.hdvisionsystems.com

Anzeige

Der Flying Spot Scanner von Precitec Optronik kombiniert OCT und Scannertechnologie für sehr schnelle Inline-Messaufgaben. Der Scanner ermöglicht es, Taktzeiten für Messungen von Schichtdicken und Topographien auf ein Minimum zu reduzieren. Auch bei kompletten Oberflächenscans spielen die Spiegel im Messkopf ihren Geschwindigkeitsvorteil aus und führen zu einer deutlichen Verkürzung der Messzeit.‣ weiterlesen

www.precitec-optronik.de

Anzeige

Beim S70 von Inspekto handelt es sich um ein komplett autonomes Visionsystem, bei dem der Anwender keine Bildverarbeitungskentnisse benötigt. Der gesamte Einrichtungsprozess wird in knapp 30 Minuten durchgeführt. Der Benutzer richtet ein Testmuster im Sichtfeld aus und markiert die ROI. Danach passt die KI automatisch die Beleuchtung und Kameraparameter an die jeweiligen Umgebungsbedingungen an.‣ weiterlesen

www.inspekto.com

Anzeige

Der kostengünstige VIS-SWIR-Photodetektor auf Graphenbasis von Emberion kombiniert lichtabsorbierende Nanomaterialien und Graphenwandler, um eine Photodetektion in einem großen Spektralbereich zu ermöglichen. Der Empfindlichkeitsbereich beginnt bei 400nm und reicht derzeit bis 1.800nm, soll aberzukünftig noch ausgebaut werden. Das erste Produkt ist ein 512 Pixel VIS-SWIR Linear Array Sensor.‣ weiterlesen

www.emberion.com

Anzeige

Bisher ging man bei MIPI/CSI-2 Modulen von lediglich 30cm Kabellänge aus. Die neuen MIPI/CSI-2 Kameramodule von The Imaging Source ermöglichen aber dank FPD-Link III Bridge Kabellängen von bis zu 15m bei gleichzeitiger Datenübertragung, Steuerkanäle und Stromversorgung über ein einziges Koaxialkabel. Systemlösungen auf Basis von Embedded Plattformen wie z.B. Nvidia Jetson TX2, sind bereits vorhanden.‣ weiterlesen

www.theimagingsource.com

Anzeige

Der Linienprofilsensor Gocator 2512 von LMI ist eine 3D-Lösung zum Scannen von Glas und anderen spiegelnden Oberflächen. Er ist in der Lage sowohl spiegelnde als auch diffuse Oberflächen gleichzeitig zu erfassen. Das System liefert hochauflösende Höhen-/Breitendaten mit bis zu 8µm, mit denen Oberflächenkanten/-abstände aufeinander abgestimmter Komponenten identifiziert und geprüft werden können.‣ weiterlesen

www.lmi3d.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige