Anzeige
Anzeige
Anzeige

Virtuelle
Bildverarbeitung

Mit Hilfe von Computer Vision, Computergrafik, maschinellem Lernen und Robotik wird am Fraunhofer ITWM ein virtuelles Framework konzipiert, welches das iterative Design eines Inspektionssystems unterstützt und somit ein fixes Bildaufnahme-Setup als Ausgangspunkt umgeht.

Mittels Rendering und CAD-Modellen wird das spätere Sensorverhalten simuliert. Der User bekommt eine Liste von Positionen für Beleuchtung und Kamera, die für die reale Inspektion erforderlich sind. Im ein CAD-Modell mit der Visualisierung aller möglichen Viewpoints (2.778 weiße Markierungen) und einer beschränkten Auswahl der Viewpoints (neun blaue Markierungen). (Bild: Fraunhofer ITWM)

Mittels Rendering und CAD-Modellen wird das spätere Sensorverhalten simuliert. Der User bekommt eine Liste von Positionen für Beleuchtung und Kamera, die für die reale Inspektion erforderlich sind. Im Bild ein CAD-Modell mit der Visualisierung aller möglichen Viewpoints (2.778 weiße Markierungen) und einer beschränkten Auswahl der Viewpoints (neun blaue Markierungen).. (Bild: Fraunhofer ITWM)

Viele moderne Produktionslinien erfordern spezielle, auf das hergestellte Produkt angepasste Inspektionssysteme. Die Konzeption dieser neuen Systeme ist ein komplexer Entwicklungsprozess. Wenn Industrie 4.0 die Erhöhung der Produktionsflexibilität bei gleichzeitiger Senkung der Gesamtkosten fordert, wie gut kann dann die automatisierte visuelle Produktprüfung in diese Entwicklung integriert werden? Ist es möglich, Kosten zu senken, Inspektionssysteme flexibler zu gestalten und die Qualität – sowohl des Produkts als auch die Lebensdauer der Prüfsysteme – zu verbessern? Die Entwicklung jedes neuen Inspektionssystems ist ein iterativer Prozess. Die Vorstudienphase dient der Entwicklung und Anpassung des Systems, bis dieses bestimmten Anforderungen genügt. Wenn diese erfüllt sind, wird der Prototyp zum industrietauglichen System aufbereitet, sodass dieses autonom in einer Produktionslinie funktioniert. Ein solches System wird bisher in zwei Phasen entwickelt: Bildaufnahme und Bildverarbeitung. In der Praxis konzentrieren sich die meisten Entwicklungsressourcen auf die Bildverarbeitung. Hardwarekomponenten und deren Konfiguration bestimmen Ingenieure, basierend auf ihrer Erfahrung und dem Abwägen zwischen technischen Anforderungen und Kosten. Die Lösung besteht also darin, das nach Erfahrungswerten das vielversprechendste Konzept zu verwenden, auch wenn dieses unter Umständen Nachteile hat.

Optimierte Bauteilpositionierung

Um Zeit zu sparen, wird von den Bildverarbeitungsentwicklern erwartet, dass ihre Algorithmen potenzielle Schwächen bei der Bildaufnahme ausgleichen. In Bezug auf die Oberflächeninspektion konzentriert sich die Forschung im Bereich Computer Vision hauptsächlich auf die Erkennung der abgebildeten Produkte. Sie übersieht die Notwendigkeit, das Bildaufnahme-Setup zu optimieren. Dementsprechend starr sind aktuelle Inspektionssysteme. Mit Hilfe von Computer Vision, Computergrafik, maschinellem Lernen und Robotik konzipiert eine Arbeitsgruppe am Fraunhofer ITWM ein Framework, welches das iterative Design eines Inspektionssystems unterstützt und somit ein fixes Bildaufnahme-Setup als Ausgangspunkt umgeht. Ein virtuelles Bildverarbeitungs-Framework bietet die Möglichkeit, diese Forschungslücke zu schließen. Ziel ist es, sowohl eine Entscheidungshilfe für die Hardwarekonfiguration als auch die Simulation der zu erwartenden Bildaufnahmen bereitzustellen. Vor allem aber ermöglicht es eine Optimierung der Bauteilpositionierung, ohne die bisher dafür notwendigen Laboraufbauten. Darüber hinaus können Computer Vision Algorithmen entwickelt und an simulierten Bildern (mit und ohne Defekte) getestet werden. Das spielt insbesondere in Branchen eine Rolle, in denen Fehler selten auftreten, aber sicherheitsrelevant sind, z.B. Flugzeugturbinen-Blisk oder Autobremse.

Sensorverhalten simulieren

Kern der virtuellen Bildverarbeitung sind zwei gekoppelte Komponenten: Planung (Wie soll das Produkt geprüft werden, um alle möglichen Oberflächenfehler zu finden) und Simulation (Was wird die Kamera tatsächlich sehen). Das Framework wird durch ein CAD-Modell des zu prüfenden Produkts und verschiedene Prüfparameter (z.B. Art der Fehler, Produktwerkstoff, erforderliche Prüfgeschwindigkeit, et cetera) gespeist. Basierend auf den gegebenen Parametern gibt das Framework eine Reihe von möglichen Lösungen und Parametern aus. Diese Ergebnisse werden als Entscheidungshilfe herangezogen, um ein Inspektionssystem zu konfigurieren. Es generiert zusätzlich eine Reihe von zu erwartenden Ergebnissen, die ein solches System liefern würde (z.B. Kamerapositionen, Lichtpositionen, simulierte Inspektionsbilder, et cetera).

Das Planungsrückgrat ist die Lösung des grundlegenden Inspektionsproblems: die Maximierung der Objektabdeckung unabhängig von der geometrischen Komplexität der Oberfläche. Voraussetzung dafür ist ein CAD-Modell des Produkts (digitaler Zwilling). Aus diesem werden Informationen über die Oberflächenkomplexität extrahiert, womit eine Liste von Kamerapunktkandidaten generiert wird. Die Liste umfasst alle Punkte im Raum, die benötigt werden, um alle interessanten Teile der Oberfläche zu erfassen. Anschließend wird die Viewpoint-Kandidatenliste optimiert, um die gesamte Inspektionsumgebung zu modellieren. Mit physikalisch basiertem Rendering wird das Sensorverhalten simuliert und gleichzeitig Prüfbeschränkungen – wie die Anzahl der möglichen Ansichten oder die Gesamtinspektionszeit – berücksichtigt. Als Endprodukt erhält der User eine Liste von Positionen für Beleuchtung und Kamera, die für die reale Inspektion später erforderlich sind. Der Ansatz stellt Entscheidungshilfen während der Planungsphase eines produktspezifischen Inspektionssystems bereit. Darüber hinaus können die Simulationsergebnisse für die Algorithmenentwicklung herangezogen werden, noch bevor ein Inspektionsprototyp konfiguriert ist.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

The Omnitek DPU (Deep Learning Processing Unit) is a configurable IP core built from a suite of FPGA IP comprising the key components needed to construct inference engines suitable for running DNNs used for a wide range of Machine Learning applications, plus an SDK supporting the development of applications which integrate the DPU functionality.‣ weiterlesen

www.omnitek.tv

Anzeige

Moonvision automatisiert dank AI die Oberflächenerkennung unterschiedlichster Materialien. Was bislang über 50 Bilder erfordert hat, gelingt dem Wiener Startup mit nur elf Bildern. ‣ weiterlesen

www.moonvision.io

Anzeige

Preiswerte Einplatinencomputer haben ihr Bastler-Image längst abgelegt und werden bereits zur Maschinensteuerung eingesetzt. Im Rahmen einer Masterarbeit an der TH Deggendorf wurde nun ein kostengünstiges Smart-Kamera-System auf Basis eines Einplatinencomputers (Raspberry PI 3) als Labormuster entwickelt.‣ weiterlesen

www.th-deg.de

Anzeige

Der neuromorphe System-on-Chip-Baustein (NSoC) Akida ermöglicht erstmals eine gepulste neuronale Netzwerk-Architektur (SNN: Spiking Neural Network) in Serie.‣ weiterlesen

www.brainchipinc.com

Anzeige

Embedded Deep Learning soll künstliche Intelligenz von der Cloud in das Gerät oder die Maschine bringen. Der erste Schritt zur Verkleinerung einer Serverfarm besteht laut Imago darin, ein leistungsstarkes GPU-Board in einer kompakten VisionBox einzusetzen.‣ weiterlesen

www.imago-technologies.com

Die VisionCam ist eine frei unter Linux programmierbare, intelligente Kamera. Die hohen Datenraten werden durch den mit 1,5GHz getakteten Dual-ARM Cortex-A15-Prozessor verarbeitet.‣ weiterlesen

www.imago-technologies.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige