Anzeige
Anzeige
Anzeige

Virtuelle
Bildverarbeitung

Mit Hilfe von Computer Vision, Computergrafik, maschinellem Lernen und Robotik wird am Fraunhofer ITWM ein virtuelles Framework konzipiert, welches das iterative Design eines Inspektionssystems unterstützt und somit ein fixes Bildaufnahme-Setup als Ausgangspunkt umgeht.

Mittels Rendering und CAD-Modellen wird das spätere Sensorverhalten simuliert. Der User bekommt eine Liste von Positionen für Beleuchtung und Kamera, die für die reale Inspektion erforderlich sind. Im ein CAD-Modell mit der Visualisierung aller möglichen Viewpoints (2.778 weiße Markierungen) und einer beschränkten Auswahl der Viewpoints (neun blaue Markierungen). (Bild: Fraunhofer ITWM)

Mittels Rendering und CAD-Modellen wird das spätere Sensorverhalten simuliert. Der User bekommt eine Liste von Positionen für Beleuchtung und Kamera, die für die reale Inspektion erforderlich sind. Im Bild ein CAD-Modell mit der Visualisierung aller möglichen Viewpoints (2.778 weiße Markierungen) und einer beschränkten Auswahl der Viewpoints (neun blaue Markierungen).. (Bild: Fraunhofer ITWM)

Viele moderne Produktionslinien erfordern spezielle, auf das hergestellte Produkt angepasste Inspektionssysteme. Die Konzeption dieser neuen Systeme ist ein komplexer Entwicklungsprozess. Wenn Industrie 4.0 die Erhöhung der Produktionsflexibilität bei gleichzeitiger Senkung der Gesamtkosten fordert, wie gut kann dann die automatisierte visuelle Produktprüfung in diese Entwicklung integriert werden? Ist es möglich, Kosten zu senken, Inspektionssysteme flexibler zu gestalten und die Qualität – sowohl des Produkts als auch die Lebensdauer der Prüfsysteme – zu verbessern? Die Entwicklung jedes neuen Inspektionssystems ist ein iterativer Prozess. Die Vorstudienphase dient der Entwicklung und Anpassung des Systems, bis dieses bestimmten Anforderungen genügt. Wenn diese erfüllt sind, wird der Prototyp zum industrietauglichen System aufbereitet, sodass dieses autonom in einer Produktionslinie funktioniert. Ein solches System wird bisher in zwei Phasen entwickelt: Bildaufnahme und Bildverarbeitung. In der Praxis konzentrieren sich die meisten Entwicklungsressourcen auf die Bildverarbeitung. Hardwarekomponenten und deren Konfiguration bestimmen Ingenieure, basierend auf ihrer Erfahrung und dem Abwägen zwischen technischen Anforderungen und Kosten. Die Lösung besteht also darin, das nach Erfahrungswerten das vielversprechendste Konzept zu verwenden, auch wenn dieses unter Umständen Nachteile hat.

Optimierte Bauteilpositionierung

Um Zeit zu sparen, wird von den Bildverarbeitungsentwicklern erwartet, dass ihre Algorithmen potenzielle Schwächen bei der Bildaufnahme ausgleichen. In Bezug auf die Oberflächeninspektion konzentriert sich die Forschung im Bereich Computer Vision hauptsächlich auf die Erkennung der abgebildeten Produkte. Sie übersieht die Notwendigkeit, das Bildaufnahme-Setup zu optimieren. Dementsprechend starr sind aktuelle Inspektionssysteme. Mit Hilfe von Computer Vision, Computergrafik, maschinellem Lernen und Robotik konzipiert eine Arbeitsgruppe am Fraunhofer ITWM ein Framework, welches das iterative Design eines Inspektionssystems unterstützt und somit ein fixes Bildaufnahme-Setup als Ausgangspunkt umgeht. Ein virtuelles Bildverarbeitungs-Framework bietet die Möglichkeit, diese Forschungslücke zu schließen. Ziel ist es, sowohl eine Entscheidungshilfe für die Hardwarekonfiguration als auch die Simulation der zu erwartenden Bildaufnahmen bereitzustellen. Vor allem aber ermöglicht es eine Optimierung der Bauteilpositionierung, ohne die bisher dafür notwendigen Laboraufbauten. Darüber hinaus können Computer Vision Algorithmen entwickelt und an simulierten Bildern (mit und ohne Defekte) getestet werden. Das spielt insbesondere in Branchen eine Rolle, in denen Fehler selten auftreten, aber sicherheitsrelevant sind, z.B. Flugzeugturbinen-Blisk oder Autobremse.

Sensorverhalten simulieren

Kern der virtuellen Bildverarbeitung sind zwei gekoppelte Komponenten: Planung (Wie soll das Produkt geprüft werden, um alle möglichen Oberflächenfehler zu finden) und Simulation (Was wird die Kamera tatsächlich sehen). Das Framework wird durch ein CAD-Modell des zu prüfenden Produkts und verschiedene Prüfparameter (z.B. Art der Fehler, Produktwerkstoff, erforderliche Prüfgeschwindigkeit, et cetera) gespeist. Basierend auf den gegebenen Parametern gibt das Framework eine Reihe von möglichen Lösungen und Parametern aus. Diese Ergebnisse werden als Entscheidungshilfe herangezogen, um ein Inspektionssystem zu konfigurieren. Es generiert zusätzlich eine Reihe von zu erwartenden Ergebnissen, die ein solches System liefern würde (z.B. Kamerapositionen, Lichtpositionen, simulierte Inspektionsbilder, et cetera).

Das Planungsrückgrat ist die Lösung des grundlegenden Inspektionsproblems: die Maximierung der Objektabdeckung unabhängig von der geometrischen Komplexität der Oberfläche. Voraussetzung dafür ist ein CAD-Modell des Produkts (digitaler Zwilling). Aus diesem werden Informationen über die Oberflächenkomplexität extrahiert, womit eine Liste von Kamerapunktkandidaten generiert wird. Die Liste umfasst alle Punkte im Raum, die benötigt werden, um alle interessanten Teile der Oberfläche zu erfassen. Anschließend wird die Viewpoint-Kandidatenliste optimiert, um die gesamte Inspektionsumgebung zu modellieren. Mit physikalisch basiertem Rendering wird das Sensorverhalten simuliert und gleichzeitig Prüfbeschränkungen – wie die Anzahl der möglichen Ansichten oder die Gesamtinspektionszeit – berücksichtigt. Als Endprodukt erhält der User eine Liste von Positionen für Beleuchtung und Kamera, die für die reale Inspektion später erforderlich sind. Der Ansatz stellt Entscheidungshilfen während der Planungsphase eines produktspezifischen Inspektionssystems bereit. Darüber hinaus können die Simulationsergebnisse für die Algorithmenentwicklung herangezogen werden, noch bevor ein Inspektionsprototyp konfiguriert ist.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Die auf der CIS basierenden Line Scan Bars gibt es nun mit neuen Längen von 1.064, 1.247 und 1.688mm, die eine höhere Scanbreite als bisher abdecken. ‣ weiterlesen

de.mitsubishielectric.com

Anzeige

Die Allpixa Evo ist die erste Zeilenkamera mit Dual-10GigE-Schnittstelle. Sie liefert je nach Modell 10K oder 15K horizontale Auflösung bei vier Zeilen und ist als Farb- oder Monochromversion erhältlich.‣ weiterlesen

www.chromasens.de

Auf Basis der CoaXPress-V2.0-Schnittstelle liefert die Highspeed-Kamera Eosens 1.1CXP2 bei 1,1MP Auflösung bis zu 3.600fps. ‣ weiterlesen

www.mikrotron.de

Der hochauflösende 3D-Sensor DSMax bietet 2.000 Profilpunkte und Scanraten von bis zu 18kHz bei vollem Messbereich. Durch die Kombination aus telezentrischen Objektiv und gerichteter Laserlinie werden die abgeschatteten Bereiche reduziert.‣ weiterlesen

www.i-mation.de

Die 10GigE-Modelle der LX-Serie von Baumer ermöglichen die Ansteuerung von Autofokusobjektiven mit Flüssiglinsen zur schnellen und flexiblen Fokussierung bei sich ändernden Arbeitsabständen. ‣ weiterlesen

www.baumer.com

Erster Sensor-Neuzugang für die GigE-Vision-Kameras von Matrix Vision ist der 31MP-Sensor IMX342 von Sony. In Verbindung mit dem SmartFrameRecall Feature können auch die Auflösungen von 6.480x4.856 Pixel mit GigE und Dual GigE genutzt werden. ‣ weiterlesen

www.matrix-vision.de

Anzeige
Anzeige
Anzeige