Anzeige

Deep Learning zur Oberflächenprüfung von Metall und Kunststoff

Die KI-Software AI.See von Elunic wird häufig zur Prüfung von Oberflächen aus Metall und Kunststoff eingesetzt. Mit einem Starterkit und einem Smartphone können Anwender selbst einen ersten Eindruck einer KI-basierten Qualitätsprüfung gewinnen.

Für die Installation der KI-Software AI.See stehen Anwender-spezifische Komplettpakete mit Kamera, Beleuchtung und IPC zur Verfügung. Die Lernphase des KI-Systems erfolgt im laufenden Betrieb. (Bild: Elunic AG)

Für die Installation der KI-Software AI.See stehen Anwender-spezifische Komplettpakete mit Kamera, Beleuchtung und IPC zur Verfügung. Die Lernphase des KI-Systems erfolgt im laufenden Betrieb. (Bild: Elunic AG)

Ein Beispiel für den Einsatz von Deep Learning ist die Erkennung von Lunkern in Guss-, Spritzguss- oder Betonteilen. Diese kleinen, durch Schwindung bedingten Vertiefungen können in Größe, Form und Lage völlig unterschiedlich aussehen. Regelbasierte Systeme lassen sich deswegen nur schwer einsetzen. AI.See dagegen erfasst durch einen Lernvorgang das generelle Prinzip des Lunkers. Einmal trainiert, erkennt es die Fehler in Echtzeit. Das gleiche Prinzip gilt auch für Kratzer, Risse und Unebenheiten auf Metall- und Kunststoffteilen oder defekte Leiterbahnen auf Platinen.

Lernphase im laufenden Betrieb

Zur Installation stehen anwenderspezifische Komplettpakete zur Verfügung. Die Montage der Kamera erfolgt an einem flexiblen Arm, wobei die Kameraauflösung entsprechend der Prüfobjekte gewählt ist. Neben der Beleuchtung gehört auch eine Edge Computing Recheneinheit zum System. Die Datenmengen zur Weiterentwicklung der KI-basierten Erkennung befinden sich in der Cloud. Die Lernphase des KI-Systems erfolgt im laufenden Betrieb. Der Einstieg beginnt anhand von als fehlerhaft/fehlerfrei eingestuften Bildern. 1.000 Bilder sind ein guter Anfang. Abhängig von der Problemstellung ist aber auch mit 100 Bildern der Start der Qualitätsprüfung möglich. Die Software benötigt in der Anfangsphase Unterstützung durch einen Bediener, der Grenzfälle entsprechend zuordnet, wobei der Unterstützungsbedarf stetig geringer wird. Nach etwa zwei Monaten funktioniert die Fehlererkennung in der Regel sehr gut. Der Mitarbeiter muss nur noch vereinzelt eingreifen. Je mehr Fehlerbilder (>1.000) zu Projektbeginn vorliegen, desto kürzer ist die Lernphase. Schon bald muss der Mitarbeiter nur Fälle prüfen, bei dem die Software nicht eindeutig erkennt, ob ein Fehler vorliegt. Die Person markiert dann ggf. einen Fehler und erzeugt damit ein weiteres Trainingsbild. Auf diese Weise lernt die Software kontinuierlich weiter und wird immer besser. Durch Transfer Learning lässt sich die Trainingszeit der Software zudem weiter verkürzen. Hierbei werden ähnliche, anonymisierte Produktdaten anderer Anwendungen zur Erkennung von Fehlern genutzt. Schließlich sehen Kratzer, Verschmutzungen und Lunker oft ähnlich aus. Eine Besonderheit der Software liegt in der zeitlich unbefristeten Korrektur. Die Lernphase gilt nie als abgeschlossen. Stattdessen prüft der Mitarbeiter weiterhin Grenzfälle, die AI.See nicht selbst einordnen kann.

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Anlässlich des 30-jährigen Jubiläums von ATD Electronique und der Umbenennung der Firma in Macnica ATD Europe hat inVISION ein Interview mit Firmengründer Antoine Hide über die Vergangenheit und Zukunft seiner Firma und von Distributoren geführt.‣ weiterlesen

www.atdelectronique.de

Anzeige

Cloud-Services haben sich in der Geschäftswelt etabliert. Vorteile wie hohe Skalierbarkeit, Kosteneffizienz und garantierte Ausfallsicherheit sprechen für sich. So wandern Applikationen, Business-Prozesse und Werkzeuge zunehmend in die Cloud. Welche Einsatzszenarien sind aber für die industrielle Bildverarbeitung denkbar und inwieweit profitieren Unternehmen von Machine Vision in der Cloud?‣ weiterlesen

www.mvtec.com

Anzeige

Wie kommt die vollgepackte Luftfracht-Palette ins Flugzeug ohne schadensträchtig anzuecken? Der 3D-Laserscanner PXL+ von Pepperl+Fuchs vermisst nicht nur die Konturen, seine Farbkamera gibt auch wichtige Zusatzinformation, sodass zwischen Frachtgut und überstehender Packfolie unterschieden werden kann.‣ weiterlesen

www.pepperl-fuchs.com

Anzeige

Mit dem PlugIn VisionApp 360 hat wenglor ein interessantes neues Feature in seine Bildverarbeitungssoftware uniVision integriert. inVISION hat bei Martin Knittel, Produktmanager Computer Vision, nachgefragt, welche Vision-Neuheiten es sonst noch bei wenglor sensoric gibt.‣ weiterlesen

www.wenglor.de

Ein Pilotprojekt der ETH Zürich hat mit einer Kombination aus Bildverarbeitung und mechanischer Unkrautvernichtung eine Alternative für den massiven Herbizideinsatz in der Landwirtschaft entwickelt. Für die sichere Navigation des Agraroboters Rowesys stehen passende Schutzgehäuse für die bordeigenen Kameras zur Verfügung.‣ weiterlesen

www.autovimation.com

Das MIPI Camera Serial Interface 2 (MIPI CSI-2) ist eine Kameraschnittstelle, die im Embedded-Bereich eingesetzt wird. Im Gegensatz zu industrietypischen Schnittstellen, die aus industriellen Standards für kabelgebundene Datenübertragung hervorgegangen sind, wurde sie für mobile Systeme zur Übertragung von Bilddaten entwickelt.‣ weiterlesen

www.evotron-gmbh.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige