3D-Bewegungsprofile in Echtzeit mittels Bildverarbeitung

Kollisionsvorhersage

Eine neue 3D-Vision-Technologie ermöglicht es, die Bewegungsrichtung und Geschwindigkeit von Objekten im Raum präzise zu ermitteln. Das eröffnet neue Möglichkeiten für die reibungslose Zusammenarbeit von Mensch und Roboter.

Bahn frei für autonome Gabelstapler dank 3D-basierter Machine-Vision-Technologie. Position, Bewegungsrichtung und Geschwindigkeit von Objekten lassen sich mit dem ´3D Scene Flow´ Verfahren im dreidimensionalen Raum ermitteln. (Bild: MVTec Software GmbH)

Bahn frei für autonome Gabelstapler dank 3D-basierter Machine-Vision-Technologie. Position, Bewegungsrichtung und Geschwindigkeit von Objekten lassen sich mit dem ´3D Scene Flow´ Verfahren im dreidimensionalen Raum ermitteln. (Bild: MVTec Software GmbH)


Ein wichtiges Einsatzszenario der industriellen Bildverarbeitung ist die präzise Positionsbestimmung von Objekten in Fertigungsprozessen. Traditionelle, standardisierte Bildverarbeitungssoftware arbeitet jedoch lediglich im 2D-Bereich. So lassen sich Gegenstände, die sich linear bewegen – wie etwa auf einem Fließband – problemlos nachverfolgen. Die Position von dreidimensional agierenden Objekten wie z.B. Montageroboter kann mit 2D hingegen nicht zuverlässig erkannt werden. Daher eignet sich dieses Verfahren nur bedingt für Branchen mit einem hohen Automatisierungsgrad. Eine neue 3D-basierte Vision-Technologie namens ´3D Scene Flow´ schließt nun diese Lücke. Damit kann die Lage von Objekten auch im 3D-Raum zuverlässig bestimmt werden. Hierbei werden an verschiedenen Standorten mehrere Kameras installiert, die digitale Bildinformationen aus unterschiedlichen Perspektiven zur Verfügung stellen (Mehrbild-Kameraaufbau). So lässt sich nicht nur die präzise Position von Gegenständen ermitteln, sondern auch deren Bewegungsrichtung und Geschwindigkeit. ´3D Scene Flow´ wurde nun in die Machine-Vision-Lösung Halcon von MVTec integriert. Die neue Technologie ist in der Lage, die Zusammenarbeit von Menschen und Maschinen in automatisierten Produktionsprozessen deutlich zu verbessern. Dies wird an folgendem Beispiel deutlich: Fertigungsroboter, die Schweiß- oder andere Montagevorgänge ausführen, arbeiten meist in einem 3D-Aktionsradius. Dieser ist in der Regel auf bestimmte Fertigungszellen begrenzt. Kommt ein Mitarbeiter dem Bereich zu nahe, schalten Sensoren den Roboter ab, um Kollisionen zu vermeiden. Der Automat muss neu hochgefahren werden, was die Montageprozesse unnötig lange unterbricht und teure Produktionsausfälle zur Folge hat. Mit ´3D Scene Flow´ lässt sich dieses Szenario optimieren: Die an mehreren Stellen installierten Kameras liefern detaillierte Bildinformationen, mit denen sich ein exaktes 3D-Bewegungsprofil von Mensch und Maschine in Echtzeit erstellen lässt. Kreuzen sich die Bahnen beider Akteure, kann dies frühzeitig vorhergesagt werden. Dies bewahrt die Mitarbeiter vor Kollisionen und erhöht die Sicherheit in der Produktion. Zudem muss der Roboter nicht bei jeder Annäherung eines Menschen abgeschaltet werden, sondern nur dann, wenn ein Zusammentreffen laut Bewegungsprofil als sicher erscheint. Das 3D-Verfahren hilft auch bei der Interaktion von Menschen mit mobilen Robotern, die sich eigenständig durch die Produktionshallen bewegen. Insbesondere bei großen Online-Versandhändlern dominieren bereits heute autonome Gabelstapler und Hebezeuge die Kommissionierung und Beförderung von Waren im Hochregallager. Dank der neuen Technologie lässt sich dort die Sicherheit im Fahrverkehr deutlich erhöhen.

Kollisionsvorhersage
Bild: MVTec Software GmbH


Das könnte Sie auch interessieren

Neuer Geschäftsführer bei Omron Electronics

 

Zuvor war Kluger als Managing Director Europe und Vice President Business Development für Adept Technology, später für Omron Adept Technologies tätig. Außerdem ist er als ehrenamtliches Vorstandsmitglied im Fachverband Robotik des VDMA aktiv.

www.industrial.omron.eu

Jahresabschluss und Verä;nderungen bei Stemmer

Am 30. Juni hat der global tätige Bildverarbeiter Stemmer Imaging sein Geschäftsjahr 2016/2017 mit einem Umsatz von 88,7Mil.€ und einem währungsbereinigten Wachstum von 6% abgeschlossen. Der Abschluss stellt auch das Ende einer Ära dar.

www.stemmer-imaging.de

Zylinderkopf-Volumenprüfung

Der 3D Snapshot Sensor Gocator 3210 mit integrierter Zylinderkopf-Volumenprüfung wurde speziell für die Kammervolumeninspektion von Zylinderköpfen in kleinen bis mittelgroßen Verbrennungsmotoren entwickelt. Die Sensoren produzieren hochauflösende 3D-Scans und Messergebnisse mit einer Genauigkeit von +/-0,04cm3 in weniger als 5Sek., selbst bei Brennkammern und Kolben mit glänzenden Oberflächen. Eine 2MP Stero-Kamera minimiert Abschattungen.

www.lmi

Verbesserte Genauigkeiten für Messmaschinen

Für das hochgenaue Messen wurde die Auswerte-Elektronik Quadra-Chek 3000 entwickelt. Moderne Videowerkzeuge werten das Kamerabild von Mess- und Profilprojektoren, Messmikroskopen oder Videomessmaschinen aus. Die integrierte Fehlerkompensation verbessert die mechanische Genauigkeit der Messmaschine. Filterfunktionen verhindern, dass Verschmutzungen auf dem zu messenden Objekt oder auf der Optik der Messmaschine das Ergebnis verfälschen. Bei der Auswertung des Kamerabildes erkennt die Elektronik Kanten und legt darauf Messpunkte fest.

www.heidenhain.de

Anzeige
Sicherheit ab dem ersten Teil

Die Möglichkeit des korrelationsfreien Messens ermöglicht in der Produktionslinie bereits für das erste Bauteil die notwendige Sicherheit über die Maßhaltigkeit. Damit können Unternehmen darauf verzichten, in regelmäßigen Abständen ihre Karosserieteile auf einem Koordinatenmessgerät (KMG) nachzumessen und die erkannten Abweichungen zwischen Inline und KMG als Korrekturwerte auf die Inline-Messanlagen zu übertragen.

www.zeiss.de

Anzeige
Deep Learning Algorithmen für CNNs

Der Matlab Release 2017a enthält eine Reihe neuer Funktionen sowie die Automated Driving System Toolbox. R2017a enthält zudem Aktualisierungen und Fehlerbehebungen für 86 vorhandene Produkte. Beispielsweise werden in der Neural Network Toolbox verschiedene Deep-Learning-Algorithmen zum Trainieren von neuronalen Faltungsnetzwerken (CNNs) für Regressionsaufgaben mit mehreren GPUs auf PCs, auf Clustern und in der Cloud angeboten, sowie die Deep-Learning-Visualisierung für die von einem CNN-Modell erlernten Funktionen mithilfe von Bildoptimierung. Zudem stehen Funktionen zur Übertragung von Gewichtungen von vortrainierten CNN-Modellen (Alexnet, VGG-16 und VGG-19) und Modellen von Caffe Model Zoo zur Verfügung.

www.mathworks.de

Anzeige