Anzeige

Keine Experimente

Tipps zur richtigen Beleuchtung von großen Flächen

Wenn es darum geht, wie man große Bereiche bei einer Pick&Place-Applikation in der Robotik beleuchtet, stellen sich die immer gleichen Fragen: Wie schütze ich meine Applikation vor dem Umgebungslicht? Wie stellt man sicher, dass das Personal an der Maschine nicht von der Beleuchtung abgelenkt wird oder wie wird die Beleuchtung eingebaut, um Kollisionen mit den beweglichen Teilen der Maschine zu verhindern?
Leider ist dies nicht das einzige Problem, um das man sich kümmern muss. Denn die eigentliche Aufgabe der Beleuchtung besteht ja darin, einen guten, konstanten und verlässlichen Kontrast entsprechend der Anforderung der Kamera bereit zu stellen. Und dann müssen Sie sich noch überlegen, welche Beleuchtung Sie aus dem großen zur Verfügung stehenden Angebot auswählen und wo und wie Sie diese platzieren. Allerdings ist es meist so, dass die Beleuchtungs-Thematik erst ganz am Ende kommt, lange nachdem alle anderen Punkte bereits durch die Mechanik(er) entschieden sind. Natürlich ist die Handhabung der Kundenprodukte niemals so einfach, wie wir das gerne hätten. Allerdings braucht man sich auch keine Gedanken darüber zu machen, wie der Roboter Teile greifen soll, wenn er sie gar nicht sieht. Selbst ich, als technischer Ingenieur mit großer Erfahrung im Bau von Anlagen mit integrierter Bildverarbeitung im Robotik-Bereich, lag früher häufig falsch. Manchmal dachte auch ich über die Integration der Bildverarbeitung erst nach dem Anlagendesign nach, also wenn es richtig schwierig wird, weil niemand – auch nicht der Kunde – das Thema Beleuchtung berücksichtigt hatte. Inzwischen bin ich Hersteller von Beleuchtungen für die Bildverarbeitung und derjenige, der sich damit quält, die richtige Beleuchtung zu finden, die noch in den verbliebenen Platz in der Anlage passt, aber gleichzeitig auch den Vision-Spezialisten zufrieden stellt. So frage ich mich manchmal, ob die Anwender wirklich wissen, was zwischen Licht und Objekt passiert, also wie die Interaktion funktioniert.

Wie bekomme ich einen guten Kontrast?

Zuerst muss die Applikation durch entsprechende Einhausungen und Bandpassfilter vom Umgebungslicht geschützt werden. Ein anderer Weg ist es, den Bereich mit einem leistungsstarken Licht auszuleuchten. Eine solche starke Beleuchtung erlaubt (a) die Reduzierung der Belichtungszeit, um Bewegungsunschärfen zu verhindern und den Einfluss des Umgebungslichts zu limitieren und (b) die Iris zu schließen und die Sichtfeldtiefe zu erhöhen. Als nächstes muss der Kontrast erhöht werden, in dem die richtige Leuchtfarbe gewählt wird, z.B. wird ein Stück Fleisch (rot) auf einem blauen Fließband besser mit einem roten Licht beleuchtet, sodass für die Kamera das Fleisch weiß und der Untergrund schwarz erscheint. Bild 1 zeigt, wie sich der Kontrast durch die richtige Lichtfarbe verbessert. Oder es wird infrarotes Licht eingesetzt, wenn die Farben nicht erkannt werden sollen. Anschließend muss das Objekt ausgerichtet werden, denn die Graustufen der Pixel stehen im direkten Zusammenhang mit der Menge Licht, die das Objekt erhält. Ein schwarzer Pixel bedeutet: kein Licht. Ein weißer: reichlich. Wenn man das weiß, wird eine Berechnung, wie das aufgenommene Bild entsprechend der gewählten Beleuchtung sein wird, recht einfach.

Beleuchtung großer Flächen

Allerdings ist es nicht so einfach, wenn es um die Beleuchtung von großen Flächen geht. Sehr häufig nutzt der Anlagenbauer eine einzelne Kamera, um ein großes Feld zu betrachten. In diesem Fall ist eine Simulation, wie sich die Lichtstrahlen verhalten hilfreich, denn so wird verständlich, wie das resultierende Bild für die Kamera zustande kommt. Dafür benötigt man keine komplizierte oder teure Software, sondern nur ein Stück Papier, einfache zeichnerische Fähigkeiten und etwas Logik. Als Beispiel wollen wir eine Palette mit Kartons (2x1m) mit einem Arbeitsabstand von einem Meter von oben beleuchten. Die Kamera wird mit einem kleinen Abstand zum Objekt angeordnet, um nicht gewollte Effekte zu umgehen. Dann soll die Palette mit einer Hochleistungs-Ringleuchte beleuchtet werden, die direkt an der Kamera montiert ist und mit weißen Linsen ausgestattet sein soll. Jeder kennt das Ergebnis: Ein grelles, blendendes Licht in der Mitte und nichts am Rand. Aber warum erhalten wir dieses Resultat? Bild 2 hilft bei der Erklärung. Dieser ungewollte Effekt kann zwar reduziert werden, indem man den Abstand H erhöht, allerdings kann man ihn nicht eliminieren. Durch den Streueffekt erhält man kein wirkliches Bild am Rand, da direkte Lichtstrahlen, die auf eine Oberfläche treffen, ‚explodieren‘ und Streuung entstehen lassen (Ausnahme: die beleuchtete Oberfläche ist sehr glänzend, z.B. poliertes Metall).

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Dem Startup RoVi Robot Vision von drei Forschern der TU München ist es gelungen, intelligente Roboter auch für KMUs und Endverbraucher verfügbar zu machen. RoVi bietet eine softwarebasierte Sensorlösung, die herkömmliche elektronische Sensoren durch Software und gängige Kameras ablöst.

www.rovi-robotics.de

Anzeige

Mit der kleinen Lochblende und durch die Verwendung eines Photomultipliers als Laser-Empfangselement mit 16Bit-Erfassung, kann das konfokale 3D-Laserscanning-Mikroskop VK-X-Bilderfassungen und Messungen auf nahezu jeder Art von Material durchführen, da das Streulicht reduziert wird. Analysen können über eine 50mm-Messfläche mit einer Auflösung im nm-Bereich und einer Vergrößerung von 42x bis 28.800x durchgeführt werden. Dadurch ist die Aufnahme stets vollfokussierter Farbbilder und Messungen mit Fokusvariation nach ISO25178-6 möglich. Die AI-Scan-Funktion und AI-Analyser-Funktion vereinfachen die Messungen, da diese mit nur einem Klick Analysen starten kann.

www.keyence.de

Anzeige

Kollaboratives Arbeiten zwischen Menschen und Robotern ist einer der aktuellen Trends, die auf der diesjährigen Hannover Messe unter dem Motto „Integrated Industry – Connect and Collaborate“ thematisiert wird. ifm leistet mit seiner neuen 3D-Kamera O3X einen entscheidenden Beitrag dazu, dass dieser Trend auch in der Praxis umgesetzt werden kann.‣ weiterlesen

www.ifm.com

Anzeige

Als Teil der Computer Vision System Toolbox von Matlab ermöglicht die Image Labeler App die schnellere Kennzeichnung von Ground Truth Data in großen Bilddatensätzen für Deep Learning und semantische Segmentierung. Die App beinhaltet Automatisierungsalgorithmen, wie Flood Fill und Smart Polygon, zur schnelleren Kennzeichnung von Pixeln für die semantische Segmentierung.

www.mathworks.com

Anzeige

Nach 35 Jahren an der Spitze der Laser Components Group zieht sich Firmengründer Günther Paul (72) in den Ruhestand zurück. Bereits 2014 hatte er die Anteile des Unternehmens an seine Söhne Patrick und Felix überschrieben. Mit einer Überraschungsfeier in der Olchinger Firmenzentrale verabschiedete sich am 18. April die gesamte Belegschaft von ihrem langjährigen Chef und ließ noch einmal die wichtigsten Meilensteine der Firmengeschichte Revue passieren.

www.lasercomponents.de

Anzeige

Vom 15. bis 17. Mai findet in Frankfurt/Main die 14. Optatec – Fachmesse für optische Technologien, Komponenten und Systemen statt. Die Aussteller präsentieren auf der Messe die Zukunftstechnologien für die Entwicklung und Produktion von optischen Bauelementen, Optomechanik, Optoelektronik, Faseroptik, Lichtwellenleiter, Laserkomponenten und Fertigungssysteme

www.optatec-messe.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige