Keine Experimente

Tipps zur richtigen Beleuchtung von großen Flächen

Wenn es darum geht, wie man große Bereiche bei einer Pick&Place-Applikation in der Robotik beleuchtet, stellen sich die immer gleichen Fragen: Wie schütze ich meine Applikation vor dem Umgebungslicht? Wie stellt man sicher, dass das Personal an der Maschine nicht von der Beleuchtung abgelenkt wird oder wie wird die Beleuchtung eingebaut, um Kollisionen mit den beweglichen Teilen der Maschine zu verhindern?
Leider ist dies nicht das einzige Problem, um das man sich kümmern muss. Denn die eigentliche Aufgabe der Beleuchtung besteht ja darin, einen guten, konstanten und verlässlichen Kontrast entsprechend der Anforderung der Kamera bereit zu stellen. Und dann müssen Sie sich noch überlegen, welche Beleuchtung Sie aus dem großen zur Verfügung stehenden Angebot auswählen und wo und wie Sie diese platzieren. Allerdings ist es meist so, dass die Beleuchtungs-Thematik erst ganz am Ende kommt, lange nachdem alle anderen Punkte bereits durch die Mechanik(er) entschieden sind. Natürlich ist die Handhabung der Kundenprodukte niemals so einfach, wie wir das gerne hätten. Allerdings braucht man sich auch keine Gedanken darüber zu machen, wie der Roboter Teile greifen soll, wenn er sie gar nicht sieht. Selbst ich, als technischer Ingenieur mit großer Erfahrung im Bau von Anlagen mit integrierter Bildverarbeitung im Robotik-Bereich, lag früher häufig falsch. Manchmal dachte auch ich über die Integration der Bildverarbeitung erst nach dem Anlagendesign nach, also wenn es richtig schwierig wird, weil niemand – auch nicht der Kunde – das Thema Beleuchtung berücksichtigt hatte. Inzwischen bin ich Hersteller von Beleuchtungen für die Bildverarbeitung und derjenige, der sich damit quält, die richtige Beleuchtung zu finden, die noch in den verbliebenen Platz in der Anlage passt, aber gleichzeitig auch den Vision-Spezialisten zufrieden stellt. So frage ich mich manchmal, ob die Anwender wirklich wissen, was zwischen Licht und Objekt passiert, also wie die Interaktion funktioniert.

Wie bekomme ich einen guten Kontrast?

Zuerst muss die Applikation durch entsprechende Einhausungen und Bandpassfilter vom Umgebungslicht geschützt werden. Ein anderer Weg ist es, den Bereich mit einem leistungsstarken Licht auszuleuchten. Eine solche starke Beleuchtung erlaubt (a) die Reduzierung der Belichtungszeit, um Bewegungsunschärfen zu verhindern und den Einfluss des Umgebungslichts zu limitieren und (b) die Iris zu schließen und die Sichtfeldtiefe zu erhöhen. Als nächstes muss der Kontrast erhöht werden, in dem die richtige Leuchtfarbe gewählt wird, z.B. wird ein Stück Fleisch (rot) auf einem blauen Fließband besser mit einem roten Licht beleuchtet, sodass für die Kamera das Fleisch weiß und der Untergrund schwarz erscheint. Bild 1 zeigt, wie sich der Kontrast durch die richtige Lichtfarbe verbessert. Oder es wird infrarotes Licht eingesetzt, wenn die Farben nicht erkannt werden sollen. Anschließend muss das Objekt ausgerichtet werden, denn die Graustufen der Pixel stehen im direkten Zusammenhang mit der Menge Licht, die das Objekt erhält. Ein schwarzer Pixel bedeutet: kein Licht. Ein weißer: reichlich. Wenn man das weiß, wird eine Berechnung, wie das aufgenommene Bild entsprechend der gewählten Beleuchtung sein wird, recht einfach.

Anzeige

Beleuchtung großer Flächen

Allerdings ist es nicht so einfach, wenn es um die Beleuchtung von großen Flächen geht. Sehr häufig nutzt der Anlagenbauer eine einzelne Kamera, um ein großes Feld zu betrachten. In diesem Fall ist eine Simulation, wie sich die Lichtstrahlen verhalten hilfreich, denn so wird verständlich, wie das resultierende Bild für die Kamera zustande kommt. Dafür benötigt man keine komplizierte oder teure Software, sondern nur ein Stück Papier, einfache zeichnerische Fähigkeiten und etwas Logik. Als Beispiel wollen wir eine Palette mit Kartons (2x1m) mit einem Arbeitsabstand von einem Meter von oben beleuchten. Die Kamera wird mit einem kleinen Abstand zum Objekt angeordnet, um nicht gewollte Effekte zu umgehen. Dann soll die Palette mit einer Hochleistungs-Ringleuchte beleuchtet werden, die direkt an der Kamera montiert ist und mit weißen Linsen ausgestattet sein soll. Jeder kennt das Ergebnis: Ein grelles, blendendes Licht in der Mitte und nichts am Rand. Aber warum erhalten wir dieses Resultat? Bild 2 hilft bei der Erklärung. Dieser ungewollte Effekt kann zwar reduziert werden, indem man den Abstand H erhöht, allerdings kann man ihn nicht eliminieren. Durch den Streueffekt erhält man kein wirkliches Bild am Rand, da direkte Lichtstrahlen, die auf eine Oberfläche treffen, ‚explodieren‘ und Streuung entstehen lassen (Ausnahme: die beleuchtete Oberfläche ist sehr glänzend, z.B. poliertes Metall).

Das könnte Sie auch interessieren

Auf der W3+ Fair 2018 vom 21. bis 22. Februar 2018 in Wetzlar dreht sich alles um Technologien, die künftig zentrale Rollen in den Bereichen Luftfahrt, Automotive und Medizintechnik spielen. Dazu treffen sich Experten aus Optik, Elektronik und Mechanik in der Rittal Arena zum Austausch und Networking: Insgesamt über 180 Unternehmen sowie ein breitgefächertes Vortragsprogramm erwartet die Besucher. Bis zum 8. Februar bekommen Sie kostenfreien Zutritt zur Messe. Dazu im Ticketshop den Code W3NL1601 eingeben.

www.w3-messe.de

Anzeige

Am 12. Januar  fand das 67. Heidelberger Bildverarbeitungsforum mit knapp 300 Teilnehmern statt. Die Sonderveranstaltung „10 Jahre Heidelberg Collaboratory for Image Processing (HCI)“ erfolgte in Kombination mit dem Physikalischen Kolloquium der Universität Heidelberg. Das HCI wurde 2008 als Teil des Zukunftskonzepts der Universität Heidelberg in der Exzellenzinitiative gegründet. Auf der Veranstaltung stellten junge Wissenschaftlicher des HCI Highlights aus den Forschungsergebnissen der letzten zehn Jahre vor. Abschluss der Veranstaltung war der Festvortrag von Prof.Dr. Carsten Rother als Nachfolger von Prof.Dr. Bernd Jähne. Seit November 2017 sind in der dritten Phase des HCI die Firmen Bosch, Bayer, Heidelberg Engineering und Volume Graphics beteiligt.

www.bv-forum.de

Das Unternehmen Jenoptik, Anbieter von optischen Hochleistungssystemen und Lösungen für Healthcare- und Industrieanwendungen, hat ein neues Applikationszentrum im kalifornischen Fremont eröffnet. Mit dem neuen Standort an der US-Westküste möchte das Unternehmen näher am Kunden sein und damit das Wachstum in den USA beschleunigen. Direkt vor Ort werden Jenoptik-Mitarbeiter zukünftig Unternehmen bei der Umsetzung von ihren Innovationszielen unterstützen.

www.jenoptik.de

The AdvaPix TPX3 has an array of clever pixel electronics capable of processing every detected photon. The camera is capable of measuring simultaneously position, energy and time-of-arrival. Rather than collecting data frame-by-frame the device generates a continuous stream of event data. The information about detected photon energy is used to create a full per-pixel spectra. The camera acquire up to 40 million hits per second.

www.advacam.com

Keynote-Speaker der 2. Industrial Vision Conference, die vom 21.-22. März in Ludwigsburg stattfindet, ist Jörg Heinze, Leiter Technologiefabrik Presswerk bei der Daimler AG in Bremen. Thema seines Vortrags ist ‚Qualität im Presswerk – Evolution in der Qualitätssicherung‘. Weitere Vorträge der Tagung stammen von Carl Zeiss AI, LMI, Matrix Vision, Micro Epsilon, MVTec, Stemmer Imaging, VMT … Empfänger unseres Newsletters erhalten den reduzierten Preis von 1.445€ statt 1.795€, wenn Sie bei der Anmeldung im Feld Bemerkungen das Stichwort „inVision“ eingeben.

www.sv-veranstaltungen.de

Das junge Unternehmen Nerian Vision Technologies verzeichnet weiteres Wachstum und konnte das Geschäftsjahr 2017 erfolgreich abschließen. Auftragsbestand und Umsatz forderten besonders im Bereich Entwicklung personellen Ausbau. Darum verstärkt Dr. Jan Hackenberg seit dem 1. Januar 2018 das Team bei der Optimierung der Softwareumgebung der Produkte sowie der Weiterentwicklung des Portfolios.

nerian.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige