inVISION Top Innovation 2016

Simatic Integrated Vision

Die Integration der Bildverarbeitung direkt in die Bedien- und Programmieroberfläche der Simatic-SPS-Welt, und das nur auf einer einzigen Visualisierungsebene, ermöglicht ‚Machine Vision 4.0‘. Die Automatisierungs-Programmierer und Bildverarbeiter können nun die bisher getrennten Sprachwelten direkt auf einer einzigen Bedienoberfläche integrieren, d.h IBV-Simulation in WinCC bzw. IBV-Projektierung auf dem TIA Portal.

Anzeige
FPGA-Bildvorverarbeitung in der Kamera

Die LX-VisualApplets-Kameras ermöglichen eine applikationsspezifische Bildvorverarbeitung direkt auf dem FPGA der Kamera, um Bilddaten mit sehr hoher Auflösung und Geschwindigkeit schnell und kostengünstig zu verarbeiten. Dank einer Partnerschaft mit Silicon Software können Anwender die FPGAs mittels der VisualApplet-Software direkt auf der Kamera entsprechend der jeweiligen Bildverarbeitungsaufgabe programmieren.

Anzeige
Kinderleichte Farbeinstellung

Das Color-FEX-Tool übernimmt bei den Farbmodellen des Vision-Sensors VeriSens die Funktion eines ‚intelligenten Assistenten‘. Nach Einlernen der relevanten Objektfarben bestimmt der Sensor den entsprechenden repräsentativen Farbraum. Dieser wird in Form von Kugeln dargestellt, wobei der Kugelradius der vorgegebenen Farbtoleranz entspricht. Die Kugeln werden in einem 3D-Raum visualisiert und auf Überschneidungen geprüft. Liegen keine ‚Kollisionen‘ vor, kann das System die Farben unterscheiden.

Anzeige
Neue Linsenformen für Flüssiglinsen

Mit der Visayan-Flüssiglinsen-Serie sind völlig andere Linsenformen als mit bisherigen Flüssiglinsen möglich. Dies wird dadurch erreicht, dass die Linsenform mit mehreren Elektroden geformt wird. Dadurch ergeben sich völlig neue Darstellungsmöglichkeiten. Die Linsen haben einen äußeren Durchmesser von 18mm und eine Apertur von bis zu 8mm. Erste Einsatzbereiche sind in der Medizintechnik, aber auch industrielle Anwendungen sind möglich.

Jenseits des GigE-Limits

Mit der Datenverschlüsselungstechnologie TurboDrive lassen GigE-Vision-Kameras die bisher bestehenden Bandbreitenbeschränkungen weit hinter sich. Mittels der neuen Technologie ist die Übertragung von Pixelinformationen mit mehr als 115MB/s möglich, d.h. der Datendurchsatz kann je nach Bild ohne den geringsten Verlust von Bilddaten um bis zu 150% erhöht werden. Das im Speichersystem empfangene Bild ist somit mit dem vom Kamerasensor aufgezeichneten Bild identisch.

Neuer CMOS-Standard

Lange Jahre galt Sony als einer der Top-Hersteller von CCD-Image-Sensoren. Inzwischen hat sich das geändert, da zum einen Sony seine CCD-Herstellung 2025 einstellt, aber vor allem da die Firma inzwischen mit den IMX-Image-Sensoren einen neuen CMOS-Standard geschaffen hat, der die Vorteile von CCD- und CMOS-Sensoren vereint. Die Sony-Roadmap für die nächsten Jahre zeigt, dass die Auswahl der CMOS-Sensoren sowohl für High-End- als auch Low-End-Applikationen nochmals deutlich zunehmen wird.

Industrielle Hyperspektral-Systeme

Lange Zeit waren Hyperspectral-Imaging-Systeme teuer und eigentlich nur etwas für Experten, die in der Lage waren, aus den Bilderwürfeln die richtigen Rückschlüsse zu ziehen. Inzwischen hat sich dies geändert und der Siegeszug von industriellen Hyperspektral-Systemen beginnt. So kann das Komplettsystem Perception System sowohl bei at-line- als auch für die in-line-Kontrolle beim Chemical Imaging eingesetzt werden. Es wird direkt an eine Hyperspectral-Kamera angeschlossen und wertet die Daten aus.

Kompakte telezentrische Linsen

Die Core-Serie telezentrischer Objektive und Beleuchtungen erfüllt gegensätzliche Wünsche: exzellente optische Eigenschaften bei extrem kompakter Bauform. Die speziellen Optiken sind bis zu 70% kürzer als vergleichbare Produkte, ohne dabei Einschränkungen bei den optischen Eigenschaften zu haben. Die einzigartige Form der Optiken wurde zusätzlich auch unter dem Gesichtspunkt der Integrierbarkeit entwickelt und ermöglicht die Montage in diversen Orientierungen.

3D-Sensor in drei Minuten konfigurieren

Die Konfigurierung des 3D-Vision-Sensors O3D ist innerhalb von drei Minuten möglich. In sogenannten Apps sind die Algorithmen für jeweils bestimmte Anwendungen (Vollständigkeitskontrolle, Volumenbestimmung quaderförmiger Objekte usw.) bereits vollständig programmiert. Auch die optimalen Grenzwerte legt die App während der Konfiguration selbstständig fest. Damit ist die Verwendung des 3D-Sensors fast so einfach, wie die eines herkömmlichen optischen Abstandssensors mit Teach-In-Funktion.

Beleuchtung mit integrierter Intelligenz

Die Software Triniti ermöglicht die Integration und Vernetzung von Beleuchtungskomponenten. Wichtiger Bestandteil ist der in den Beleuchtungen integrierte Triniti-Chip, der die jeweiligen Spezifikationen enthält und die dynamischen Nutzungsdaten speichert. Dank komplexer Steuerungstechniken kann so z.B. das Risiko von Beschädigungen der Beleuchtungen vermieden werden. Inzwischen haben bereits viele Beleuchtungshersteller Trinity in ihre Produkte integriert.


Das könnte Sie auch interessieren

Sensoren schlank anbinden

Embedded Designs kommen typischerweise zum Einsatz, wenn Geräte in einer größeren Serienstückzahl gefertigt werden sollen. Die Systemauslegung erfolgt also für eine bestimmte Anwendung. Durch Adaptierung der einzelnen Komponenten an den Einsatzzweck lassen sich die Geräte kompakt und kosteneffizient gestalten. Bei Embedded-Imaging-Geräten ist die richtige Auswahl von Kamerasensor/-schnittstelle wesentlich für ein erfolgreiches Design.

Anzeige
IDS verstärkt UK Präsenz

Seit Januar 2017 ist die IDS Imaging Development Systems GmbH mit einer eigenen Niederlassung im Vereinigten Königreich vertreten. Verantwortlich für die dortigen Geschäfte wird der bisherige Vertriebsleiter Steve Hearn (Bild) als Leiter der neuen IDS Imaging Development Systems Ltd. sein.

Anzeige
Embedded-Vision-Podiumsdiskussion auf der Embedded

Am Mittwoch den 15. März veranstaltet die Embedded World zusammen mit dem VDMA IBV die Podiumsdiskussion ‚embedded Vision – the next big thing?‘. Die Veranstaltung findet am zweiten Messetag der Embedded World von 15:00 bis 16:00 Uhr auf dem Forum in Halle 3A auf dem Nürnberger Messegelände statt. Teilnehmer der Diskussion sind Firmenvertreter von ARM, Basler, Embedded Vision Alliance, MVTec, Robert Bosch und Xilinx.

Image Sensor Tech Days 2017

Einen Überblick über aktuelle Bildsensoren bieten die 2. Image Sensor Tech Days vom 25. bis 26. April in Dornach bei München. Vorträge von Sony Japan, ON Semiconductor und e2v zu den aktuellen und kommenden Sensoren bilden den Rahmen. Ergänzt wird das Programm durch Vorträge zu effektiver Sensorbestückung, passenden Objektivlösungen und 360° Imaging.

3D-Bildaufnahme mit durchdringender Strahlung

Das 64. Heidelberger Bildverarbeitungsforum findet am 7. März 2017 im Fraunhofer Entwicklungszentrum Röntgentechnik in Fürth statt. Unter dem Schwerpunktthema ‚3D-Bildaufnahme mit durchdringender Strahlung‘ stellt es die wichtigsten Methoden zur volumetrischen Bildaufnahme vergleichend vor, wie beispielsweise Computertomografie, die aktive Thermografie, Magnetresonanz-, Terahertz- und Ultraschallbildgebung.

UKIVA Conference 2017

Am 27. April 2017 veranstaltet der britische Bildverarbeitungsverband UKIVA in der Arena in Milton Keynes die erste UKIVA Machine Vision Conference & Exhibition. Mit über 30 Ausstellern, 50 geplanten Seminaren zur Bildverarbeitung und 30 Live-Demonstrationen werden die neuesten Trends zu sehen sein. Besucher können sich für die Teilnahme an der Veranstaltung vorab registrieren.