Anzeige
Anzeige

Alleinunterhalter

Autonomes Visionsystem ist in 30 Minuten einsatzbereit

Beim Inspekto S70 handelt es sich um das erste komplett autonome Visionsystem, bei dem Anwender keine Kenntnisse über Bildverarbeitung benötigen.

(Bild: Inspekto)

Das Bildverarbeitungssystem verfügt bereits im Auslieferungszustand über alle Komponenten, um sofort mit der Prüfung von Produkten beginnen zu können: von einem einstellbaren Roboterarm und Montage-Adapter (für die Befestigung an der Produktionslinie) bis hin zu einem Industrie-Controller mit zahlreichen Schnittstellen für verschiedene Kommunikationsprotokolle. Des Weiteren ist eine Beleuchtungseinheit und ein Vision Sensor mit einem 10fach-Zoom Bestandteil des Systems. Der Sensor ist mit einem Roboterarm verbunden, der direkt an einem Aluminium-Bosch-Profil befestigt werden kann. Jedes System umfasst mehrere Arme, die in verschiedenen Kombinationen installiert werden können, sowie einen Stabilisierungsarm zum Verhindern von Vibrationen. Zudem ist ein Beschleunigungssensor vorhanden, mit dessen Hilfe sich das System an die jeweiligen Umgebungsbedingungen anpassen kann und so die besten Bildaufnahmen ermöglicht. Der Controller unterstützt die gebräuchlichsten Industrieprotokolle. Inspekto hat zudem eine Programmierschnittstelle erstellt, die alle speicherprogrammierbaren Steuerungen (SPS) integrieren kann, wie z.B. TCP/IP, Profinet und serielle (Profibus und Modbus) für den Fall, dass die SPS TCP und Industrie-I/Os nicht unterstützt. Derzeit arbeitet die Firma bereits an der Entwicklung von weiteren Schnittstellen, die in Kürze eingeführt werden.

Einstellungen per KI

Der gesamte Einrichtungsprozess kann von jedem Mitarbeiter in knapp 30 bis 45 Minuten und ohne externe Unterstützung durchgeführt werden. Der Benutzer schaltet den Controller ein und stellt sicher, dass das Sichtfeld des Sensors den zu untersuchenden Bereich abdeckt. Er richtet dann ein Testmuster im Sichtfeld aus und markiert die Region-of-Interest, in dem das System Fehler erkennen soll. Danach passt die künstliche Intelligenz (KI) des Systems automatisch die Beleuchtung und Kameraparameter an das Produkt und die jeweiligen Umgebungsbedingungen an, um ein Bild zu erhalten, bei dem Fokus, Tiefenschärfe, Belichtung und Dynamikumfang perfekt sind. Bild 1 zeigt eine Produktmustererstellung mit standardmäßigen automatischen Einstellungen einer Industriekamera (l.), sowie die Mustererstellung, nachdem die Algorithmen des Inspekto S70 anhand der Konturmarkierungen des Anwenders die Hardware optimiert haben (r.). Anschließend lokalisiert die Erkennungs- und Ausrichtungs-KI automatisch das Produkt und erkennt dessen 3D-Position im Raum. Dies ermöglicht das Hinzufügen weiterer Produkte als Muster, selbst wenn diese eine andere Position oder Ausrichtung als die vorherigen Produkte aufweisen. Das System erfordert knapp 20 ´gute´ Muster, um die Objekteigenschaften zu erlernen. Abhängig von der Komplexität des Objekts können auch mehr Musterbeispiele erforderlich sein. Die genaue Anzahl der Muster wird während des Erfassungsprozesses eigenständig vom System berechnet, d.h. der Anwender muss keine eigene Entscheidung fällen, wann der Einlernungsprozess beendet ist. Bild 2 zeigt eine Konfigurationsphase, in der das System weitere Muster anfordert (l.), und eine, in der das System darauf hinweist, dass es über alle Produktinformationen verfügt und mit der Inspektion beginnen kann (r.).

Bild 1 | Produktmustererstellung mit standardmäßigen automatischen Einstellungen einer Industriekamera (l.) und Mustererstellung, nachdem Algorithmen des autonomen Visionsystems Inspekto S70 anhand von Konturmarkierungen des Anwenders die Hardware optimiert haben (r.). (Bild: Inspekto)

Produktmustererstellung mit standardmäßigen automatischen Einstellungen einer Industriekamera (l.) und Mustererstellung, nachdem Algorithmen des autonomen Visionsystems Inspekto S70 anhand von Konturmarkierungen des Anwenders die Hardware optimiert haben (r.). (Bild: Inspekto)

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Die auf Sparse Modeling basierte KI von Hacarus benötigt nur einen kleinen Satz von Daten, da sie sich auf die Identifizierung einzigartiger Merkmale konzentriert. Tests belegen, dass Sparse Modeling bei gleicher Genauigkeit nur 1% der Energie einer herkömmlichen Deep Learning Plattform verbraucht und deutlich weniger Trainingszeit. Sie ist damit die perfekte KI-Technologie für Embedded Systeme.‣ weiterlesen

www.hacarus.com, www.congatec.com

Anzeige

Nahezu jede(r) Kamera oder Sensor benötigte bisher eine eigene Software bei steigender Funktionalität. Wenglor hat mit uniVision 2.1 jetzt eine parametrierbare Software entwickelt, die mit allen Visionkomponenten kompatibel ist, von 2D-/3D-Profilsensoren, über intelligente Kameras bis hin zu Visionsystemen. Die Bildverarbeitungssoftware lässt sich dabei auch ohne Programmierkenntnisse einfach nutzen.‣ weiterlesen

www.wenglor.de

Anzeige

Die Time-of-Flight Kamera Spotguard von tofmotion erlaubt eine sichere Raumüberwachung. Das Produkt erkennt in Echtzeit Objekte, die in Gefährdungsräume eindringen und erfüllt vordefinierte Sicherheitsfunktionen, um identifizierte Gefährdungen zu minimieren. Die 3D-Kameras sind zertifiziert und zugelassen nach EN13849 (Performance Level D) und EN62061 (SIL 2, Cat.) für einen Arbeitsbereich von 0,05 bis 10m.‣ weiterlesen

www.tofmotion.com

Anzeige

Die Sensoren Viro WSI wurden für MIG/MAG- und Lötnähte sowie für Lasernähte optimiert. Damit ist das Prüfsystem ideal für anspruchsvollen Prüfaufgaben z.B. an Karosserien, Achsbauteilen und EV-Batterien.‣ weiterlesen

www.vitronic.com

Anzeige

The VP-101MX and 151MX cameras are equipped with the CoaXPress interface and based on the IMX461 and 411 CMOS. The MX-9 offers up to 8.7fps at 11,648x8,742 resolution. For even higher applications, the MX-6 offers up to 6.2fps at 14,192x10,640 Pixel.‣ weiterlesen

www.vieworks.com

Anzeige

Der LumiScanX von HD Vision basiert auf Lichtfeld-Sensorik und dreizehn Kameras. Bereits bei Umgebungslicht kann das System ohne Zusatzbeleuchtung genutzt werden. Messabstände/-volumina können dabei variiert werden. Optimale Ergebnisse liegen in einem Messvolumen von 20 bis 120cm Kantenlänge. Insbesondere bei glänzenden Oberflächen und Faserverbundwerkstoffen spielt die Technologie ihre Vorteile aus.‣ weiterlesen

www.hdvisionsystems.com

Anzeige

Bei der Tracer SI-Plattform für die lasergeführte Montage und Kontrolle werden 3D-CAD-Daten verwendet, um 3D-Laserbilder auf physische Oberflächen zu projizieren. Bei der neuartigen Kamera erstrecken sich Projektion und hochauflösende Bildscan-Funktionen auf das gesamte Projektionsvolumen.‣ weiterlesen

www.faro.com

Anzeige

Das Positionierungssystem LightRunner verändert die automatisierte optische 3D-Messung. Ein patentiertes Musterprojektionsverfahren und Software-Algorithmen ermöglichen es Zykluszeit zu verkürzen und die Produktivität erhöhen, da die Zeit für Mapping und Roboterstabilisierung entfällt.‣ weiterlesen

www.hexagonmetrology.de

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige