Anzeige
Anzeige
Anzeige

inVISON Top Innovation 2015

Im Gegensatz zu bisherigen Systemen ist der 3D-Infrarot-Scanner R3Dscan in der Lage transparente, spiegelnde und dunkle bzw. schwarze reflektierende Oberflächen zu erfassen. Das bisher übliche Vorbehandeln der Oberflächen wie z.B. das Einweißen, Sprühen bzw. nachträgliche Säubern, entfällt dabei komplett. Mit dem patentierten Infrarot-Messverfahren ist es erstmals möglich die aufgezählten Anwendungen auch Inline zu messen und zu prüfen.

www.aimess-products.de

Anzeige

Das mobile 3D-Messgerät dentCheck hat die Größe eines Projektors. Das System projiziert ein Spezialmuster auf die Oberfläche und erfasst das Projektionsbild und dessen Verformung. Die Software analysiert die Verformung, um daraus ein 3D-Modell abzuleiten. Der Clou ist, dass die Ergebnisse der Messung direkt auf das geprüfte Objekt projiziert werden. So wird etwa eine Delle in der Autokarosserie farblich hervorgehoben und ihre Maße, Tiefe etc. direkt daneben angezeigt.

www.8-tree.com

Anzeige

Die 3D-Lasersensoren Ecco 75 sind mit 1.920 Punkten pro 3D-Profil die ersten 3D-Sensoren am Markt mit Detailauflösungen in HD-Qualität. Bei einer Auflösung von 1,5µm/Pixel sind selbst kleinste Fehler und Abweichungen erkennbar. Der Sensor ist mit einem Dual-Core-Prozessor ausgestattet und scannt mehr als 7,5Mio 3D-Punkte/s. Mittels HDR und einem Reflexfilter lassen sich selbst große Helligkeitsunterschiede und stark reflektierende Objektteile erfassen.

www.smartray.de

Anzeige

LightBridge ist ein neues Konzept für die Echtzeit-Bildverarbeitung, das die Funktionalität eines Framegrabbers durch die externe Anbindung über eine Thunderbolt-Schnittstelle zur Verfügung stellt. Das lüfterlose System wird über ein elektrisches oder optisches Thunderbolt-Kabel an den Host-PC angeschlossen. Da der integrierte FPGA programmierbar ist, können komplette Bildverarbeitungsaufgaben im System berechnet werden und über die SPS ihren Status kommunizieren.

www.silicon-software.de

Die Time-of-Flight-Systeme (ToF) der real-iZ-Familie verwenden einen einzelnen Pixel in Verbindung mit einem kurzen, aber intensiven IR-Impuls sowie eine On-Board-FPGA-Verarbeitung um Detail- und Entfernungsinformationen zu extrahieren. Dank der Impulstechnik sind auch Messungen bei starkem Umgebungslicht möglich. Mit dem 4,2MP-Bildsensor liefern die 3D-ToF-Systeme Auflösungen, die auch für die Bildverarbeitung geeignet sind.

www.odos-imaging.com

Das Laser-Radar ist ein berührungsloses 3D-Messsystem mit einer Genauigkeit von <0,1mm über das gesamte Messvolumen eines Fahrzeuges und für Reichweiten bis zu 50m. Es eignet sich zum Messen von Bohrungen und Bolzen, sowie zum Scannen von Oberflächen. Das Sichtfeld (FOV) beträgt Azimuth 360° bei einer Höhe von ±45°. Das Gerät misst mit einem Laser der Klasse II bis zu 2.000Punkte/s und hat eine 3D-Genauigkeit (2µ) von 301µm bei 30m bzw. 24µm bei 2m.

www.nikonmetrology.com

Die Perception Cam ist eine 6D-Kamera mit lernfähiger Wahrnehmungstechnologie. Sie erfasst dynamische Objekte, erkennt und analysiert deren Größe, Position, Geschwindigkeit sowie das Bahnverhalten in Echtzeit. Die kompakte Kamera (61x56x234mm) verfügt über eine automatische Selbstkalibrierung, hat einen Überlappungsbereich von 1.024×1.024 Pixel sowie einen Erfassungsbereich von 200 bis 2.500mm.

www.matrix-vision.de

Das Lackinspektionssystem PaintScan ermöglicht mittels Inline-Deflektometrie die Inspektion von lackierten Oberflächen in Echtzeit. Das Verfahren ermöglicht die 3D-Bewertung spiegelnder Oberflächeneigenschaften, benötigt dafür aber nur ein einzelnes Bild, aufgrund spezieller Musterprojektionen. Bei einer Inspektionsgeschwindigkeit von 700mm/s lässt sich z.B. mit vier Robotern eine komplette Karosse in weniger als 45s mit einer Genauigkeit von 0,2mm inspizieren.

www.isravision.com

Mit der Backlight-Beleuchtung seelectorLux OLED (organic LED) kommen erstmals OLEDs auch im Bereich der industriellen Bildverarbeitung zum Einsatz und setzen dort neue Maßstäbe in Homogenität, Farbtreue und Formfaktor bei Leuchtfeldern. OLEDs unterscheiden sich aufgrund ihrer extreme dünnen Bauweise und flächigen Abstrahlcharakteristik grundlegend von den bisher in der Bildverarbeitung eingesetzten Lichtquellen.

www.hema.de

Anstelle eines eindimensionalen Spalts kommt bei den vollflächig hyperspektralen Spectrometer-Kameras ein zweidimensionales Eingangsmuster zum Einsatz. Das System ermöglicht dadurch simultan vollflächige Aufnahmen mit 125 spektralen Kanälen, arbeitet im Wellenlängenbereich von 450 bis 950nm und hat eine spektrale Auflösung von 8 bis 532nm. In weniger als 1ms entstehen so vollständige Datenpakete, womit sich auch bewegte Objekte aufnehmen lassen.

www.cubert-gmbh.de


Das könnte Sie auch interessieren

Antmicro und Allied Vision haben auf der Vision eine Deep-Learning-Anwendung gezeigt. Diese bedient sich KI zur Identifizierung und Verfolgung von Personen und Objekten in Echtzeit und setzt auf die neue Alvium-Kameraserie sowie den Nvidia Jetson AGX Xavier.‣ weiterlesen

www.antmicro.com, www.alliedvision.com

Anzeige

The Omnitek DPU (Deep Learning Processing Unit) is a configurable IP core built from a suite of FPGA IP comprising the key components needed to construct inference engines suitable for running DNNs used for a wide range of Machine Learning applications, plus an SDK supporting the development of applications which integrate the DPU functionality.‣ weiterlesen

www.omnitek.tv

Anzeige

Moonvision automatisiert dank AI die Oberflächenerkennung unterschiedlichster Materialien. Was bislang über 50 Bilder erfordert hat, gelingt dem Wiener Startup mit nur elf Bildern. ‣ weiterlesen

www.moonvision.io

Anzeige

Preiswerte Einplatinencomputer haben ihr Bastler-Image längst abgelegt und werden bereits zur Maschinensteuerung eingesetzt. Im Rahmen einer Masterarbeit an der TH Deggendorf wurde nun ein kostengünstiges Smart-Kamera-System auf Basis eines Einplatinencomputers (Raspberry PI 3) als Labormuster entwickelt.‣ weiterlesen

www.th-deg.de

Der neuromorphe System-on-Chip-Baustein (NSoC) Akida ermöglicht erstmals eine gepulste neuronale Netzwerk-Architektur (SNN: Spiking Neural Network) in Serie.‣ weiterlesen

www.brainchipinc.com

Embedded Deep Learning soll künstliche Intelligenz von der Cloud in das Gerät oder die Maschine bringen. Der erste Schritt zur Verkleinerung einer Serverfarm besteht laut Imago darin, ein leistungsstarkes GPU-Board in einer kompakten VisionBox einzusetzen.‣ weiterlesen

www.imago-technologies.com

Anzeige
Anzeige
Anzeige