Anzeige
Anzeige
Anzeige

Going Deep

Jeff Bier’s Column: Why Depth Sensing Will Proliferate

If you’ve read recent editions of this column, you know that I believe that embedded vision – enabling devices to understand the world visually – will be a game-changer for many industries. For humans, vision enables many diverse capabilities: reading your spouse’s facial expression, navigating your car through a parking garage, or threading a needle. Similarly, embedded vision is now enabling all sorts of devices to be more autonomous, easier to use, safer, more efficient and more capable.

Bild: Embedded Vision Alliance

„Depth is a key aspect of visual perception, but one that’s been out of reach for most product designers.“ -Jeff Bier, Embedded Vision Alliance (Bild: Embedded Vision Alliance)

When we think about embedded vision (or, more generically, computer vision), we typically think about algorithms for identifying objects: a car, a curb, a pedestrian, etc. And, to be sure, identifying objects is an important part of visual intelligence. But it’s only one part. Particularly for devices that interact with the physical world, it’s important to know not only what objects are in the vicinity, but also where they are. Knowing where things are enables a camera to focus on faces when taking a photo, a vacuum cleaning robot to avoid getting wedged under the sofa, and a factory robot to safely collaborate with humans. Similarly, it’s often useful to know the size and shape of objects – for example, to enable a robot to grasp them. We live in a 3D world, and the location, size and shape of an object is a 3D concept. It’s sometimes possible to infer the depth dimension from a 2D image (for example, if the size of the object is already known), but in general, it’s much easier to measure the depth directly using a depth sensor. Historically, depth sensors have been bulky and expensive, like the LiDAR sensors seen on top of Google’s self-driving car prototypes. But this is changing fast. The first version of the Microsoft Kinect, introduced in 2010, showed that it was possible – and useful – to incorporate depth sensing into a consumer product. Since then, many companies have made enormous investments to create depth sensors that are more accurate, smaller, less expensive and less power hungry. Other companies (such as Google with Project Tango and Intel with RealSense) have invested in algorithms and software to turn raw depth sensor data into data that applications can use. And application developers are finding lots of ways to use this data. One of my favorite examples is 8tree, a start-up that designs easy-to-use handheld devices for measuring surface deformities such as hail-damage on car bodies. And augmented reality games in which computer-generated characters interact with the physical world can be compelling. There are many types of depth sensors, including stereo cameras, time of flight and structured light. Some of these, like stereo cameras, naturally produce a conventional RGB image in addition to depth data. With other depth sensor types, a depth sensor is often paired with a conventional image sensor so that both depth and RGB data are available. This naturally raises the question of how to make best use of both the RGB and the depth data. Perhaps not surprisingly, recently researchers have successfully applied artificial neural networks to this problem. The more our devices know about the world around them, the more effective they can be. Depth is a key aspect of visual perception, but one that’s been out of reach for most product designers. Now, thanks to improvements in depth sensors, algorithms, software and processors, it’s becoming increasingly practical to build incorporate sensing into even cost- and power constrained devices like mobile phones. Look, for example, at Apple´s just-announced iPhone 7 Plus, along with other recently-introduced dual-camera smartphones such as Huawei’s P9, Lenovo’s Phab2 Pro, LG’s G5 and V20, and Xiaomi’s RedMi Pro.

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Wie im ersten Teil (inVision 4/16, S.70) berichtet, befinden sich die Schnittstellen der Industriekameras aktuell auf dem Weg in die nächsten Generationen. Auch der inzwischen über 40 Jahre alten RJ45-Schnittstelle geht es nun an den Kragen. Einige Hersteller haben bereits neue Schnittstellen auf den Markt gebracht bzw. arbeiten aktuell an diesen. Doch was sind die Vorteile und welche wird sich durchsetzen? ‣ weiterlesen

www.alysium.com

Anzeige

Gleich zwei Firmen aus dem 3D-Bereich hat Cognex in den letzten Monaten gekauft. Zum einen die deutsche Firma EnShape aus Jena, deren 3D-Sensor ein sehr schnelles Bin-Picking ermöglicht. Bereits Ende August erfolgte die Akquise der spanischen AQSense, Spezialist im Bereich 3D-Vision-Software. ‣ weiterlesen

cgnx.client.shareholder.com

Anzeige

Wie sehr das Thema Embedded Vision die Branche beschäftigt, hat gerade die VISION in Stuttgart eindrucksvoll gezeigt. Eine Vielzahl von Branchen befasst sich immer intensiver mit den Möglichkeiten dieser intelligenten Systeme. ‣ weiterlesen

www.emva.org

Anzeige

Die Fraunhofer-Allianz Vision hat den 16. Band ihrer Leitfaden-Reihe herausgegeben. Der ´Leitfaden zur Inspektion und Charakterisierung von Oberflächen mit Bildverarbeitung´ kann beim Büro der Fraunhofer-Allianz Vision oder im Buchhandel erworben werden. ‣ weiterlesen

shop.vision.fraunhofer.de

Anzeige

Das Lasermodul Flexpoint MV fiber garantiert ideale Strahlprofile für die 3D-Messtechnik, denn die Lasereinheit inkl. Ansteuerungselektronik ist von der strahlformenden Optik entkoppelt. Die Bauteile sind mit einer singlemode Faser verbunden, wodurch Nebenmoden im Strahl eliminiert und Streulicht in der Projektion vermieden wird. Dank der Faser kann das Licht über eine große Distanz übertragen werden. Das ist ein Vorteil bei Platzproblemen im System, denn Optikkopf und Lasereinheit können weit voneinander entfernt werden. Zudem wird die thermische Drift des Laserstrahls vernachlässigbar klein.

www.lasercomponents.de

Anzeige

Die 16 neuen 510er, 700er und 800er Verisens Modellen der XC-, XF- und ID-Serie verfügen über eine erhöhte Rechenleistung. So kann die Zeit der Bildverarbeitung in vielen Applikationen, bei der Lagenachführung sowie beim Code- und Textlesen halbiert werden. Ein verbesserter Algorithmus zum Codelesen erhöht die Lesesicherheit unter industriellen Bedingungen. Das konfigurierbare Web-Interface wurde zudem um den neuen Verisens Multiviewer weiterentwickelt. Damit können bis zu 16 Verisens Vision Sensoren auf einem Bildschirm gleichzeitig dargestellt und im laufenden Prozess angepasst werden.

www.baumer.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige