Anzeige
Anzeige

Going Deep

Jeff Bier’s Column: Why Depth Sensing Will Proliferate

If you’ve read recent editions of this column, you know that I believe that embedded vision – enabling devices to understand the world visually – will be a game-changer for many industries. For humans, vision enables many diverse capabilities: reading your spouse’s facial expression, navigating your car through a parking garage, or threading a needle. Similarly, embedded vision is now enabling all sorts of devices to be more autonomous, easier to use, safer, more efficient and more capable.

Bild: Embedded Vision Alliance

„Depth is a key aspect of visual perception, but one that’s been out of reach for most product designers.“ -Jeff Bier, Embedded Vision Alliance (Bild: Embedded Vision Alliance)

When we think about embedded vision (or, more generically, computer vision), we typically think about algorithms for identifying objects: a car, a curb, a pedestrian, etc. And, to be sure, identifying objects is an important part of visual intelligence. But it’s only one part. Particularly for devices that interact with the physical world, it’s important to know not only what objects are in the vicinity, but also where they are. Knowing where things are enables a camera to focus on faces when taking a photo, a vacuum cleaning robot to avoid getting wedged under the sofa, and a factory robot to safely collaborate with humans. Similarly, it’s often useful to know the size and shape of objects – for example, to enable a robot to grasp them. We live in a 3D world, and the location, size and shape of an object is a 3D concept. It’s sometimes possible to infer the depth dimension from a 2D image (for example, if the size of the object is already known), but in general, it’s much easier to measure the depth directly using a depth sensor. Historically, depth sensors have been bulky and expensive, like the LiDAR sensors seen on top of Google’s self-driving car prototypes. But this is changing fast. The first version of the Microsoft Kinect, introduced in 2010, showed that it was possible – and useful – to incorporate depth sensing into a consumer product. Since then, many companies have made enormous investments to create depth sensors that are more accurate, smaller, less expensive and less power hungry. Other companies (such as Google with Project Tango and Intel with RealSense) have invested in algorithms and software to turn raw depth sensor data into data that applications can use. And application developers are finding lots of ways to use this data. One of my favorite examples is 8tree, a start-up that designs easy-to-use handheld devices for measuring surface deformities such as hail-damage on car bodies. And augmented reality games in which computer-generated characters interact with the physical world can be compelling. There are many types of depth sensors, including stereo cameras, time of flight and structured light. Some of these, like stereo cameras, naturally produce a conventional RGB image in addition to depth data. With other depth sensor types, a depth sensor is often paired with a conventional image sensor so that both depth and RGB data are available. This naturally raises the question of how to make best use of both the RGB and the depth data. Perhaps not surprisingly, recently researchers have successfully applied artificial neural networks to this problem. The more our devices know about the world around them, the more effective they can be. Depth is a key aspect of visual perception, but one that’s been out of reach for most product designers. Now, thanks to improvements in depth sensors, algorithms, software and processors, it’s becoming increasingly practical to build incorporate sensing into even cost- and power constrained devices like mobile phones. Look, for example, at Apple´s just-announced iPhone 7 Plus, along with other recently-introduced dual-camera smartphones such as Huawei’s P9, Lenovo’s Phab2 Pro, LG’s G5 and V20, and Xiaomi’s RedMi Pro.

Anzeige
Going Deep
Bild: Embedded Vision Alliance


Empfehlungen der Redaktion

Das könnte Sie auch interessieren

Das Sensorunternehmen plant eine neue Firmenzentrale, die auf zwei Etagen eine Nutzfläche von rund 6.000m² bieten soll. Alle Mitarbeiter der lokalen Niederlassungen sollen so zukünftig in der Zentrale mit Sitz im Märkischen Gewerbepark Rosmart Platz finden.

www.technikredaktion.de

Anzeige

Hexagon hat den Softwareanbieter Spring Technologies übernommen. Das französische Unternehmen entwickelt seit 30 Jahren CNC-Lösungen für Werkzeugmaschinen rund um das Kernportfolio NCSIMUL, das weltweit bei OEMs und Zulieferern verwendet wird, um den Produktionsprozess zu beschleunigen. Zukünftig wird Spring der Hexagon Manufacturing Intelligence Division im Bereich der CAD/CADM- und Produktionssoftware angehören, die derzeit von der Marke Vero Software geführt wird.

hexagon.com

Anzeige

Im ersten Quartal 2018 ist der Umsatz mit Komponenten und Systemen für die industrielle Bildverarbeitung in Nordamerika gegenüber dem Vorjahr um 19% auf 709Mio.US$ gestiegen – ein neuer Rekordwert beim Quartalsumsatz.

www.visiononline.org

Anzeige

Die OPC-UA-Arbeitsgruppen Bildverarbeitung und Robotik im VDMA haben auf der Automatica OPC UA Companion Specifications für Robotik und Industrielle Bildverarbeitung veröffentlicht. Die Spezifikation OPC UA Vision bietet ein generisches Modell für alle Bildverarbeitungssysteme – von einfachen Vision-Sensoren bis zu komplexen Systemen.

www.vdma.org

Anzeige

Die beiden österreichischen Forschungsunternehmen Austrian institute of Technology und Profactor haben bekannt gegeben, zukünftig in Hinblick auf die Trendthemen Digitalisierung und Industrie 4.0 ihre Kräfte zu bündeln. Bestehen in Hinblick auf das Lösungsspektrum und die Kundenstruktur bereits Synergien, soll eine langfristige Zusammenarbeit erlauben, dieses Potenzial noch zu erhöhen. Dadurch soll das Forschungsportfolio noch intensiver an den Bedürfnissen der Industrie ausgerichtet werden.

www.ait.ac.at

Anwender können die berührungslose Wärmebildgebungsfunktion des Industrie-Wärmebild-Multimeter DM285 nutzen, um überhitzte Systemkomponenten schnell ausfindig zu machen und anschließend mithilfe seiner DMM-Testfunktionen die Fehlerursache zu erkennen und zu beheben. Mit seinen 18 Funktionen und seiner Wärmebildauflösung von 160×120 Pixeln misst es Temperaturen von bis zu 400°C, speichert die Daten für zehn Sätze von 40.000 Skalarmessungen und 100 Bilder und bietet eine Abruffunktion, die eine Datensichtung am Einsatzort ermöglicht. Es verfügt über eine integrierte Arbeitsleuchte und bietet flexible Akku-/Batterieoptionen.

www.flir.com

Anzeige
Anzeige
Anzeige
Anzeige
Anzeige
Anzeige