Anzeige
Anzeige
Anzeige

One sensor to rule them all

Jeff Bier’s Column: The unique position of image sensors

It’s no secret that sensors are proliferating. Our smartphones, for example, contain accelerometers, magnetometers, ambient light sensors, microphones – over a dozen distinct types of sensors. A modern automobile contains roughly 200 sensors.
As sensors proliferate, the amount of data generated by these sensors grows too, of course. But different types of sensors produce vastly different amounts of data. As Chris Rowen, CTO of Cadence’s IP group, recently pointed out in a presentation, image sensors occupy a unique position in the sensor world. While the number of image sensors deployed across all products is a small fraction of the total number of sensors deployed, the amount of data generated by deployed image sensors dwarfs the amount of data generated by all other types of sensors combined. The math behind this is simple: image sensors generate a lot of data. Even an old-fashioned VGA resolution image sensor running at 30fps generates over 25MB of color video data per second. That’s 1,000 to 1,000,000 times more data per second than most other common sensor types. You may point out that data is not the same thing as information. Indeed, not every pixel streaming from an image sensor contains useful information. But, we’re discovering that there’s valuable information contained in more pixels than we might have suspected. Most sensors are single-purpose: one type of sensor for temperature, another for magnetic field, another for ambient light, etc. Image sensors are unique in that – when coupled with the right algorithms and sufficient processing power – they can become ’software-defined sensors‘, capable of measuring many different types of things. For example, using video of a person’s face and shoulders, it’s possible to identify the person, estimate their emotional state, determine heart rate and respiration rate, detect intoxication and drowsiness, and determine where the person’s gaze is directed. Similarly, in cars and trucks, a single image sensor (or a small cluster of them) can detect other vehicles, brake lights, pedes-trians, cyclists, lane markings, speed limit signs, and more. Demonstrating the versatility of vision sensors, the Mercedes-Benz Magic Body Control system measures the detailed topography of the road surface. According to Mercedes: „The system is thus able to recognize an uneven road surface before you come to drive over it, thus enabling the suspension to adjust itself in order to counteract, as far as possible, the undulations in the road.“ To paraphrase Chris Rowen’s presentation: In the future, approximately 100% of the data generated by all types of deployed sensors will be image and video data. This creates enormous opportunities, and big challenges as well. The opportunities stem from the fact that image and video data can provide so many different types of useful information. The challenges derive from the inherent complexity of reliably extracting valuable information from pixels. Fortunately, as an industry, we’re making rapid progress on these challenges through a combination of more powerful and energy-efficient processors, more reliable computer vision and deep learning algorithms, and better development tools. These improvements are enabling us to build devices, systems and applications that are safer, more autonomous, more responsive and more capable.

Anzeige

Empfehlungen der Redaktion

Das könnte Sie auch interessieren

26.809 Fachbesucher aus 92 Ländern besuchten die 30. Control in Stuttgart, was einer Steigerung der Besucherzahlen von +3,5% entspricht. Bereits 25% der Aussteller beschäftigen sich inzwischen mit industrieller Bildverarbeitung. Die in enger Zusammenarbeit mit dem EMVA erstmals installierte Kommunikations-Plattform ‚Control Vision Talks‘ wurde von der QS-Community dabei sehr gut aufgenommen und fand große Beachtung. ‣ weiterlesen

www.control-messe.de

Anzeige

Vom 23. bis 24. Juni 2016 befassen sich in Chemnitz Experten aus den verschiedensten Gebieten auf der Tagung Innteract 2016 mit neuen Lösungsansätzen für eine optimale Mensch-Maschine-Interaktion. Die Tagung wird vom Fachbereich Arbeitswissenschaft und Innovationsmanagement an der TU Chemnitz gemeinsam mit dem Verbund 3Dsensation veranstaltet. ‣ weiterlesen

www.innteract2016.de

Anzeige

Vom 8. bis 10. November findet mit der Vision erneut die Weltleitmesse der Bildverarbeitung in Stuttgart statt. Mehr als die Hälfte der Aussteller (53%) kommen dieses Jahr aus dem Ausland. Einen starken Zuwachs zeigt sich auch bei chinesischen Ausstellern. ‣ weiterlesen

www.messe-stuttgart.de

Anzeige

Der CTR-50 dient für die externe Ansteuerung von LED-Modulen im Blitz- oder Dauerlichtbetrieb. Konfiguration und Bedienung erfolgen über Drehschalter, die Stromversorgung mit 24V. Alle Beleuchtungen werden zuverlässig erkannt und die Rsense-Technologie ermöglicht einen sicheren Betrieb der LEDs. ‣ weiterlesen

www.rauscher.de

Anzeige

Hexagon AB hat die Akquisition von Aicon 3D Systems, Anbieter für optische kamerabasierte 3D-Messtechnik, verkündet. Die Braunschweiger Firma wird ab April voll konsolidiert. ‣ weiterlesen

www.hexagonmetrology.de

Verschiedene verteilte Inline-Messkonzepte ermitteln häufig redundante Informationen. Die Nachverfolgung von Geometrie-Messpunkten über alle Fertigungsschritte sind aber nötig, um die Fertigungsprozesse möglichst durchgängig und komplett abzubilden sowie kontrollieren zu können. Häufig werden Konzepte erstellt, welche optische 2D-/3D-Messtechnik für die nachgelagerte Kontrolle der Prozesse benötigen, anstatt die zur Verfügung stehende Technologie gezielt zur Automatisierung des Fertigungsprozesses selbst einzusetzen. Warum also eine Bauqualität messen, wenn man ebenso mit der geforderten Qualität geregelt bauen kann. ‣ weiterlesen

Anzeige

www.inos-automation.de

Anzeige
Anzeige
Anzeige