Intuition in a box?

Jeff Bier’s Embedded Vision Column

Since reading Malcolm Gladwell’s ‚Blink‘ a decade ago, I’ve been intrigued by how the mind works – particularly how judgements and decisions are made. I’ve been inspired to take an armchair tour of research on this topic, and have encountered fascinating insights from the likes of David Eagleman and Daniel Kahneman.
Reading the work of these talented researchers and writers has led me to the inescapable conclusion that most of our judgements and decision-making take place in our subconscious minds. I consider myself a hyper-rational engineering type, so the idea that my subconscious is calling the shots – based not on deliberation and calculation but rather on intuition – was initially uncomfortable. Lately, though, I’ve come to appreciate the value of intuition – the way it can alert me to a dangerous situation before I comprehend the nature of the danger, for example, or warn me that someone’s being untruthful before I’m able to identify the actual lie. And that has started me wondering: What if our devices, systems and applications could gain this type of intuitive insight? For example, what if a device could warn you that there’s been a change in your elderly parent’s posture or gait that might indicate an increased risk of falls? Or that your teenager’s distracted driving indicates a higher risk of an accident? Because our subconscious processes are by definition hidden from us, it might seem futile to try to create programs to emulate them. But I think that deep neural networks (the kind that have recently been beating humans at image classification tasks) offer an elegant solution. Creating a deep neural network to distinguish between classes of objects or events (for example, a genuine smile vs. a faked one) does not require devising an algorithm to mechanically emulate the mechanisms that enable humans to distinguish between these cases. Instead, the neural network acts as a generalized learning machine, and the developer trains it to recognize meaningful differences via large numbers of examples. One factor that’s held back the use of deep neural networks is processing power. It takes a humungous amount of processing power to train deep neural networks, and quite a lot to run them once trained. Only very recently has this type of processing power become available at practical prices – including in embedded processors suitable for high-volume, cost-sensitive products. Because deep neural networks are massively parallel structures, they are very suitable for acceleration using massively parallel architectures. And because they have simple, highly repetitive structures, they’re also amenable to acceleration via specialized architectures. As result, I think we can expect rapid improvements in cost-performance and energy-efficiency of processors for neural network applications – far outstripping the modest gains enabled by advances in chip manufacturing. This means that, very soon, developers of many types of systems, applications and devices will have the possibility of incorporating new types of intelligence into their products. But to do so, they’ll need to understand how deep neural networks work, how to design them, and how to train them. I believe that the combination of deep learning and computer vision will create world-changing products and bring vast opportunities, and I’m eager to harness it. If you’re interested in learning about deep neural networks and other computer vision topics, I invite you to join me at the Embedded Vision Summit on May 2-4 in Santa Clara, California. This event, an educational forum for product creators interested in incorporating visual intelligence into electronic systems and software, is organized by the Embedded Vision Alliance. For details about this unique conference, and to register, please visit our website.

Das könnte Sie auch interessieren

Oberflächen- und Konturmessung in einem Gerät

Das integrierte Messsystem Duo Vario bietet zwei Messverfahren: das Konfokale und die Fokusvariation, für eine Oberflächenanalyse von Rauheit sowie Konturmessungen. Mit dem konfokalen Verfahren können stark reflektierende Oberflächen rückführbar auf herstellerunabhängige Raunormale gemessen werden. Mit dem neuen Gerät ist dies nun auch mit einem größeren Bildfeld und mit einer höheren lateralen Auflösung möglich. Das Fokusvariationsverfahren ist vor allem für die Messung von Formen und Konturen vorteilhaft. Dabei beträgt der Akzeptanzwinkel über 85°.

3D-Fotogrammetrie-Kamera mit visueller Projektion

Die Maxshot 3D-Fotogrammetrie-Kamera verbindet eine einfache Bedienung und Genauigkeit mit umfangreichen Größenmessprojekten. Sie kann als einzelnes Messgerät aber auch in Kombination mit Creaforms 3D-Scannern und tragbaren KMMs verwendet werden. Das Gerät ist 40% präziser als der Vorgänger und hat eine volumetrische Genauigkeit von bis zu 0,015mm/m. Eine visuelle Projektion mit Echtzeit-Feedback direkt auf dem Teil, leitet den Nutzer zu der richtigen Position für die Aufnahme.


Reflektivität in voller Bandbreite

Das Interferometer µPhase basiert auf dem Twyman-Green-Prinzip und vermisst hochpräzise Abweichungen in Planität und Sphärizität, mit einer Genauigkeit bis zu 0.01µm. Die berührungsfreie Messung und Auswertung erfolgt dabei großflächig innerhalb von Sekunden.

66. Heidelberger Bildverarbeitungsforum

Das 66. Heidelberger Bildverarbeitungsforum wird am 10. Oktober in Freiburg an der Technischen Fakultät der Albert-Ludwigs-Universität stattfinden. Das diesjährige Schwerpunktthema lautet ‚Mensch-Maschine-Interaktion mit Vision‘ und gibt anhand von verschiedenen Vorträgen einen systematischen Einblick in die Anwendungsfelder, in der Vision-Technologien zur Interaktion mit dem Menschen eingesetzt werden können. Am Ende der Veranstaltung wird es eine große Abschlussdiskussion zur Fazit-Findung geben.

Yxlon: Neuer Global Director of Electronics Sales

Yxlon International, spezialisiert auf Durchleuchtungs- und CT-Inspektionssysteme, hat Keith Bryant zum neuen Global Director Electronics Sales ernannt. Bryant bringt über 25 Jahre an Erfahrungen im Bereich Technical Sales mit sich, besonders aus dem Bereich X-Ray. Er wird fortan für alle globalen Marktkanäle zuständig sein und dem globalen Salesteam des Unternehmens vorstehen.

Megatrend Embedded Vision

Mit der ersten Embedded Vision Europe (EVE) Konferenz wird Stuttgart vom 12. bis 13. Oktober zur Embedded Vision Hauptstadt Europas. Hauptredner und Aussteller für die Premierenveranstaltung im ICS Stuttgart stehen bereits fest.