Fusions-Darstellung

Fusions-Darstellung

Visualisierung von Daten aus Multisensorapplikationen

Entwickler von Multisensorapplikationen für ADAS und das automatisierte Fahren erhalten mit der Version 2.5 von vADASdeveloper weitreichende Unterstützung. Durch grafische Konfiguration der Objektinformationen visualisiert das Werkzeug die Sensordaten.

Mit vADASdeveloper steht dem Entwickler eine leistungsf?hige Umgebung f?r das schnelle Prototyping von Sensorfusions-Applikationen zur Verf?gung. (Bild: Vector Informatik GmbH)

Mit vADASdeveloper steht dem Entwickler eine leistungsfähige Umgebung für das schnelle Prototyping von Sensorfusions-Applikationen zur Verfügung. (Bild: Vector Informatik GmbH)

Um die Interpretation der Objektdaten und Fusionsergebnisse zu erleichtern, verfügt der Anwender über neue Darstellungsfenster und kann Referenz-Lidar-Systeme einbinden. Auch die im ADAS-Umfeld (Advanced Drdiver Assistance Systems) typischen Messdatenraten von über 1GB/s lassen sich mit einer skalierbaren Rekorderlösung zuverlässig erfassen. Beim Erstellen der Sensordatenvisualisierung erleichtert ein grafischer Editor die Zuweisung der Informationen aus den Applikationsdatenobjekten (Position, Größe, Farbcodierung je Objekttyp) an die Grafikobjekte. Mehrere vordefinierte 2D/3D-Formen sowie ein Punktwolkenobjekt für Lidar- oder TOF-Kameras ermöglichen es, die erkannten Sensorobjekte, Umgebungskonturen und Fusionsergebnisse komplett ohne bzw. mit nur minimalem Codier-Aufwand darzustellen. Sind die Grafikobjekte einmal bedatet, können sie in mehreren Fenstern synchronisiert angezeigt werden. Um Sensordaten und Fusionsergebnisse korrekt zu interpretieren, stehen dem Entwickler neue Darstellungsmöglichkeiten zur Verfügung. Das hardwarebeschleunigte 3D-Szenenfenster zeigt z.B. umfangreiche Umfeldmodelle und Referenzdaten an. Fahrzeugpositionen und ortsabhängige Informationen werden im OpenStreetMap-basierten Kartenfenster dargestellt. Referenzkameras zum Erfassen der realen Fahrzeugumgebung lassen sich nun teilautomatisiert kalibrieren. Das aufgezeichnete Videobild kann mit den vom Steuergerät erkannten Objekten überlagert werden. Über den visuellen Abgleich der von den Sensoren bzw. Algorithmen gelieferten Objektinformationen mit der realen Umgebung verifiziert der Entwickler die Objekterkennungsalgorithmen. Zu der bereits möglichen Anbindung von Radarsensoren oder Objektkameras über Fahrzeugnetzwerke, liest vADASdeveloper jetzt auch die Lidar-Sensoren von Ibeo Lux, Ibeo.HAD sowie Velodyne Lidar (VLP-16/HDL-32E) direkt ein.

Themen:

| Fachartikel

Ausgabe:

inVISION 6 2017
Vector Informatik GmbH

Das könnte Sie auch Interessieren