Virtueller Fahrversuch

Ihr Ansprechpartner

Sensorsimulation: Physikalische Simulation von Umfeldsensorik für ADAS/AD

Die Detektion des Fahrzeugumfelds bildet die Grundlage für das assistierte und automatisierte Fahren (ADAS/AD). Für Entwicklung und Test von Fahrfunktionen bietet die Simulationsumgebung DYNA4 eine physikalische Modellierung von Ultraschall-, Lidar-, Kamera- und Radarsensoren. Für Funktionen, die nach der Sensorfusion angesiedelt sind, wird zusätzlich eine automatische semantische Bildsegmentierung aller sichtbaren Objekte ausgegeben. Durch die Berechnung auf der Grafikkarte (GPU) Ihres Standard-PCs erfolgt die Simulation mit maximaler Zeit- und Kosteneffizienz.

Virtuelle Fahrversuche für das assistierte und automatisierte Fahren

  • Echtzeitfähige Simulation für Entwicklung und Test von sensorbasierten ADAS/AD-Funktionen
  • Einsetzbar von frühen Entwicklungsphasen zur Festlegung der Sensorkonfiguration bis hin zur virtuellen Absicherung
  • Physikalische Abbildung von Ultraschall-, Lidar-, Kamera- und Radarsensoren
  • Szenarienvielfalt von Einparkszenarien bis hin zum autonomen Fahren im Umgebungsverkehr
  • Detaillierte Fahrdynamik zur realistischen Abbildung von Sensorbewegungen
  • Effiziente Testabdeckung mit zahlreichen Varianten durch Testautomatisierung

Animationsbasierte Sensorsimulation

  • Simulation von DYNA4 mit DYNAanimation sorgt für optimale Ausnutzung von CPU und GPU
  • Sämtliche in der Animation sichtbaren Objekte werden durch die Sensorsimulation berücksichtigt inklusive deren Geometrie, möglichen Verdeckungen und sensorspezifischen Materialeigenschaften
  • Flexible Nutzung und Weiterverarbeitung der Sensorsignale durch Verwendung des Data Distribution Service (DDS) Standards
  • Vorbereitete Empfangsmodule zur Funktionsentwicklung in Simulink und ROS

Ultraschall

  • Berücksichtigung von Ausbreitungsdämpfung, atmosphärischer Dämpfung 
  • Absorption und Reflexion basierend auf Objektgeometrie und Materialeigenschaften
  • Öffnungswinkel und Signalauflösung einstellbar
  • Ausgabe eines Intensitäts-Tiefen-Histogramms

Kamera

  • Einstellbare Filter für Verzerrung und Farbraum
  • Öffnungswinkel und Bildauflösung einstellbar
  • Ausgabe eines RGB-Bildstreams

Lidar

  • Reflexionsintensität basierend auf Winkel zwischen Laserstrahl und Objektoberfläche und dessen Materialeigenschaften
  • Verfügbarkeit von drehenden und nicht-drehenden Lidar-Sensoren
  • Öffnungswinkel und Signalauflösung einstellbar
  • Ausgabe der 3D-Punktwolke als ROS Topic über DDS oder über UDP im Velodyne Format

Radar

  • Streuung der Radarwellen basierend auf Objektgeometrie und Materialeigenschaften
  • Berücksichtigung verschiedener Antenntencharakteristika (Short-, Mid-, Long-Range)
  • Öffnungswinkel und Signalauflösung einstellbar
  • Ausgabe von Rohdaten wie Relativgeschwindigkeit und Abstand zum Objekt sowie die Intensität des elektrischen Felds oder GPU-basierte Fourier-Transformation zur Erzeugung von Range-Doppler-Plots

Semantische Bildsegmentierung

  • Automatische Segmentierung zur Abbildung einer idealen Sensorfusion
  • Berücksichtigung und Klassifizierung aller im Objektkatalog verfügbaren Objekte
  • Konfigurierbare Objektklassen
  • Öffnungswinkel und Signalauflösung einstellbar
  • Ausgabe relevanter Daten der Sensorfusion wie Relativgeschwindigkeit und Abstand zum Objekt sowie dessen Klasse