Verbesserte LiDAR-Abstandsmessung mit Embedded KI

Sowohl beim autonomen Fahren als auch in der Industrie sind Störungen aus der Umgebung, wie z. B. Hintergrundlicht, immer eine Herausforderung für LiDAR-Systeme. Für den zuverlässigen Einsatz optischer Sensoren ist es von entscheidender Bedeutung, wie Störungen durch Umweltfaktoren reduziert werden können, um die Robustheit des Systems zu verbessern und gleichzeitig die Echtzeitfähigkeit zu erhalten. In einem Forschungsprojekt entwickelt das Fraunhofer IMS einen robusten, auf maschinellem Lernen basierenden Algorithmus zur Abstandsbestimmung namens »Multi-Peak-Analyse (MPA)« für LiDAR-Histogrammdaten unter rauen Detektionsbedingungen. Unter rauen Detektionsbedingungen sind hier z. B. Umgebungen mit starkem Hintergrundlicht (hoher Hintergrundphotonenrate), Situationen mit Objekten in großer Entfernung und eine hohe geforderte Frame-Rate zu verstehen.

 

Eine Variante der MPA ist die auf einem neuronalen Netz basierende MPA (NNMPA), die ein sehr kompaktes Feed-Forward Neural Network verwendet ohne die Präzision der ermittelten Abstände zu beeinträchtigen. Nach einer physikalisch gesteuerten Merkmalsextraktion benötigt das neuronale Netz nur 1 % der Originaldaten für Training und Vorhersage. Für die Evaluierung der NNMPA werden 100.000 LiDAR-Histogrammdaten (sowohl synthetische als auch reale) verwendet, die auf dem vom Fraunhofer IMS entwickelten Flash-LiDAR-System »OWL« basieren.

 

Die NNMPA wurde mit der klassischen digitalen Verarbeitung verglichen, die einen Mittelwertfilter, Hintergrundsubtraktion sowie eine globale Spitzenwertdetektion (AF-BS-GPD) umfasst, und zeigt überlegene Ergebnisse. Bei Zielabständen von 25 bis 60 m und hohem Hintergrundlichtanteil ist die Genauigkeit der Abstandsbestimmung der NNMPA beispielsweise um 26% höher als die von der AF-BS-GPD. Ein Beispiel ist in Abbildung 1 zu sehen. In diesem speziellen Szenario wird die AF-BS-GPD stark vom Hintergrundlicht gestört (linkes Diagramm). Dies führt dazu, dass fast die Hälfte der Abstandsbestimmungen falsch sind. Die gemessenen Entfernungen sollen deutlich geringer sein, als sie es tatsächlich sind (Häufung der »roten Punkte« im unteren Bereich). Die NNMPA (rechtes Diagramm) erreicht dagegen eine gesamte Genauigkeit von fast 88 %. Außerdem liefert die NNMPA zusätzlich die Information der Messgüte, die im rechten Diagramm durch die Farbe dargestellt wird. Weiterhin ist dem rechten Diagramm zu entnehmen, dass die falschen Bestimmungsergebnisse eine relativ niedrige Messgüte aufweisen. Diese Information ist besonders nützlich für eine anschließende Weiterverarbeitung und Entscheidungsfindung.

Vergleich der LiDAR-Sensordaten ohne und mit KI
© Fraunhofer IMS
Vergleich zwischen AF-BS-GPD und NNMPA. Gezeigt wird die Draufsicht des simulierten Szenarios mit Objekten im Abstand von 25 m und einer Wand im Hintergrund in Abstand von 35 m. Die Hintergrund Photonenrate beträgt 5 MHz. Die in Farbe dargestellten Punkte zeigen das Vorhersageergebnis der entsprechenden Verarbeitungsmethode.

Die Fixed-Point-Version der NNMPA wurde erfolgreich auf einem kleinen FPGA-Evaluierungsboard mit einem Genauigkeitsabfall von nur 1,2 % im Vergleich zu einer Floating-Point-Version implementiert. Außerdem zeigt eine Laufzeitdemonstration in LabVIEW, dass die NNMPA weniger Rechenzeit benötigt und somit eine höhere Framerate als die AF-BS-GPD erreicht. Darüber hinaus zeigen Experimente, dass die NNMPA Hintergrundlichtinformationen selbstständig erlernen kann anstatt eine herkömmliche Rauschfilterung anzuwenden, die in der Regel sehr rechenintensiv ist.

Derzeit entwickelt das Fraunhofer IMS einen Korrelationsalgorithmus zwischen Nachbarpixeln und Zeitrahmen, die auf der NNMPA basiert. Mit diesem Algorithmus soll die Zuverlässigkeit der Abstandsvorhersage auf eine neue Stufe gehoben werden. Weitere konkrete Anwendungen mit der NNMPA sind für die Zukunft geplant.

LiDAR Camera Owl

192 Pixel x 2 Zeilen SPAD basierte Kamera

Veröffentlichung des Fraunhofer IMS

Data Processing Approaches on SPAD-Based d-TOF LiDAR Systems: A Review

Veröffentlichung des Fraunhofer IMS

Feature Extraction and Neural Network-based Analysis on Time-correlated LiDAR Histograms

TimestampsAI

Schnellere und datenreduzierte Lösung für Ihre hochauflösenden LiDAR-Systeme: TimestampsAI ist unsere neueste Entwicklung für Ihre Anwendungen zur Erfassung komplexer Szenen in 3D in jeder Umgebung.

Unsere Technologien – Innovationen für Ihre Produkte

Verteiltes Lernen

Verteiltes Lernen ermöglicht das Training komplexer Aufgaben auf mehreren kleinen eingebetteten Systemen.

Hybrides Lernen und PGNNs

Bei unzureichenden Trainingsdaten helfen Simulationen auf Basis physikalischer Modelle die Datenlage zu verbessern.

Merkmalsextraktion für Smarte Sensoren

Mittels angepasster Merkmalsextraktion kann die Größe eines Neuronalen Netzes reduziert werden.

Industrie 4.0-Forschung

Vor dem Hintergrund "Industrie 4.0" forscht das Fraunhofer IMS an Lösungen der Predictive Maintenance für die Fertigungsindustrie.

Unsere Technologiebereiche – Unsere Technologien für Ihre Entwicklung

Kommunikation und Vernetzung

Kommunikationsschnittstellen erlauben den Datenaustausch mit anderen Geräten und die Anbindung an Netzwerke.

User Interfaces

User Interfaces als Schnittstelle zwischen Gerät und Anwender erlauben die Konfiguration und die Bedienung eines Produkts.

Maschinelle Lernverfahren für Embedded-Systems

Künstlicher Intelligenz auf ressourcenbegrenzten Systemen dient zur Gewinnung höherwertiger Informationen aus Sensorrohdaten.

Computer Vision

Computer Vision extrahiert das Maximum an Informationen aus Bilddaten.

 

Embedded Software and Artificial Intelligence (Home)

Hier gelangen Sie zurück zu der Übersichtsseite der Kernkompetenz
Embedded Software and Artificial Intelligence (ESA).