Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR EFFICIENT OBJECT TRACKING AND CORRESPONDINGLY CONFIGURED MOTOR VEHICLE
Document Type and Number:
WIPO Patent Application WO/2024/074304
Kind Code:
A1
Abstract:
The invention relates to a method (1) and an object tracking device (13) for object tracking. The invention also relates to a correspondingly configured motor vehicle (13). In the method (1), the movement status is determined for objects (17) detected on the basis of sensor data (3) of a sensor system (12), and a classification process is carried out accordingly in terms of whether it is a moving or stationary object (17). Object data (2) relating to the objects (17) is stored, comprising multiple characteristics of the respective object (17) and the movement status determined for same. The object data (2) of objects (17) detected in a previous measuring cycle is updated based on the current sensor data (3). For only those detected objects (17) classified as a stationary object (17), their characteristics stored in the object data (2) are updated independently of one another.

Inventors:
KELLNER DOMINIK (DE)
STEYER SASCHA (DE)
MEISSNER DANIEL (DE)
Application Number:
PCT/EP2023/075887
Publication Date:
April 11, 2024
Filing Date:
September 20, 2023
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BAYERISCHE MOTOREN WERKE AG (DE)
International Classes:
G01S7/41; G01S13/72; G01S13/86; G01S13/931; G01S17/66; G01S17/931
Foreign References:
US20220146667A12022-05-12
DE102020123585A12021-08-19
DE102019109332A12020-10-15
Other References:
PRIHODA ZACHARY ET AL: "Probability Hypothesis Density Filter Implementation and Application", 12 June 2019 (2019-06-12), Stanford, pages 1 - 13, XP093103154, Retrieved from the Internet [retrieved on 20231120]
Download PDF:
Claims:
Patentansprüche

1. Verfahren (1) für eine Objektnachverfolgung über mehrere Messzyklen einer Sensorik (12) hinweg, in dem

-jeweils anhand von in einem Messzyklus der Sensorik (12) erfassten Sensordaten Objekte (17) detektiert werden,

- für detektierte Objekte (17) anhand der Sensordaten (3) deren Bewegungszustand bestimmt wird, wobei jedes Objekt (17) als ruhendes Objekt (17) oder als bewegtes Objekt eingestuft wird,

- zu jedem detektierten Objekt (17) Objektdaten (2) gespeichert werden, die mehrere Eigenschaften des jeweiligen Objekts (17) und dessen bestimmten Bewegungszustand umfassen,

-jeweils anhand der aktuellen Sensordaten (3) die Objektdaten (2) bereits in einem vorausgehenden Messzyklus detektierter Objekte (17) aktualisiert werden, wobei

- nur für diejenigen Objekte (17), die als ruhendes Objekt (17) eingestuft wurden, jeweils deren in den Objektdaten (2) gespeicherte Eigenschaften unabhängig voneinander aktualisiert werden.

2. Verfahren (1) nach Anspruch 1 , dadurch gekennzeichnet, dass der Bewegungszustand anhand von Radardetektionen (18, 19) bestimmt wird, wobei ein Objekt (17) als ruhendes Objekt (17) eingestuft wird, wenn eine radarbasiert bestimmte Geschwindigkeit des Objekts (17) betragsmäßig kleiner als ein vorgegebener Geschwindigkeitsschwellenwert ist.

3. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Objekt (17) jeweils erst dann als ruhendes Objekt (17) eingestuft wird, wenn wenigstens eine vorgegebene Anzahl von Messungen und/oder wenigstens ein vorgegebener Anteil mehrerer durchgeführter Messungen eine unterhalb eines vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit des Objekts (17) ergeben. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) deren Objektdaten (2) basierend auf einzelnen Sensordetektionen (18) aktualisiert werden und für als bewegt eingestufte Objekte deren Objektdaten (2) basierend auf von der Sensorik (12) ausgegebenen Sensorobjekten aktualisiert werden. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) aus allen aktuellen Sensordetektionen (18, 19), die nach einem vorgegebenen, insbesondere bezüglich der bisherigen Position des jeweiligen Objekts (17) abstandbasierten, Kriterium dem jeweiligen Objekt (17) zugeordnet sind, zum Bestimmen der als eine Eigenschaft in den Objektdaten (2) zu aktualisierenden aktuellen Position des jeweiligen Objekts (17) jeweils eine stabile Enddetektion bestimmt wird, die als ein der Sensorik (12) zugewandtes Ende des jeweiligen Objekts (17) verwendet wird. Verfahren (1) nach Anspruch 5, dadurch gekennzeichnet, dass in dem Fall, dass die dem jeweiligen Objekt (17) zugeordneten Sensordetektionen (19) Radardetektionen umfassen, die stabile Enddetektion unter Berücksichtigung von deren Radarquerschnitten (ROS) bestimmt wird, insbesondere als die der Sensorik (12) nächstliegende Radardetektion, deren Radarquerschnitt (ROS) größer als ein vorgegebener Schwellenwert (22) ist. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) zumindest ein Teil der Eigenschaften, insbesondere die Position des jeweiligen Objekts (17), basierend auf Lidardetektionen bestimmt werden, wobei Lidardetektionen aus dem aktuellen Messzyklus einem Begrenzungsrahmen (17) für das jeweilige Objekt (17) zugeordnet werden und anhand einer Verteilung, insbesondere eines Entfernungshistogramms, dieser Lidardetektionen eine stabile Enddetektion bestimmt wird, die als ein der Sensorik (12) zugewandtes Ende des jeweiligen Objekts (17) verwendet wird. Verfahren (1) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für als ruhend eingestufte Objekte (17) für das Aktualisieren (10) von deren zugehörigen Objektdaten (2) jeweils Abhängigkeiten zwischen verschiedenen in den jeweiligen Objektdaten (2) gespeicherten Eigenschaften des jeweiligen Objekts (17) aufgehoben werden und/oder für eine Modellierung des jeweiligen Objekts in den zugehörigen Objektdaten (2) zu einer diagonalen P-Matrix gewechselt wird. Objektnachverfolgungseinrichtung (13), insbesondere für ein Kraftfahrzeug (11), aufweisend eine Schnittstelle (14) zum Erfassen von Sensordaten (3) und eine Datenverarbeitungseinrichtung (15, 16) zum Verarbeiten der erfassten Sensordaten (3), wobei die Objektnachverfolgungseinrichtung (13) zum Ausführen eines Verfahrens (1) nach einem der vorhergehenden Ansprüche eingerichtet ist. Kraftfahrzeug (11), aufweisend eine Sensorik (12) zur Umgebungserfassung und eine damit gekoppelte Objektnachverfolgungseinrichtung (13) nach Anspruch 9.

Description:
Verfahren und Einrichtung zur effizienten Objektnachverfolgung und entsprechend eingerichtetes Kraftfahrzeug

Die vorliegende Erfindung betrifft ein Verfahren für eine Objektnachverfolgung basierend auf Sensordaten. Die Erfindung betrifft weiter eine entsprechende Einrichtung für das Verfahren und ein damit ausgestattetes Kraftfahrzeug.

In verschiedenen technischen Anwendungen und Bereichen - beispielsweise, aber nicht ausschließlich im Fahrzeug- und Verkehrsbereich - kann eine sensorische Erfassung und Nachverfolgung, also ein Tracking von Objekten in einer jeweiligen Umgebung nützlich sein, etwa zum Vermeiden von Kollisionen, zum Planen von Trajektorien, zur Überwachung und/oder dergleichen mehr. Dabei eingesetzte Sensoren und Messmethoden, insbesondere kombiniert mit einer automatischen Objekterkennung, sind jedoch nicht immer ganz exakt und präzise, was je nach Anwendungsfall unerwünscht oder sogar sicherheitsrelevant sein kann. Beispielsweise benötigt ein Abstandsregeltempomat (ACC, Adaptive Cruise Control) eines Kraftfahrzeugs eine möglichst präzise Erkennung eines vorausfahrenden Fahrzeugs und eine möglichst präzise Bestimmung von dessen Position. Insbesondere soll ein Abstand des eigenen Kraftfahrzeugs zu einem vorausfahrenden Fahrzeug nicht überschätzt werden, wenn das vorausfahrende Fahrzeug aktuell stillsteht. Resultat einer solchen Überschätzung könnte ein ungewolltes automatisches Wiederanfahren des eigenen Kraftfahrzeugs sein, was wiederum zu einem Unterschreiten eines vorgeschriebenen Mindestabstands oder zu einer Kollision führen könnte. Einen Ansatz für eine erweiterte Objektverfolgung mittels Radar beschreibt beispielsweise die DE 102020 123 585 A1. Das dortige Verfahren umfasst ein Erzeugen eines oder mehrerer Cluster basierend auf empfangenen Rückkehrpunkten eines Radarsensors eines Fahrzeugs. Für diese Cluster wird dann jeweils eine geschätzte Position und Geschwindigkeit berechnet. Weiter wird bestimmen, ob die Cluster mit einer vorhandenen Objektspur verknüpft sind. Gemäß dem einen oder den mehreren Clustern, die mit der vorhandenen Objektspur verknüpft sind, erfolgt dann ein Aktualisieren der vorhandenen Objektspur unter Verwendung mindestens der jeweiligen Position dieses einen oder dieser mehreren Cluster.

Für eine effektive Objektnachverfolgung kann typischerweise in irgendeiner Form ein Zustand eines jeweiligen Objekts bestimmt werden. Dazu beschreibt beispielsweise die DE 102019 109 332 A1 ein Verfahren zur Ermittlung eines Objekt-Zustandes an einer Sequenz von Zeitpunkten. Dabei wird auf Basis von Sensordaten ein Belegungsraster ermittelt, das für jede einer Vielzahl von Zellen eine Evidenz dafür anzeigt, dass die jeweilige Zelle an einem Zeitpunkt frei ist oder durch ein Objekt belegt ist. Darauf basierend wird eine Teilmenge der Zellen, die an dem Zeitpunkt zu dem Objekt gehören, ermittelt. Schließlich wird der Objekt-Zustand für den Zeitpunkt ermittelt auf Basis eines für diesen Zeitpunkt prädizierten Objekt-Zustands und auf Basis der ermittelten Teilmenge von Zellen des Objekts. Damit können in präziser und robuster Weise ein Objekt detektiert und Informationen in Bezug auf das Objekt ermittelt werden.

Aufgabe der vorliegenden Erfindung ist es, eine besonders effiziente sensorbasierte Objektnachverfolgung zu ermöglichen.

Diese Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Weitere mögliche Ausgestaltungen der Erfindung sind in den Unteransprüchen, der Beschreibung und den Figuren offenbart. Merkmale, Vorteile und mögliche Ausgestaltungen, die im Rahmen der Beschreibung für einen der Gegenstände der unabhängigen Ansprüche dargelegt sind, sind zumindest analog als Merkmale, Vorteile und mögliche Ausgestaltungen des jeweiligen Gegenstands der anderen unabhängigen Ansprüche sowie jeder möglichen Kombination der Gegenstände der unabhängigen Ansprüche, gegebenenfalls in Verbindung mit einem oder mehr der Unteransprüche, anzusehen. Das erfindungsgemäße Verfahren kann für eine Objektnachverfolgung, also für ein Objekttracking über mehrere Messzyklen einer Sensorik zur Umgebungs- bzw. Objekterfassung hinweg angewendet werden. Insbesondere kann das Verfahren in einem Kraftfahrzeug angewendet werden, ist jedoch nicht auf diesen Anwendungsfall beschränkt. In einem Verfahrensschritt des erfindungsgemäßen Verfahrens werden jeweils anhand von in einem Messzyklus der Sensorik erfassten Sensordaten Objekte detektiert. Mit anderen Worten können also in jedem Messzyklus jeweils aktuelle Sensordaten der Sensorik erfasst und zur Objektdetektion oder Objekterkennung ausgewertet oder verarbeitet werden. Die Sensorik kann einen oder mehrere einzelne Sensoren umfassen, wobei mehrere solcher einzelnen Sensoren der Sensorik insbesondere von unterschiedlicher Art sein können. Es können also in einem Messzyklus Sensordaten eines einzelnen Sensors oder mehrerer Sensoren erfasst werden, beispielsweise abhängig von Mess- oder Aufnahmefrequenzen oder einer Synchronisation mehrerer einzelner Sensoren. Die Sensorik oder die von dieser umfassten einzelnen Sensoren können selbst bereits intern Objekte detektieren und nachverfolgen. Entsprechende sensorintern detektierte und nachverfolgte, also verwaltete Objekte können dann als Sensorobjekte bezeichnet werden. Ebenso können von der Sensorik gelieferte Sensordaten zum Detektieren von Objekten außerhalb der Sensorik verarbeitet werden, beispielsweise durch eine zur Durchführung oder Anwendung des erfindungsgemäßen Verfahrens eingerichtete bzw. mit der Sensorik gekoppelte Objektnachverfolgungs- oder Trackingeinrichtung, also etwa ein entsprechend eingerichtetes Steuergerät oder Assistenzsystem oder dergleichen.

In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens wird für detektierte Objekte anhand der Sensordaten deren Bewegungszustand bestimmt. Dabei wird jedes detektierte Objekt als ruhendes Objekt oder als bewegtes, also sich bewegendes Objekt eingestuft. Der Bewegungszustand eines Objekts kann also angeben, ob dieses Objekt sich in Bewegung befindet oder ruht. Ein ruhendes Objekt kann beispielsweise ein angehaltenes Objekt sein, das sich prinzipiell bewegen könnte, oder ein stationäres Objekt, das naturgemäß ortsfest ist und/oder zumindest im Rahmen der jeweils aktuellen Anwendung des Verfahrens noch nie in Bewegung detektiert worden ist. Die Bewegungszustände der detektierten Objekte können beispielsweise bezogen auf ein vorgegebenes weltfestes Koordinatensystem oder relativ zu der Sensorik bzw. einer damit ausgestatteten Vorrichtung, wie etwa einem Kraftfahrzeug oder dergleichen, bestimmt werden. Für das Bestimmen des Bewegungszustand als können die Sensordaten oder daraus abgeleitete Daten oder Größen beispielsweise hinsichtlich wenigstens eines vorgegebenen Kriteriums ausgewertet werden. Dabei kann beispielsweise ein Geschwindigkeitsschwellenwert oder eine Statistik über mehrere Detektionen des jeweiligen Objekts in aufeinanderfolgenden Messzyklen und/oder über mehrere einzelne dem jeweiligen Objekt zugeordnete Sensordetektionen, insbesondere aus dem jeweils aktuellen Messzyklus, hinweg ausgewertet werden. Solche einzelnen Sensordetektionen können im vorliegenden Sinne einzelne Daten- oder Messpunkte sein, also beispielsweise einzelne Radarechos bzw. Radardetektionen oder Lidardetektionen bzw. Lidarreflektionen und/oder dergleichen mehr.

Weiter werden in dem erfindungsgemäßen Verfahren zu jedem anhand der Sensordaten detektierten Objekt zugehörige Objektdaten gespeichert, die mehrere Eigenschaften des jeweiligen Objekts und dessen bestimmten Bewegungszustand umfassen. Die Objektdaten können also jeweils ein das jeweilige Objekt beschreibender oder charakterisierender Objektdatensatz sein, der auch als Objekttrack bezeichnet wird. Es können also jeweils in den Sensordaten bzw. durch diese repräsentierte detektierte Objekte jeweils zu einem solchen Objektdatensatz oder Objekttrack zugeordnet werden, worin die jeweiligen Eigenschaften des Objekts gespeichert bzw. verwaltet werden. Die Objektdaten sind also jeweils objektspezifisch, sodass für jedes detektierte Objekt jeweils ein entsprechender Objekttrack angelegt bzw. verwaltet wird. Über mehrere Messzyklen hinweg können in den Objektdaten somit die Objekte oder deren Eigenschaften nachverfolgt oder verwaltet werden. Für im aktuellen Messzyklus neu detektierte Objekte, für die noch kein Objekttrack mit anhand von Sensordaten aus wenigstens einem früheren Messzyklus bestimmten Eigenschaften angelegt wurde bzw. besteht, kann jeweils ein neuer Objekttrack angelegt werden.

Die in den Objektdaten bzw. Objekttracks gespeicherten oder angegebenen Eigenschaften können statische Eigenschaften und/oder dynamische Zustände oder Zustandsdaten des jeweiligen Objekts sein oder angeben. Statische Eigenschaften in diesem Sinne können beispielsweise eine Art oder ein Typ des jeweiligen Objekts sein oder angeben. Dynamische Zustände oder Zustandsdaten können - beispielsweise von Messzyklus zu Messzyklus - zumindest potenziell veränderliche Daten oder Größen des jeweiligen Objekts sein oder angeben, wie etwa eine Position und/oder eine Geschwindigkeit und/oder eine Beschleunigung und/oder ein Gierwinkel und/oder eine Gierrate und/oder dergleichen mehr. Die Objekttracks können auch als interne Tracks bezeichnet werden, da sie beispielsweise sensorikintern bzw. sensorintern oder innerhalb der entlang einer entsprechenden Signal- oder Datenverarbeitungspipeline sensornahen Objektnachverfolgungseinrichtung verwaltet werden können. Der in den Sensorobjekten bzw. als Teil der Sensorobjekte und/oder in den jeweiligen Objektdaten gespeicherte Bewegungszustand kann beispielsweise direkt aus der Bewegungsgeschwindigkeit des Objekts abgeleitet und/oder von der Sensorik bzw. dem jeweiligen einzelnen Sensor geschätzt werden und/oder - beispielsweise durch die Objektnachverfolgungseinrichtung - aus den von der Sensorik stammenden Sensordaten oder Sensorobjekten oder Objektdaten bestimmt oder abgeschätzt werden. Dabei können - sofern verfügbar - Daten oder abgeschätzte Bewegungszustände von mehreren Sensoren kombiniert werden. Die Bewegungsgeschwindigkeit eines Objekts kann je nach Sensor beispielsweise direkt gemessen oder aus verfügbaren Sensordaten abgeschätzt werden, beispielsweise über mehrere Messzyklen hinweg, also etwa anhand von einer Veränderung in den Sensordaten über mehrere Messzyklen hinweg.

Ein ruhendes Objekt kann als solches beispielsweise direkt aus dem jeweiligen Bewegungs- oder Objektzustand, also den Daten oder Eigenschaften für ein Objekt, wie sie etwa von einem Sensor und/oder anhand der von einem oder mehreren Sensoren stammenden Sensordaten bestimmt wurden, erkannt werden. Ein Objekt kann also beispielsweise als ruhendes Objekt erkannt oder eingestuft werden, wenn in den vollständigen Objektdaten zu diesem Objekt eine unterhalb eines vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit angegeben ist. Als solcher Geschwindigkeitsschwellenwert kann beispielsweise 0,5 m/s vorgegeben sein, wobei aber je nach Anwendungsfall oder Anforderungen ebenso andere Werte möglich sein können. Die vollständigen Objektdaten können hier beispielsweise im Gegensatz zu einzelnen, dem Objekt zugeordneten Sensordetektionen oder Sensorrohdaten verstanden werden. Die Objektdaten können aus solchen Sensordetektionen oder Sensorrohdaten bestimmte oder abgeleitete Daten oder Eigenschaften des jeweiligen Objekts sein oder umfassen.

Je nach Ausgestaltung der Sensorik können bereits sensor- oder sensorikintern durch einen oder mehr Sensoren, die ein bestimmtes Objekt detektiert haben, für detektierte Objekte deren Bewegungszustand bestimmt oder klassifiziert und/oder zumindest einige der statischen und/oder dynamischen Eigenschaften bestimmt oder abgeschätzt werden. Dies kann gegebenenfalls ebenso als Basis für die Einstufung von Objekten als ruhendes Objekt oder als bewegtes Objekt verwendet werden. Umfasst die Sensorik mehrere, insbesondere unterschiedliche, Sensoren, so kann beispielsweise ein Objekt als ruhendes Objekt oder als bewegtes Objekt eingestuft werden, wenn die von mehreren Sensoren intern für dieses Objekt ermittelten Bewegungszustände entsprechend übereinstimmen. Dies kann eine besonders schnelle und gleichzeitig besonders zuverlässige Einstufung ermöglichen. Zudem kann eine solche Einstufung auch besonders flexibel und robust möglich sein, da beispielsweise nicht immer dieselben Sensoren verwendet werden müssen. Dies kann beispielsweise besonders nützlich sein, wenn ein Objekt von einem Sensor zwischenzeitlich nicht detektiert werden kann, etwa aufgrund einer Verdeckung oder dergleichen.

In einem weiteren Verfahrensschritt des erfindungsgemäßen Verfahrens werden jeweils anhand der aktuellen, also im aktuellen Messzyklus erfassten Sensordaten die Objektdaten oder zumindest die darin enthaltenen dynamischen Zustände bereits in einem vorausgehenden Messzyklus detektierter Objekte automatisch aktualisiert. Damit kann sichergestellt werden, dass in den Objektdaten jeweils aktuelle Daten oder Angaben zu den jeweils zugeordneten Objekt gespeichert sind bzw. werden, die gespeicherten Objektdaten also die jeweils aktuellen Mess- oder Sensordaten berücksichtigen. Das hier vorgesehene Aktualisieren der Objektdaten kann zumindest für bestehende, also bereits in einem oder mehreren vorausgehenden Messzyklen detektierte Objekte durchgeführt werden. Für in den aktuellen Sensordaten neu enthaltene oder neu, also erstmalig detektierte Objekte kann jeweils ein neuer Objekttrack angelegt werden, in dem dann ebenfalls die aktuellen Sensordaten berücksichtigt werden.

Erfindungsgemäß werden dabei nur für diejenigen Objekte, die als ruhendes Objekt eingestuft wurden, jeweils deren in den Objektdaten gespeicherte Eigenschaften unabhängig voneinander aktualisiert. Mit anderen Worten werden also für ein ruhendes Objekt dessen Eigenschaften oder zumindest dessen dynamische Zustände oder Zustandsdaten voneinander entkoppelt, also beispielsweise ohne Kreuzkorrelationen oder gegenseitige Beeinflussungen oder Abhängigkeiten aktualisiert. Dieses Vorgehen zur Aktualisierung kann auch als ruhende Aktualisierung oder ruhendes Update bezeichnet werden, da es für ruhende Objekte angewendet wird. Umfassen die gespeicherten Eigenschaften beispielsweise eine Position und eine Geschwindigkeit des Objekts, so hat dann für ein ruhendes Objekt eine gegenüber den bisherigen Objektdaten veränderte aktualisierte Position keinen Einfluss auf die bestimmte oder gespeicherte Geschwindigkeit. Durch das voneinander unabhängige Aktualisieren der Eigenschaften, hier also beispielsweise der Position und der Geschwindigkeit, führt somit beispielsweise eine im Vergleich zu der bisher in den Objektdaten gespeicherten Position veränderte neue Position gemäß der aktuellen Sensordaten nicht automatisch zu einer veränderten oder von null verschiedenen Geschwindigkeit des jeweiligen Objekts. So kann beispielsweise für ein als ruhend eingestuftes Objekt dessen Geschwindigkeit automatisch auf null gehalten werden, sofern beispielsweise nicht eine unabhängige Geschwindigkeitsmessung eine von null verschiedene oder über einem vorgegebenen Schwellenwert liegende Geschwindigkeit des jeweiligen Objekts anzeigt. Es kann hier also für ein ruhendes, das heißt stillstehendes Objekt bei der Aktualisierung jegliche entsprechende Dynamik unterbunden werden.

Damit ergibt sich als Resultat ein entsprechend stabiles Tracking ruhender, also stillstehender Objekte hinsichtlich dynamischer, also potenziell veränderlicher Eigenschaften. Dies stellt einen Vorteil des erfindungsgemäßen Verfahrens gegenüber herkömmlichen Ansätzen dar. Solche herkömmlichen Ansätze verwenden für ein Objekttracking und eine Aktualisierung entsprechender Objektdaten oftmals Datenfusionsmethoden, die für sämtliche detektierten Objekte angewendet werden. In herkömmlichen Ansätzen werden also keine separaten Logiken oder Datenverarbeitungsmethoden für ruhende und bewegte Objekte verwendet, sondern stets eine vollumfängliche Erfassung des jeweiligen Objekts und eine entsprechend vollumfängliche Verarbeitung der entsprechenden Sensor- bzw. Objektdaten ohne Anpassung auf ein tatsächliches physikalisches bzw. physikalisch mögliches Verhalten des jeweiligen physisch realen Objekts durchgeführt. So kann real beispielsweise ein ruhendes Fahrzeug seine Orientierung nicht ändern bzw. keine Gierrate aufbauen, solange es ruht. Zudem zeigen Messunsicherheiten oder Varianzen in den Sensordaten beispielsweise über mehrere Messzyklen hinweg für ein während der gesamten Zeit ruhendes Objekt keine reale Geschwindigkeit des Objekts an.

Herkömmliche Ansätze fitten also beispielsweise alle Messpunkte bzw. Sensordaten für ein Objekt mit einem vorgegebenen Modell, um letztlich beispielsweise eine Begrenzungsbox (englisch: bounding box) für das jeweilige Objekt zu bestimmen und damit die jeweiligen Objektdaten zu aktualisieren. Werden solche Begrenzungsboxen oder Begrenzungsrahmen für ein Objekt in jedem Messzyklus neu bestimmt, so sind sie von Messzyklus zu Messzyklus nicht immer stabil, also nicht immer gleichbleibend, obwohl sich das jeweilige detektierte Objekt tatsächlich nicht bewegt. Dann kann in solchen Fällen somit fälschlicherweise dennoch eine - real nicht vorhandene - Bewegung des jeweiligen Objekts detektiert werden. Beispielsweise können bei entsprechend hoher Verkehrsdichte oder in innerstädtischen Umgebungen oder dergleichen oftmals stationäre Messpunkte in unmittelbarer Umgebung eines detektierten Fremdfahrzeugs auftreten, etwa aufgrund von dem Fremdfahrzeug zugeordneten Sensordetektionen, die tatsächlich von einer Verkehrsinfrastruktur, wie dem Boden oder einem Randstein oder dergleichen, oder von einer Abgasfahne oder dergleichen stammen können. Derartige Messpunkte bzw. Sensordetektionen können ohne Bewegung des Fremdfahrzeugs, also des jeweils detektierten Objekts, vorübergehend detektierbar sein oder detektiert werden und fälschlicherweise dem jeweiligen Objekt zugeordnet bzw. in die für dieses bestimmte Begrenzungsbox integriert werden. Dies kann dazu führen, dass auch für ein ruhendes Objekt fälschlicherweise eine Geschwindigkeit oder Drehung oder Verschiebung detektiert wird. Solche Fehldetektionen oder Fehleinschätzungen wiederum können zu entsprechenden Fehlreaktionen automatisierter Systeme und damit potenziell zu Unfällen oder einem erratischen Verhalten führen.

Die vorliegende Erfindung begegnet dieser Problematik, indem Sensor- und Objektdaten für als ruhend eingestufte Objekte und für bewegte Objekte unterschiedlich gehandhabt werden, wobei für ruhende Objekte die Aktualisierung der Objektdaten derart durchgeführt wird, dass dadurch oder dabei eine fehlerhafte Erkennung nicht real vorhandener Bewegungen oder Dynamiker ruhende Objekte vermieden oder reduziert wird.

Für die übrigen, also bewegten Objekte kann die Aktualisierung der Sensordaten hingegen auf andere bzw. herkömmliche Weise durchgeführt werden, etwa basierend auf Sensorobjekten, die bereits von oder in der Sensorik getrackt und von dieser ausgegeben werden, und ein filterbasiertes Fusionieren mit den jeweils bestehenden, also bisherigen Objektdaten. Dabei können beispielsweise ein Kaimanfilter oder dergleichen verwendet werden, Abhängigkeiten oder Kreuzkorrelationen zwischen verschiedenen Eigenschaften des jeweiligen Objekts berücksichtigt werden und/oder dergleichen mehr. Ebenso kann aber ein anderer Datenfilter oder Fusionsmechanismus angewendet werden, insbesondere wenn dieser effektiv als Tiefpass fungiert. Durch einen solchen vorgegebenen Filter oder Fusionsmechanismus können aktuellen Sensordaten und die bereits in jeweiligen Objektdaten gespeicherten Daten oder Eigenschaften des jeweiligen Objekts gewichtet miteinander kombiniert oder fusioniert werden. Dies kann bei besondere bei gleichförmigen Bewegungen detektierter Objekte zu einem vorteilhaft glatten und konsistenten Tracking beitragen. Für nicht als ruhend eingestufte detektierte Objekte können deren Eigenschaften oder zumindest deren dynamische Zustände oder Zustandsdaten also beispielsweise unter Berücksichtigung entsprechender Abhängigkeiten zwischen den jeweils aktuellen Sensordaten oder daraus bestimmten entsprechenden Eigenschaften oder Größen und den bisherigen Objektdaten aktualisiert werden. Damit kann berücksichtigt werden, dass sich diese Eigenschaften oder dynamischen Zustände bewegter Objekte tatsächlich dynamisch in nicht genau vorhersehbarer Weise aber dennoch mit begrenzter Dynamik oder Rate von Messzyklus zu Messzyklus verändern können.

Es kann der Fall auftreten, dass die Sensorik oder zumindest ein bestimmter Sensor, wie etwa eine zumindest als Teil der Sensorik verwendete Kamera oder dergleichen, in einem aktuellen Messzyklus für ein bestimmtes, insbesondere ein bereits in einem vorherigen Messzyklus detektiertes, Objekt keine Detektionen bzw. Sensordaten liefert. Wenn dieses Objekt bisher bereits als ruhendes Objekt eingestuft war, so kann dann für dieses Objekt auch im aktuellen Messzyklus die beschriebene für ruhende Objekte vorgesehene Aktualisierung durchgeführt bzw. angewendet werden.

Das erfindungsgemäße Verfahren kann mit weiteren Maßnahmen oder Verfahrensschritten kombiniert oder erweitert werden. Beispielsweise können die bisherigen Objektdaten von bereits zuvor detektierten Objekten nach einem vorgegebenen Modell zunächst auf den aktuellen Zeitpunkt, also beispielsweise den Aufnahmezeitpunkt der Sensordaten des aktuellen Messzyklus prädiziert oder extrapoliert werden, bevor sie wie beschrieben verwendet werden.

In einer möglichen Ausgestaltung der vorliegenden Erfindung wird der jeweilige Bewegungszustand der detektierten Objekte - zumindest für bereits in einem vorausgehenden Mess- oder Aktualisierungszyklus als ruhend eingestufte Objekte - anhand von Radardetektionen, also Radardaten oder Radarechos, bestimmt. Diese Radardetektionen können den hier also insbesondere Teil der jeweils erfassten Sensordaten sein. Ein Objekt wird dabei als ruhendes Objekt eingestuft, wenn eine radarbasiert, also anhand der dem jeweiligen Objekt zugeordneten Radardetektionen bestimmte Geschwindigkeit des jeweiligen Objekts betragsmäßig kleiner als ein vorgegebener Geschwindigkeitsschwellenwert ist. Ein solcher Geschwindigkeitsschwellenwert kann sich beispielsweise an einer jeweiligen Messunsicherheit des verwendeten Radarsensors orientieren, also diese berücksichtigen. Mit anderen Worten können hier also die Radardetektionen, insbesondere eine darauf basierend ermittelte basierte Geschwindigkeit für eine entsprechende Stillstandsabschätzung verwendet werden.

Dies beruht auf der Erkenntnis, dass Radardetektionen sich aufgrund der damit möglichen direkten Messung der Doppelgeschwindigkeit besonders gut zum Bestimmen des Bewegungszustands eignen können. Zudem kann anhand von Radardetektionen über einen oder mehrere Messzyklen hinweg mittels eines vorgegebenen robusten Schätzverfahrens, das beispielsweise auf einer Medianbestimmung oder einem Histogramm basierend kann, ein stabiler Abstand der Sensorik zu dem jeweiligen Objekt geschätzt werden. Dies kann ein potenziell gefährliches Über- oder Unterschätzen des Abstands, wie es beispielsweise bei kamerabasierten Abstandsschätzung auftreten kann, vermieden oder reduziert werden. Damit können beispielsweise auf der Position und/oder der Geschwindigkeit und/oder dem Abstand des jeweiligen Objekts basierende Funktionen, wie etwa eine automatische Abstandshaltung bzw. ein Abstandsregeltempomat oder dergleichen besonders sicher und zuverlässig realisiert werden.

Wenn der Betrag der radarbasiert bestimmten Geschwindigkeit des jeweiligen Objekts kleiner als der vorgegebene Geschwindigkeitsschwellenwert ist, kann dann beispielsweise automatisch an einer entsprechenden Datenverarbeitung, beispielsweise in den Objektdaten für das jeweilige Objekt ein entsprechendes Flag gesetzt werden, wodurch das jeweilige Objekt als ruhendes Objekt eingestuft oder definiert wird. Für ein ruhendes Objekt kann zudem ein Prozessrauschen in der jeweiligen Signal- oder Datenverarbeitung reduziert werden. Zeigt in einem Messzyklus die für das jeweilige Objekt radarbasiert bestimmte Geschwindigkeit eine Bewegung dieses Objekts an, so kann das Prozessrauschen hingegen automatisch wieder erhöht werden. Auf diese Weise kann eine schnellere Reaktion auf ein Sich-in-Bewegung-setzen des jeweiligen Objekts, beispielsweise durch die Objektdaten als Input nutzende Assistenzsystem oder Funktionen erreicht werden.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung wird ein Objekt jeweils erst, insbesondere nur dann als ruhendes Objekt eingestuft, wenn wenigstens eine vorgegebene Anzahl von Messungen und/oder wenigstens ein vorgegebener Anteil mehrerer durchgeführter Messungen eine unterhalb eines bzw. des an anderer Stelle genannten vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit des jeweiligen Objekts ergeben oder anzeigen. Wird als Kriterium hier der vorgegebene Anteil von Messungen verwendet, so kann dafür zudem eine vorgegebene Mindestanzahl von Messungen, anhand derer dieser Anteil ermittelt wird oder wurde, vorgegeben sein, bevor er hinsichtlich der Einstufung des Bewegungszustands des jeweiligen Objekts als Kriterium verwendet oder ausgewertet wird. In der hier vorgeschlagenen Ausgestaltung der vorliegenden Erfindung wird in jedem Fall der Bewegungszustand des jeweiligen Objekts nicht basierend auf einer einzelnen Geschwindigkeitsmessung, sondern basierend auf mehreren Geschwindigkeitsmessungen bestimmt. So kann beispielsweise die beschriebene Dynamik in den Objektdaten bei deren Aktualisierung für ein Objekt erst dann unterbunden werden, wenn für dieses Objekt mehrere Dopplermessungen über ein oder mehrere Messzyklen hinweg einen kompletten Stillstand des jeweiligen Objekts angezeigt oder bestätigt haben.

Beispielsweise kann als entsprechendes Kriterium zum Einstufen eines Objekts als ruhendes Objekt vorgegeben sein, das wenigstens fünf Messungen, die aufeinanderfolgend oder innerhalb einer vorgegebenen Zeitspanne durchgeführt wurden, eine unterhalb des vorgegebenen Geschwindigkeitsschwellenwertes liegende Geschwindigkeit des jeweiligen Objekts ergeben oder anzeigen. Der Geschwindigkeitsschwellenwert kann beispielsweise 0,1 m/s oder 0,5 m/s oder dergleichen betragen. Je nach Anwendungsfall und Anforderung können aber ebenso andere Werte vorgegeben werden. Bezüglich des Anteils durchgeführter Messungen als Kriterium kann beispielsweise vorgegeben sein, das von allen Messungen oder Sensordetektionen für das jeweilige Objekt innerhalb einer vorgegebenen Zeitspanne bzw. innerhalb eines gleitenden Zeitfensters vorgegebener Länge höchstens 10 % oder höchstens 20 % oder höchstens 30 % eine oberhalb des Geschwindigkeitsschwellenwertes liegende Geschwindigkeit anzeigen dürfen, um das Objekt noch als ruhendes Objekt einzustufen. Auch hier kann der entsprechende gegebene Anteil abhängig von einem jeweiligen Anwendungsfall oder von jeweiligen Anforderungen oder sensorspezifisch sein. Insgesamt ermöglicht die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung eine besonders zuverlässige und robuste Bestimmung des jeweiligen Bewegungszustands der detektierten Objekte und eine entsprechend robuste Anwendung des erfindungsgemäßen Verfahrens. In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden für als ruhend eingestufte Objekte deren Objektdaten basierend auf einzelnen Sensordetektionen aktualisiert, wohingegen für als bewegt eingestufte Objekte deren Objektdaten basierend auf von der Sensorik ausgegebenen Sensorobjekten aktualisiert werden. Solche Sensorobjekte können beispielsweise in jedem Messzyklus, etwa in Form einer Liste oder dergleichen, von der Sensorik bzw. von einem jeweiligen Sensor ausgegeben werden. Sensorobjekten sind hier also Objekte, die von der Sensorik bzw. dem jeweiligen Sensor selbst, also intern detektiert auch über mehrere Messzyklen hinweg nachverfolgt werden. Die Sensorobjekte können also jeweils bereits durch die Sensorik bzw. den jeweiligen Sensor aus mehreren Sensordetektionen gebildet oder rekonstruiert worden sein. Dabei können die Sensorobjekte mehrere Eigenschaften des jeweiligen zugrundeliegenden realen Objekts umfassen oder angeben. Beispielsweise können die Sensorobjekte jeweils einen Begrenzungsrahmen und/oder eine Position und/oder eine Ausrichtung und/oder eine Geschwindigkeit und/oder eine Gierrate und/oder dergleichen mehr für das jeweilige Objekt insgesamt, also nicht nur für die einzelnen, dem Objekt zugeordneten Sensordetektionen angeben.

Basierend auf solchen Sensorobjekten kann für die als bewegt eingestuften Objekte die jeweilige Aktualisierung durch Anwendung eines vorgegebenen Filter- oder Fusionsmechanismus durchgeführt werden, was hier auch als vollständige Aktualisierung oder vollständiges Update bezeichnet werden kann.

Für als ruhend eingestufte Objekte kann demgegenüber eine vereinfachte Aktualisierung durchgeführt werden. Dabei können neben wenigstens einer dem jeweiligen Objekt zugeordneten Sensordetektion auch in den zugehörigen Objektdaten bereits aus einem oder mehr vorherigen Messzyklen gespeicherte Eigenschaften des jeweiligen Objekts verwendet oder berücksichtigt werden. Die einzelnen Sensordetektionen können gegebenenfalls einfacher und/oder schneller, also insgesamt mit weniger Aufwand zum Aktualisieren der jeweiligen Objektdaten verarbeitet werden als die nur für das Aktualisieren der Objektdaten der als bewegt eingestuften Objekte verwendeten Sensorobjekte.

Die zu einem als ruhend eingestuften Objekt zugehörigen Sensordetektionen können hier basierend auf den Objektdaten, also dem jeweiligen, insbesondere außerhalb des jeweiligen Sensors selbst gespeicherten, Objekttrack, insbesondere dem darin gespeicherten dynamischen Zustand oder dem darauf basierend für den jeweiligen Messzeitpunkt prädizierten dynamischen Zustand des jeweiligen Objekts, bestimmt werden. Dies kann insbesondere deshalb möglich sein, da sich die Position und Lage eines ruhenden Objekt definitionsgemäß nicht verändern kann und somit zu dem jeweiligen Objekt zugehörige Sensordetektionen mittels eines vorgegebenen positions- oder ortsbasierten Kriteriums aus sämtlichen verfügbaren Sensordetektionen ausgewählt werden können. Dadurch können besonders zuverlässig und robust tatsächlich zu einem ruhenden Objekt zugehörige Sensordetektionen ausgewählt und für das Aktualisieren der jeweiligen Objektdaten verwendet werden. Insbesondere kann dadurch, dass hier also die Zuordnung der Sensordetektionen zu einem ruhenden Objekt nicht durch den jeweiligen Sensor selbst durchgeführt wird, die Wahrscheinlichkeit dafür reduziert werden, dass etwa Ausreißer, Messfehler, Störungen und/oder ein Driften des jeweiligen Sensors zu Fehlzuordnungen von Sensordetektionen zu dem jeweiligen Objekt bzw. zu einer letztlich fehlerhaften Positionsaktualisierung für das jeweilige Objekt führen.

Sofern die Sensorik mehrere verschiedene Sensoren umfasst bzw. in dem aktuellen Messzyklus jeweilige Objekt Sensordetektionen von verschiedenen Sensoren erfasst wurden, können diese Sensordetektionen sämtlich oder nur teilweise berücksichtigt, also für das jeweilige Aktualisieren verwendet werden. Dies kann beispielsweise abhängig sein von detektierten Abweichungen oder Inkonsistenzen zwischen den Sensordetektionen verschiedener Sensoren und einer vorgegebenen Priorisierungsliste für die verschiedenen Sensoren. Eine solche Priorisierungsliste kann angeben, welcher Sensor für ruhende Objekte allgemein oder für die Zuordnung von Sensordetektionen zu einem ruhenden Objekt oder für das Bestimmen oder Aktualisieren jeweils einer bestimmten Eigenschaft eines ruhenden Objekts über andere Sensoren bzw. deren Sensordaten zu priorisieren ist. Beispielsweise können für ein ruhendes Objekt als Sensordetektionen sowohl Lidardetektionen als auch Radardetektionen vorliegen und/oder der in den bereits vorhandenen Objektdaten gespeicherte dynamische Zustand, insbesondere die Position des jeweiligen ruhenden Objekts auf älteren Lidardetektionen basieren. Da Radardetektionen für ruhende Objekte, beispielsweise aufgrund einer Neigung von Radarsensoren zum Driften, schlechter geeignet, also niedriger priorisiert sein können als Lidardetektionen, können dann die dem ruhenden Objekt zuzuordnenden Radardetektionen beispielsweise anhand der lidarbasiert bestimmten Position oder eines lidarbasiert bestimmten Begrenzungsrahmens für das jeweilige ruhende Objekt bestimmt oder ausgewählt werden. Dies kann insbesondere dann erfolgen, wenn die Lidardetektionen aus dem aktuellen Messzyklus weiterhin mit einem Stillstand des jeweiligen Objekts an der bekannten, bereits in den zugehörigen Objektdaten gespeicherten Position konsistent sind. Damit können dann gegebenenfalls auch bei einem Driften oder Inkonsistenzen der Radardetektionen zumindest ein Teil der zur aktuellen Position des jeweiligen ruhenden Objekts passenden Radardetektionen verwendet werden. Somit können insgesamt die dem jeweiligen ruhenden Objekt zugeordneten Sensordetektionen genauer und zuverlässiger bestimmt und gegebenenfalls mehr Sensordetektionen, also mehr Daten für das jeweilige Aktualisieren der Objektdaten verwendet oder berücksichtigt werden.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung wird für als ruhend eingestufte Objekte aus allen aktuellen Sensordetektionen, die dem jeweiligen Objekt zugeordnet sind bzw. aktuell zugeordnet wurden, zum Bestimmen oder Festlegen der als eine Eigenschaft in den Objektdaten zu aktualisierenden aktuellen Position des jeweiligen Objekts jeweils eine stabile Enddetektion bestimmt oder ausgewählt. Diese Enddetektion kann eine der dem jeweiligen Objekt zugeordneten Sensordetektionen, die als ein der Sensorik - oder beispielsweise einem damit ausgestatteten Kraftfahrzeug oder dergleichen - zugewandtes Ende oder als entsprechende Seite des jeweiligen Objekts verwendet, also als solches bzw. als solche interpretiert oder betrachtet wird. Die Sensordetektionen sind dabei dem jeweiligen Objekt nach einem vorgegebenen Kriterium zugeordnet. Dieses vorgegebene Kriterium kann insbesondere bezüglich der bisherigen, also bereits aus einem früheren Messzyklus bekannten oder ermittelten und in den jeweiligen Objektdaten gespeicherten oder angegebenen Position des jeweiligen ruhenden Objekts abstandsbasiert sein. Mit anderen Worten kann das Kriterium also beispielsweise abfragen, ob eine bestimmte Sensordetektion sich innerhalb eines vorgegebenen Abstandes zu der in den Objektdaten angegebenen Position des jeweiligen ruhenden Objekts befindet. Nur wenn dies der Fall ist, wird die jeweilige Sensordetektion dann dem jeweiligen ruhenden Objekt zugeordnet. Die bestimmte oder ausgewählte stabile Enddetektion kann dann, beispielsweise über mehrere Messzyklen hinweg, stabil als Ende des jeweiligen Objekts bzw. als Referenz zum Bestimmen der Position des jeweiligen Objekts angesehen oder verwendet werden.

Es kann also beispielsweise für ein ruhendes Objekt über mehrere Messzyklen hinweg bzw. so lange, wie das jeweilige Objekt als ruhend eingestuft ist oder bleibt, die gleiche, also beispielsweise jeweils eine von der gleichen Stelle des jeweiligen Objekts stammende Sensordetektion als stabile Enddetektion verwendet werden. Anhand dieser stabilen Enddetektion kann das Ende bzw. die Position des jeweiligen Objekts dann unverändert, also stabil bestimmt werden. Dies ist insbesondere auch dann möglich, wenn beispielsweise andere aktuelle Sensordetektionen scheinbar eine andere Position des jeweiligen Objekts anzeigen.

Ebenso kann die stabile Enddetektion beispielsweise als Median oder Mittelwert der über mehrere Messzyklen hinweg jeweils der Sensorik nächstliegenden dem Objekt zugeordneten Sensordetektionen bestimmt werden. Dadurch kann die Position der stabilen Enddetektion und damit auch des jeweiligen ruhenden Objekts auch dann stabil gehalten oder bestimmt werden, wenn über mehrere Messzyklen hinweg nicht alle dem jeweiligen Objekt zugeordneten Sensordetektionen gleichbleibend, insbesondere nicht positionsstabil erfasst werden.

Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann somit auch bei konsistenten oder schwankenden Sensordetektionen ein ruhendes Objekt besonders zuverlässig, genau, robust und stabil nachverfolgt und dementsprechend angemessen und robust darauf reagiert werden.

In einer möglichen Weiterbildung der vorliegenden Erfindung wird dann, wenn die dem jeweiligen ruhenden Objekt zugeordneten Sensordetektionen Radardetektionen umfassen, die stabile Enddetektion unter Berücksichtigung von den entsprechenden Radarquerschnitten (ROS, Radar Cross Section) bestimmt oder ausgewählt. Dies kann also angewendet werden, falls die Sensorik ein Radarsensor ist oder einen solchen umfasst. Insbesondere kann als Enddetektion die der Sensorik nächstliegende Radardetektion, deren Radarquerschnitt größer als ein vorgegebener Schwellenwert ist, bestimmt werden. Dazu können beispielsweise, insbesondere über mehrere Messzyklen hinweg, in ein Histogramm eingetragen werden, in dem der Radarquerschnitt in Abhängigkeit von dem Abstand der Radardetektionen zu der Sensorik aufgetragen wird.

Durch die Berücksichtigung der Radarquerschnitte bzw. des vorgegebenen Schwellenwerts dafür kann die Wahrscheinlichkeit dafür verringert werden, dass Streuoder Clutterdetektionen im Bereich des jeweiligen Objekts zum Bestimmen von dessen Position berücksichtigt werden, die eine Position und Lage des Begrenzungsrahmens für das jeweilige Objekt verfälschen könnten. Der Schwellenwert für den Radarquerschnitt kann abhängig von einem Objekttyp vorgegeben sein. Somit können also für unterschiedliche Typen oder Arten von Objekten unterschiedliche Schwellenwerte für den Radarquerschnitt berücksichtigt werden. Dadurch kann das Verfahren robust und zuverlässig unterschiedliche Typen oder Arten von Objekten angewendet werden.

Für eine weitere Verbesserung kann vorgesehen sein, dass je Messzyklus mehrere oder alle der dem jeweiligen Objekt zugeordneten Radardetektionen berücksichtigt, also hinsichtlich ihres Radarquerschnitts zum Bestimmen oder Auswählen der Enddetektion evaluiert werden. Dadurch kann letztlich die Position des jeweiligen Objekts besonders zuverlässig und robust bestimmt werden. Da die Radardetektionen inhärent auch Messungen oder Angaben zur Dopplergeschwindigkeit darstellen oder umfassen können, kann ebenso die Geschwindigkeit des jeweiligen Objekts basierend auf diesen Dopplergeschwindigkeiten gemäß der dem Objekt zugeordneten Radardetektionen bestimmt oder abgeschätzt werden. Die so abgeschätzte Geschwindigkeit kann dann ebenfalls bei dem Aktualisieren der Objektdaten berücksichtigt, also beispielsweise in diese eingetragen oder einfusioniert werden.

In einer weiteren möglichen Ausgestaltung der vorliegenden Erfindung werden zumindest für als ruhend eingestufte Objekte zumindest ein Teil der in den jeweiligen Objektdaten gespeicherten oder zu speichernden Eigenschaften basierend auf Lidardetektionen bestimmt. Die Sensorik kann hier also ein Lidarsensor sein oder einen solchen umfassen. Die Lidardetektionen sind hier dementsprechend Sensordetektionen eines solchen Lidarsensors. Die Lidardetektionen aus dem jeweils aktuellen Messzyklus werden hier dem Begrenzungsrahmen für das jeweilige Objekt zugeordnet. Für diese Zuordnung oder Assoziierung kann beispielsweise ein vorgegebenes positions- oder ortsbasiertes Kriterium ausgewertet werden. Demnach können dem Begrenzungsrahmen, beispielsweise nur solche Lidardetektionen zugeordnet werden, die sich innerhalb eines vorgegebenen Bereiches um die in den Objektdaten angegebene Position des jeweiligen Objekts befinden. Dazu kann beispielsweise ein entsprechender Abstand und/oder ein Winkel- und Entfernungsbereich oder dergleichen vorgegeben sein. Ebenso können beispielsweise die Abstände der Lidardetektionen von der Sensorik bestimmt und ausgewertet werden, beispielsweise ähnlich wie an anderer Stelle im Zusammenhang mit den Radardetektionen beschrieben. Weiter wird hier anhand einer Verteilung, insbesondere eines Entfernungshistogramms, dieser dem Begrenzungsrahmen des jeweiligen Objekts zugeordneten Lidardetektionen eine stabile Enddetektion bestimmt, die als ein der Sensorik - oder beispielsweise einem damit ausgestatteten Kraftfahrzeug oder dergleichen - zugewandtes Ende oder eine entsprechende Seite des jeweiligen Objekts verwendet, also als solches bzw. solche betrachtet oder interpretiert wird. Damit wird als Eigenschaft des jeweiligen Objekts insbesondere dessen Position lidarbasiert bestimmt. Die Position der Enddetektion bzw. des durch diese definierten Endes des jeweiligen Objekts dient hier also zum Festlegen der Position des Objekts als entsprechende Eigenschaft des Objekts in den zugeordneten Objektdaten. In das Entfernungshistogramms können, insbesondere über mehrere Messzyklen hinweg, die Lidardetektionen sortiert nach ihrem Abstand - beispielsweise zu der Sensorik oder einem anderen vorgegebenen Referenzpunkt - eingetragen werden.

Als Enddetektion kann dann die oder eine Lidardetektion bestimmt oder ausgewählt werden, die sich in dem signifikanten Abstandsbin mit dem oder für den kleinsten Abstand oder Abstandsbereich befindet. Ein Abstandsbin des Entfernungshistogramms kann im vorliegenden Sinne dann signifikant sein, wenn durch diesen oder darin ein vorgegebener Schwellenwert überschritten wird. Ein solcher Schwellenwert kann beispielsweise für die Anzahl von Lidardetektionen in dem Abstandsbin oder für eine Intensität, also einen entsprechenden Reflektivitätswert der Lidardetektion oder Lidardetektionen in dem Abstandsbin vorgegeben sein. Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann die Position eines ruhenden Objekts besonders stabil, zuverlässig und robust bestimmt und nachverfolgt werden. Damit können darauf aufbauende Funktionen besonders zuverlässig und intuitiv, also etwa ohne erratisch erscheinende Schwankungen oder dergleichen angewendet werden. Dies ist durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung insbesondere auch dann möglich, wenn beispielsweise über mehrere Messzyklen hinweg für ein bestimmtes ruhendes Objekt nicht immer die gleichen Lidardetektionen bzw. nicht immer von denselben Stellen des Objekts stammende Lidardetektionen erfasst werden. Die hier vorgeschlagene Verwendung von Lidardetektionen kann dabei gerade für die Positionsbestimmung von ruhenden Objekten besonders nützlich und effektiv sein, da Lidarsensoren für ruhende Objekte nicht oder zumindest weniger stark als Radarsensoren zum Driften neigen können. In einer weiteren Ausgestaltung der vorliegenden Erfindung werden für als ruhend eingestufte Objekte für das Aktualisieren von deren Objektdaten jeweils Abhängigkeiten zwischen verschiedenen in den jeweiligen Objektdaten gespeicherten oder angegebenen Eigenschaften des jeweiligen Objekts aufgehoben. Mit anderen Worten können hier also etwa Kreuzkorrelationen oder Kopplungen zwischen verschiedenen Eigenschaften des jeweiligen Objekts gelöscht oder entfernt oder auf null zurückgesetzt werden. Dies kann beispielsweise Abhängigkeiten zwischen der Position und/oder der Geschwindigkeit und/oder der Beschleunigung und/oder des Gierwinkels und/oder der Gierrate des jeweiligen Objekts und/oder dergleichen mehr umfassen. Durch das Aufheben dieser Abhängigkeiten werden diese Eigenschaften also voneinander entkoppelt. Dadurch führt beispielsweise eine Veränderung in der Position des jeweiligen Objekts von dem letzten Messzyklus bzw. der letzten Aktualisierung der Position zu dem aktuellen Messzyklus für ein ruhendes Objekt nicht automatisch dazu, dass eine entsprechende Geschwindigkeit oder Beschleunigung oder ein veränderter Gierwinkel oder eine Gierrate induziert bzw. im Rahmen der Aktualisierung in den Objektdaten gespeichert wird.

Zusätzlich oder alternativ wird für als ruhend eingestufte Objekte für eine Modellierung oder Verwaltung des jeweiligen Objekts in den zugehörigen Objektdaten zu einer diagonalen bzw. diagonalisierten P-Matrix gewechselt bzw. eine solche Matrix verwendet. Eine P-Matrix kann beispielsweise Unsicherheiten eines Objektmodells oder Abweichungen von diesem bzw. dessen Prädiktionen für die Eigenschaften des jeweiligen Objekts angeben. Durch die Verwendung einer diagonalen bzw. diagonalisierten P-Matrix kann verhindert werden, dass sich durch das Aktualisieren einer Eigenschaft entsprechende Abhängigkeiten oder Kreuzkorrelationen oder dergleichen zu einer oder mehr anderen Eigenschaften des Objekts aufbauen. Dies kann beispielsweise im Gegensatz zu bewegten Objekten gesehen werden, bei denen eine veränderte Position oder eine bestimmte oder veränderte Geschwindigkeit oder eine bestimmte oder veränderte Beschleunigung jeweils mit Veränderungen der jeweils anderen Werte gegenüber den bisherigen Objektdaten einhergehen. Daher kann für bewegte Objekte beispielsweise eine P-Matrix mit von null verschiedenen Nebendiagonalelementen verwendet werden. Durch die hier vorgeschlagene Ausgestaltung der vorliegenden Erfindung kann das voneinander unabhängige Aktualisieren der Eigenschaften ruhender Objekte besonders einfach, effektiv und zuverlässig realisiert oder implementiert werden. Die Erfindung betrifft auch eine Objektnachverfolgungseinrichtung, die insbesondere für ein Kraftfahrzeug ausgestaltet bzw. ausgelegt sein kann. Beispielsweise kann die Objektnachverfolgungseinrichtung also als Assistenzsystem für ein Kraftfahrzeug oder als Teil eines solchen Assistenzsystems ausgestaltet sein. Die erfindungsgemäße Objektnachverfolgungseinrichtung weist eine Schnittstelle zum Erfassen von Sensordaten und eine Datenverarbeitungseinrichtung zum Verarbeiten der erfassten Sensordaten auf. Dazu können die Objektnachverfolgungseinrichtung, insbesondere deren Datenverarbeitungseinrichtung beispielsweise eine Prozesseinrichtung, also etwa einen Mikrochip, Mikroprozessor oder Mikrocontroller oder dergleichen, und einen damit gekoppelten computerlesbaren Datenspeicher umfassen. In diesem Datenspeicher kann dann ein entsprechendes Betriebs- oder Computerprogramm gespeichert sein, das die im Zusammenhang mit dem erfindungsgemäßen Verfahren beschriebenen Verfahrensschritte, Maßnahmen oder Abläufe oder entsprechende Steueranweisungen codiert oder implementiert. Dieses Betriebs- oder Computerprogramm kann dann mittels der Prozesseinrichtung ausführbar sein, um die Ausführung des entsprechenden Verfahrens zu bewirken. Die Sensordaten können beispielsweise Rohdaten, Sensordetektionen, Sensorobjekte und/oder dergleichen mehr sein oder umfassen. Die erfindungsgemäße Objektnachverfolgungseinrichtung kann insbesondere die im Zusammenhang mit dem erfindungsgemäßen Verfahren genannte Objektnachverfolgungseinrichtung oder Trackingeinrichtung sein oder dieser entsprechen. Die erfindungsgemäße Objektnachverfolgungseinrichtung kann also insbesondere zum Verwalten von Objektdaten, also Objekttracks für durch die Sensorik detektierte bzw. in den erfassten Sensordaten repräsentierte Objekte eingerichtet sein. Diese Objektdaten können beispielsweise in dem genannten Datenspeicher gespeichert oder verwaltet werden. Die Objektnachverfolgungseinrichtung kann die Objektdaten beispielsweise über die genannte oder eine andere Schnittstelle bereitstellen oder abrufbar machen oder ausgeben, beispielsweise für ein anderes Assistenzsystem.

Die Erfindung betrifft auch ein Kraftfahrzeug, das eine Sensorik zur Umgebungserfassung und eine damit gekoppelte erfindungsgemäße Objektnachverfolgungseinrichtung aufweist. Das erfindungsgemäße Kraftfahrzeug kann insbesondere das im Zusammenhang mit dem erfindungsgemäßen Verfahren und/oder Zusammenhang mit der erfindungsgemäßen Objektnachverfolgungseinrichtung genannte Kraftfahrzeug sein oder diesem entsprechen. Dementsprechend kann das erfindungsgemäße Kraftfahrzeug einige oder alle der in diesen Zusammenhängen genannten Eigenschaften oder Merkmale aufweisen. Beispielsweise kann das erfindungsgemäße Kraftfahrzeug ein Assistenzsystem für eine vorgegebene Fahrassistenzfunktionen oder zum assistierten oder zumindest teilweise automatisierten Führen des Kraftfahrzeugs aufweisen. Dieses Assistenzsystem kann dann dazu eingerichtet sein, seine Funktion basierend auf den durch die erfindungsgemäß Objektnachverfolgungseinrichtung verwalteten Objektdaten auszuführen.

Weitere Merkmale der Erfindung können sich aus den Ansprüchen, den Figuren und der Figurenbeschreibung ergeben. Die vorstehend in der Beschreibung genannten Merkmale und Merkmalskombinationen sowie die nachfolgend in der Figurenbeschreibung und/oder in den Figuren allein gezeigten Merkmale und Merkmalskombinationen sind nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar, ohne den Rahmen der Erfindung zu verlassen.

Die Zeichnung zeigt in:

Fig. 1 ein beispielhaftes Schemas zur Veranschaulichung eines Verfahrens zur sensorbasierten Objektnachverfolgung;

Fig. 2 eine schematische Darstellung zur Veranschaulichung einer radarbasierten Objektzustandsabschätzung für die Objektnachverfolgung;

Fig. 3 eine beispielhafte Histogrammdarstellung zur weiteren Veranschaulichung der Objektzustandsabschätzung; und

Fig. 4 eine schematische Darstellung zur Veranschaulichung einer lidarbasierten Objektzustandsabschätzung.

In den Figuren sind gleiche und funktionsgleiche Elemente mit den gleichen Bezugszeichen versehen.

Fig. 1 zeigt beispielhaft ein Verfahrensschema 1 für ein Verfahren zur Objektnachverfolgung, wie es beispielsweise in einem Fahrzeug zur Nachverfolgung, also zum Tracken von Objekten in einer jeweiligen Umgebung angewendet werden kann. Eigenschaften nachverfolgter Objekte werden in Objekttracks 2, von denen jeder jeweils einem nachverfolgten Objekt zugeordnet ist, verwaltet. In einem Messzyklus oder Durchlauf des Verfahrens werden jeweils Sensordaten 3 erfasst. Es kann dann zunächst eine Prädiktion 4 der Objekttracks 2 bzw. der darin gespeicherten Daten oder Eigenschaften der nachverfolgten, also bereits bekannten Objekte auf den aktuellen Zeitpunkt oder einen Aufnahmezeitpunkt der jeweils erfassten Sensordaten 3 durchgeführt werden. Die Objekttracks 2 bzw. die entsprechenden Objekte ebenso wie in den oder anhand der aktuellen Sensordaten 3 detektierten oder in den Sensordaten 3 angegebenen Objekte, die hier auch als Sensorobjekte bezeichnet werden können, werden dann in einer Objektassoziierung 5 verarbeitet. Dabei werden die Sensorobjekte aus dem aktuellen Messzyklus soweit möglich jeweils einem der Objekttracks 2 zugeordnet. Dies kann beispielsweise basierend auf einer - gegebenenfalls abstrakten - vorgegebenen Abstandsmetrik oder dergleichen erfolgen. Für dabei nicht zuordenbare Sensorobjekte kann gegebenenfalls jeweils ein neuer Objekttrack 2 angelegt werden.

Anhand der Objekttracks 2 und/oder der in den zugeordneten Sensorobjekten gespeicherten oder angegebenen Eigenschaften als bewegt eingestufte Umgebungsobjekte können dann in einer Vollaktualisierung 6 weiterverarbeitet werden. Hier können jeweils die aktuellen Sensordaten 3 bzw. Sensorobjekte in den jeweils zugeordneten Objekttrack 2 einfusioniert werden, insbesondere unter Anwendung eines vorgegebenen Filtermechanismus, wie etwa eines Kaimanfilters oder dergleichen. Dabei werden die Objekttracks 2 also aktualisiert, woraus sich dann entsprechend aktualisierte Objekttracks 2 als Ausgangspunkt für den nächsten Messzyklus oder Durchlauf des Verfahrens ergeben.

Die Objekttracks 2 beziehen sich jeweils auf ein sensorisch detektiertes reales Objekt, dessen Eigenschaften oder Zustand in einem oder durch einen rekursiven Trackingalgorithmus rekursiv über die Zeit geschätzt werden. Die Objekttracks 2 können auch als interne Tracks bezeichnet werden und werden jeweils über mehrere Messzyklen hinweg gespeichert und jeweils aktualisiert. In jedem solchen Messzyklus oder Frame, also Durchlauf des Verfahrens können die Sensordaten von einem oder mehr Sensoren erfasst werden, die Messdaten für Sensorobjekte angeben, die bereits innerhalb des jeweiligen Sensors über die Zeit getrackt werden. Es können hier nicht nur direkt gemessene Eigenschaften, wie etwa eine Position und Orientierung, sondern auch dynamische Zustände, wie etwa eine Geschwindigkeit oder eine Gierrate oder dergleichen über die Zeit geschätzt werden Jeder Objekttrack 2 kann hier auch einen Eintrag oder ein Datum bzw. Datenfeld umfassen, worin gespeichert oder angegeben ist, ob das jeweilige Objekt bewegt oder ruhend, also gestoppt oder stationär ist.

Die Objekttracks 2 für ruhende Objekte werden separat, also auf andere Weise als für die bewegten Objekte beschrieben, verwaltet bzw. aktualisiert. Dazu werden in einer entsprechenden Detektionsassoziierung 7 nicht die Sensorobjekte, sondern einzelne Sensordetektionen 18 (siehe Fig. 2, 4) zu den Objekttracks 2 bzw. den darin verwalteten Objekten zugeordnet. Zur weiteren Erläuterung zeigt dazu Fig. 2 eine schematische Übersichtsdarstellung mit einem Kraftfahrzeug 11, in welchem das hier beschriebene Verfahren angewendet wird. Dazu weist das Kraftfahrzeug 11 eine Sensorik 12 auf, die hier insbesondere einen Radarsensor und/oder einen Lidarsensor umfassen kann. Zur Durchführung des Verfahrens weist das Kraftfahrzeug 11 zudem eine Objektnachverfolgungseinrichtung 13 auf, die mit der Sensorik 12 über eine Schnittstelle 14 gekoppelt ist. Die von der Sensorik 12 gelieferten Sensordaten 3 können durch die Objektnachverfolgungseinrichtung 13 beispielsweise mittels eines hier schematisch angedeuteten Prozessors 15 und Datenspeichers 16 verarbeitet werden.

Mittels der Sensorik 12 kann das Kraftfahrzeug 11 seine Umgebung abtasten und dortige Objekt detektieren. Als ein solches Objekt ist hier schematisch einen Fremdfahrzeug 17 bzw. ein entsprechender Begrenzungsrahmen angedeutet. Weiter sind hier mehrere Sensordetektionen 18 der Sensorik 12 angedeutet. Diese Sensordetektionen 18 umfassen Objektdetektionen 19, die tatsächlich von dem Fremdfahrzeug 17 stammen und Clutterdetektionen 20, die nicht von dem Fremdfahrzeug 17 stammen und/oder auf Messfehler oder Störungen zurückzuführen sind. Für die Detektionsassoziierung 7 können nun aus den aktuellen Sensordaten 3 alle in einem dem jeweiligen Objekt, hier also dem Fremdfahrzeug 17 zugeordneten Suchbereich 21 verorteten Sensordetektionen 18 ermittelt werden. Es kommen dann für eine Zuordnung oder Assoziierung zu dem Fremdfahrzeug 17 bzw. dem entsprechenden Begrenzungsrahmen nur innerhalb des Suchbereichs 21 liegende Sensordetektionen 18 infrage.

Fig. 3 zeigt eine entsprechende Darstellung zur Veranschaulichung einer möglichen

Verteilung von Sensordetektionen 18 bei Verwendung eines Lidarsensors. Bei

Verwendung eines Lidarsensors kann typischerweise eine im Vergleich zu den in Fig. 2 dargestellten Radardetektionen eine größere Anzahl stabiler Objektdetektionen 19 am Heck bzw. am der Sensorik 12 zugewandten Ende des Fremdfahrzeugs 17 auftreten. Jedoch können zusätzliche Clutterdetektionen 20 auftreten. Diese können beispielsweise von einer Abgasfahne des Fremdfahrzeugs 17 stammen und/oder im Inneren des Fremdfahrzeugs 17 bzw. des Begrenzungsrahmens für das Fremdfahrzeug 17 auftreten, beispielsweise aufgrund von Fenstern oder Reflektionen von Teilen eines Unterbodens des Fremdfahrzeugs 17 oder dergleichen. Beispielhaft ist hier für die Verwendung eines Lidarsensors eine andere Form des Suchbereichs 21 dargestellt.

Je nach verwendetem oder verfügbarem Sensor bzw. je nach Art der Sensordetektionen 18 kann die Zuordnung der Sensordetektionen 18 zu dem Fremdfahrzeug 17 beispielsweise basierend auf einem vorgegebenen Abstandskriterium und/oder einem vorgegebenen Clusterkriterium und/oder einem vorgegebenen Ähnlichkeitskriterium durchgeführt werden. So kann beispielsweise für jede Radardetektion die zugehörige Doppelgeschwindigkeit bestimmt und mit der in dem Objekttrack 2 für das Fremdfahrzeug 17 gespeicherten Geschwindigkeit verglichen werden. Es können dann nur solche Radar- bzw. Sensordetektionen 18 dem Fremdfahrzeug 17 zugeordnet werden, deren Dopplergeschwindigkeit höchstens um einen vorgegebenen Betrag von der in dem zugehörigen Objekttrack 2 gespeicherten Geschwindigkeit abweicht. Ist beispielsweise für ein ruhendes Objekt in dem zugehörigen Objekttrack 2 eine Geschwindigkeit von 0 m/s gespeichert und ein Abweichungsschwellenwert von beispielsweise höchstens 5 m/s vorgegeben, so können Radar- oder Sensordetektionen 18, deren Dopplergeschwindigkeit entsprechend beispielsweise größer als 5 m/s ist, verworfen werden, sodass sie also nicht dem Fremdfahrzeug 17 zugeordnet werden.

Für den Fall, dass die Sensorik 12 einen Radarsensor umfasst bzw. die Sensordaten 3 Radardetektionen umfassen, kann darauf basierend eine Stillstandsabschätzung 8 für das jeweilige Objekt, hier also das Fremdfahrzeug 17 durchgeführt werden. Beispielhaft sind in Fig. 2 die Doppelgeschwindigkeiten der Sensordetektionen 18 durch entsprechende Pfeile angedeutet, deren Länge mit dem Betrag der jeweiligen Dopplergeschwindigkeit korreliert. Eine zwar im Bereich des Begrenzungsrahmens für das Fremdfahrzeug 17 liegende Sensordetektion 18, deren Dopplergeschwindigkeit jedoch sehr viel größer ist als die Dopplergeschwindigkeiten der übrigen Objektdetektionen 19, insbesondere als der oder vorgegebener Geschwindigkeitsschwellenwert, kann darauf basierend als Clutterdetektion 20 eingestuft werden. Wenn die Dopplergeschwindigkeiten der Objektdetektionen 19 oder beispielsweise deren Mittelwert oder Median betragsmäßig kleiner als der vorgegebene Geschwindigkeitsschwellenwert sind, der eine Messunsicherheit des Radarsensors berücksichtigen oder abbilden kann, so kann daraus bestimmt werden, dass das Fremdfahrzeug 17 stillsteht. Dementsprechend kann dann beispielsweise ein entsprechendes Flag zum Anzeigen dieses Stillstands gesetzt werden. Insbesondere kann dieses Stillstands-Flag dann gesetzt werden, wenn die Dopplergeschwindigkeiten mehrerer Radardetektionen, also beispielsweise einer vorgegebenen Mindestanzahl oder eines vorgegebenen Mindestanteils der dem jeweiligen Objekt zugeordneten Radar- bzw. Objektdetektionen 19, mit einem Stillstand des jeweiligen Objekts konsistent sind. Ist dies nicht der Fall, ist also beispielsweise ein entsprechendes vorgegebenes Stillstandskriterium nicht erfüllt, so kann das Flag nicht gesetzt oder zurückgesetzt oder gelöscht werden.

Weiter kann basierend auf den dem Fremdfahrzeug 17 zugeordneten Objektdetektionen 19 eine Zustandsabschätzung 9 durchgeführt werden. Beispielsweise können die entsprechenden Radardetektionen in einem Histogramm ausgewertet werden. Ein solches Histogramm ist beispielhaft in Fig. 4 dargestellt. Dort sind auf einer x-Achse ein Abstand d und auf einer y-Achse der Radarquerschnitt ROS für die Radardetektionen aufgetragen. Insbesondere können über mehrere Messzyklen hinweg anfallende Radardetektionen kumulativ in das Histogramm eingetragen werden. Weiter ist hier auch ein Signifikanzschwellenwert 22 angedeutet. Dieser kann beispielsweise als fester Wert oder als Anteil oder Prozentwert eines Maximalwerts der Radarquerschnitte ROS in dem Histogramm vorgegeben sein. Beispielsweise kann als der Signifikanzschwellenwert 22 ein Radarquerschnitt ROS von 75 % des größten in dem Histogramm enthaltenen Radarquerschnitts ROS bestimmt werden. Es kann dann der kleinste Abstand d bzw. der von einem Abstand d = 0 aus betrachtet erste Abstand d oder Abstandsbin bestimmt werden, bei oder in dem der Signifikanzschwellenwert 22 überschritten wird. Dieser ist hier als erster Signifikanzbin 23 gekennzeichnet. Es kann aus diesem ersten Signifikanzbin 23 dann die oder eine dort einsortierte, dem Fremdfahrzeug 17 zugeordnete Radardetektion als stabile Enddetektion bestimmt werden oder es kann eine virtuelle, also nicht zwangsläufig einer realen Sensordetektion 18 entsprechende Enddetektion aus diesen, in den ersten Signifikanzbin 23 einsortierten Radardetektionen gebildet oder errechnet werden, etwa durch Mittelwert- oder Medianbildung oder dergleichen. In ähnlicher Weise kann ebenso für dem Fremdfahrzeug 17 zugeordnete Lidardetektionen ein Histogramm aufgebaut werden, in dem beispielsweise anstelle des Radarquerschnitts RCS die Intensität oder ein Reflektivitätswert der Lidardetektionen verwendet werden kann.

Die basierend auf den Objektdetektionen 19 derart bestimmte stabile Enddetektion kann als Haltepunkt (englisch: hold point) für das jeweilige Fremdfahrzeug 17 verwendet werden. Diese Enddetektion oder dieser Haltepunkt kann also das Fremdfahrzeug 17 repräsentieren oder zum Bestimmen von dessen aktuellen Eigenschaften bzw. Objektdaten, insbesondere der Position oder des Abstands d von der Sensorik 12 b oder dem Kraftfahrzeug 11 verwendet werden.

Die als ruhend eingestuften Objekte bzw. die entsprechenden Objekttracks 2 mit den zugeordneten aktuellen Objektdetektionen 19 und/oder den daraus bestimmten Eigenschaften, wie etwa dem Abstand d bzw. der entsprechenden Position oder auch der radarbasiert bestimmten Geschwindigkeit oder dergleichen, können dann einer Aktualisierung 10 zugeführt bzw. im Rahmen einer Aktualisierung 10 weiterverarbeitet werden. Die Aktualisierung 10 bezeichnet hier also den Verfahrensschritt zum Aktualisieren der Objekttracks 2 basierend auf den aktuellen Sensordaten 3 für ruhende Objekte. Diese Aktualisierung 10 für ruhende Objekte kann also separat von der Vollaktualisierung 6 für bewegte Objekte durchgeführt werden und sich auch von dieser unterscheiden.

Für die Aktualisierung 10 können in den entsprechenden Objekttracks 2 sämtliche Abhängigkeiten oder Kreuzkorrelationen zwischen verschiedenen Daten oder Eigenschaften, wie etwa Position, Geschwindigkeit, Beschleunigung, Gierwinkel, Gierrate und/oder dergleichen mehr, aufgehoben werden. Die verschiedenen Eigenschaften oder Zustände des jeweiligen Objekts können also voneinander entkoppelt werden. Beispielsweise führt dann bei der Aktualisierung 10 eine Veränderung der Position des jeweiligen Objekts in x-Richtung, also etwa entlang der Fahrzeuglängsrichtung des Kraftfahrzeugs 11 nicht dazu, dass eine Geschwindigkeit oder Beschleunigung des Objekts eingeführt wird. Ebenso führt beispielsweise eine Veränderung der Position des jeweiligen Objekts in y-Richtung, also beispielsweise in oder parallel zur Fahrzeugquerrichtung des Kraftfahrzeugs 11 nicht dazu, dass eine Gierrate oder ein veränderter Gierwinkel des jeweiligen Objekts eingeführt wird. Solange also das jeweilige Objekt als ruhend eingestuft, also beispielsweise das entsprechende Flag gesetzt ist, wird bei dem Aktualisieren 10 der Objekttracks 2 also keine Bewegung oder Dynamik des Objekts eingeführt. Bei der Aktualisierung 10 können beispielsweise die anhand der jeweils aktuellen Objektdetektionen 19 bestimmten aktuellen, insbesondere dynamischen, Eigenschaften in den jeweiligen Objekttrack 2 geschrieben werden. Diese können beispielsweise anhand der für das jeweilige Objekt bestimmten stabilen Enddetektion, also dem Haltepunkt bestimmt werden oder bestimmt worden sein.

Selbst wenn sich das jeweilige Objekt gerade in Bewegung gesetzt hat, die Radardetektionen aber noch konsistent mit einem Stillstand des Objekts sind, kann hier durch das unabhängige Aktualisieren der Position diese dennoch genau und zuverlässig aktualisiert werden. Dies ermöglicht beispielsweise für ein entsprechendes Assistenzsystem auch in einer solchen Situation ein stabiles und präzises Einhalten eines bestimmten Abstand d zwischen dem Kraftfahrzeug 11 und dem jeweiligen Objekt, hier also dem Fremdfahrzeug 17.

Wenn die aktuellen Radardetektionen hingegen eine von null verschiedene und nicht mehr mit einem Stillstand konsistente Geschwindigkeit des Fremdfahrzeug 17 anzeigen, kann im Rahmen der Aktualisierung 10 diese Geschwindigkeit in den jeweiligen Objekttrack 2 geschrieben werden. Damit ist das jeweilige Objekt dann also im nächsten Messzyklus bzw. beim nächsten Durchlauf des Verfahrens nicht mehr als ruhendes Objekt eingestuft.

Im Rahmen der Aktualisierung 10 oder auch der Zustandsabschätzung 9 für ruhende Objekte können insbesondere nur die einzelnen Eigenschaften des jeweiligen Objekts bestimmt und gegebenenfalls aktualisiert werden, ohne beispielsweise einen neuen Begrenzungsrahmen für das jeweilige ruhende Objekte zu schätzen oder zu bestimmen. Dadurch kann insgesamt eine verbesserte Stabilität der Objektnachverfolgung für ruhende Objekte erreicht werden, etwa im Vergleich zu einer Handhabung oder Verwaltung ruhender Objekte in gleicher Weise wie für bewegte Objekte mit jeweils vollständiger Neubestimmung des jeweiligen Begrenzungsrahmen.

Für den Fall, dass beispielsweise in einem Messzyklus die Sensorik 12 oder zumindest ein Sensor für ein bereits zuvor detektiertes Objekt keine Sensordetektionen 18 bzw. keine Objektdetektionen 19 liefert, kann dementsprechend die Detektionsassoziierung 7 für dieses Objekt in dem aktuellen Messzyklus gegebenenfalls nicht oder nicht sinnvoll durchgeführt werden. Ebenso kann der Fall auftreten, dass unter den aktuellen Umständen die Detektionsassoziierung 7 für bestimmte Sensordetektionen, beispielsweise eines Lidarsensors, zu aufwändig sein kann. Ausgehend von dem bereits für das Objekt bestehenden Objekttrack 2 kann dann aber gegebenenfalls dennoch die Objektassoziierung 5 durchgeführt werden. Handelt es sich um ein als ruhend eingestuftes Objekt, kann dann auch für dieses Objekt die Aktualisierung 10 durchgeführt werden. Der Bewegungszustand des Objekts kann dafür beispielsweise aus dem jeweiligen Objekttrack 2 bzw. den darin gespeicherten Objektdaten übernommen werden und/oder es kann ein von wenigstens einem Sensor, der das Objekt detektiert hat, sensorintern für das Objekt bestimmter Bewegungszustand verwendet werden.

Das hier für ruhende Objekte beschriebene Vorgehen, beispielsweise zur Stillstandsabschätzung 8 und/oder zur Aktualisierung 10, kann prinzipiell für beliebige ruhende Objekte angewendet werden. Es kann jedoch besonders nützlich sein, das beschriebene Verfahren zumindest oder nur für ein unmittelbar vorausliegendes Objekt, also beispielsweise ein dem Kraftfahrzeug 11 in dessen Fahrtrichtung gesehen nächstliegendes Vorausfahrzeug anzuwenden. Als dieses Vorausfahrzeug kann beispielsweise dasjenige Fahrzeug verwendet oder betrachtet werden, dass sich vor, also frontseitig von dem Kraftfahrzeug 11 befindet, eine ähnliche Orientierung wie das Kraftfahrzeug 11 aufweist und sich auf demselben Fahrstreifen wie das Kraftfahrzeug 11 befindet. Ein solches Vorausfahrzeug kann beispielsweise anhand der Sensordaten 3 und/oder anhand von Straßen- oder Fahrstreifenerkennungsdaten und/oder Kartendaten und/oder über eine Car2Car- oder Car2X-Datenverbindung empfangene Fahrzeugdaten und/oder dergleichen mehr ermittelt werden. Eine präzise Kenntnis und Aktualisierung oder Nachverfolgung der Position und Geschwindigkeit eines solchen Vorausfahrzeugs kann beispielsweise für ein auch sicherheitsrelevantes möglichst präzises Einhalten eines vorgegebenen Zielabstands zwischen dem Kraftfahrzeug 11 und dem jeweiligen Vorausfahrzeug wichtig sein. Es kann also beispielsweise ein Abstandsregeltempomat oder dergleichen auf ein entsprechend präzises Tracking des Vorausfahrzeugs in stärkerem Maße angewiesen sein als auf ein präzises Tracking anderer Objekte, die sich beispielsweise in größerer Entfernung und/oder auf einem anderen Fahrstreifen befinden können. Zusammenfassend kann im vorliegenden Verfahren also automatisch geschätzt werden, ob oder wann ein detektiertes Objekt annähernd oder vollständig stillsteht. Beim solchen erkannten Stillstand werden dann alle Eigenschaften oder Zustände dieses Objekts separat geschätzt. Es gibt dann also beispielsweise keinen Einfluss der Position auf die Geschwindigkeit. Zum Erkennen des Stillstands können - sofern verfügbar - insbesondere Radardetektionen verwendet werden. Solche Radardetektionen können sich aufgrund der damit möglichen direkten Messung der Dopplergeschwindigkeit besonders gut dafür eignen. Bestätigen beispielsweise mehrere solche Dopplermessungen über einen oder mehrere Messzyklen hinweg einen kompletten Stillstand des jeweiligen Objekts, kann in den zugehörigen Objektdaten jegliche Dynamik, also jegliche Abhängigkeiten zwischen verschiedenen Eigenschaften oder Zuständen unterbunden werden. Ebenso kann anhand der Radardetektionen und/oder anhand von Lidardetektionen über einen oder mehr Messzyklen hinweg mittels eines vorgegebenen robusten, beispielsweise histogramm- oder medianbasierten, Schätzverfahrens ein stabiler Abstand d zu dem jeweiligen Objekt geschätzt werden. Damit kann also ein besonders stabiles und robustes Tracking auch stillstehender Objekte ermöglicht werden. Entsprechende Daten oder Eigenschaften können dann direkt in die jeweiligen Objektdaten geschrieben oder einfusioniert werden. Auf diese Weise kann ein Über- oder Unterschätzen beispielsweise des Abstands d zu dem jeweiligen Objekt verhindert oder im Vergleich zu herkömmlichen Ansätzen reduziert werden. Durch das vorliegend beschriebenen Verfahren wird also eine besonders stabile Nachverfolgung auch ruhender Objekte ermöglicht, ein scheinbares Auftreten oder Erkennen von Bewegungen oder Rotationen aufgrund von Messunsicherheiten verhindert und eine präzise und stabile Abstandsschätzung oder Abstandsüberwachung auch für bisher ruhende, sich gerade in Bewegung setzende Objekte ermöglicht. Dies wiederum ermöglicht eine besonders zuverlässige, robuste und sichere Implementierung positions- oder abstandsbasierter Assistenzfunktionen.

Insgesamt zeigen die beschriebenen Beispiele damit wie eine verbesserte Objektzustandsabschätzung für gestoppte oder stationären Objekte, insbesondere Fahrzeuge, realisiert werden kann. Bezugszeichenliste

1 Verfahrensschema

2 Objekttracks

3 Sensordaten

4 Prädiktion

5 Objektassoziierung

6 Vollaktualisierung

7 Detektionsassoziierung

8 Stillstandsabschätzung

9 Zustandsabschätzung

10 Aktualisierung

11 Kraftfahrzeug

12 Sensorik

13 Objektnachverfolgungseinrichtung

14 Schnittstelle

15 Prozessor

16 Datenspeicher

17 Fremdfahrzeug

18 Sensordetektion

19 Objektdetektion

20 Clutterdetektion

21 Suchbereich

22 Signifikanzschwellenwert

23 erster Signifikanzbin

ROS Radarquerschnitt d Abstand