Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD, RADAR SYSTEM AND VEHICLE FOR SIGNAL PROCESSING OF RADAR SIGNALS
Document Type and Number:
WIPO Patent Application WO/2022/049241
Kind Code:
A1
Abstract:
The invention describes a method for signal processing of radar signals according to claim 1. The invention describes a method for signal processing of radar signals of a radar system, in particular a vehicle radar system, preferably an automobile radar system, having at least two radar units which are spaced apart from one another, said method comprising the following steps: - capturing at least one three-dimensional field of vision of the radar system with radar signals of the at least two radar units; - generating a discrete total co-ordinate system of the field of vision, in which measurement data, which are generated by the capture of the field of vision, of the at least two radar units of the radar system are co-registered; and - determining a preferably multi-dimensional vector velocity for at least one pixel of the discrete total co-ordinate system and/or a preferably multi-dimensional vector velocity for the radar system; - reconstructing at least one three-dimensional sub-field of the field of vision by means of the determined vector velocity and/or the vector velocity for the radar system and also by means of the measurement data of at least one of the radar units. Furthermore, the invention describes a radar system according to claim 21 and a vehicle according to claim 25. An improved angular resolution for the radar system can be achieved by the invention, without enlarging the physical dimensions of the aperture of the receiving antenna array, preferably without an intrinsic movement or a target movement being previously known or having to be determined by an external sensor system.

Inventors:
HOFFMANN MARCEL (DE)
GOTTINGER MICHAEL (DE)
VOSSIEK MARTIN (DE)
CHRISTMANN MARK (DE)
GULDEN PETER (DE)
Application Number:
PCT/EP2021/074356
Publication Date:
March 10, 2022
Filing Date:
September 03, 2021
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SYMEO GMBH (DE)
UNIV FRIEDRICH ALEXANDER ER (DE)
International Classes:
G01S7/35; G01S13/58; G01S13/87
Domestic Patent References:
WO2018158281A12018-09-07
Foreign References:
EP2068173A12009-06-10
EP3367121A12018-08-29
US6628227B12003-09-30
EP3502737A12019-06-26
DE102018100632A12019-04-11
Other References:
IN G. HOBYANB. YANG: "High-Performance Automotive Radar - A review of signal processing algorithms and modulation schemes", IEEE SIGNAL PROCESSING MAGAZINE, September 2019 (2019-09-01), pages 32 - 44, XP011745487, DOI: 10.1109/MSP.2019.2911722
F. ROOSJ. BECHTERC. KNILLB. SCHWEIZERC. WALDSCHMIDT: "Radar Sensors for Autonomous Driving", IEEE MICROWAVE MAGAZINE, September 2019 (2019-09-01), pages 58 - 72
T. WAGNERR. FEGERA. STELZER: "Wide-Band Range-Doppler Processing for FMCW Systems", EUROPEAN RADAR CONFERENCE, October 2013 (2013-10-01), pages 160 - 163, XP032533749
D. KELLNERM. BARJENBRUCHJ. KLAPPSTEINJ. DICKMANNK. DIETMAYER: "Instantaneous Ego-Motion Estimation using Multiple Doppler Radars", IEEE INTERNATIONAL CONFERENCE ON ROBOTICS AND AUTOMATION (ICRA), June 2014 (2014-06-01), pages 1592 - 1597
Attorney, Agent or Firm:
PFRANG, Tilman (DE)
Download PDF:
Claims:
Verfahren, Radarsystem und Fahrzeug zur Signalverarbeitung von Radarsignalen

Ansprüche 1. Verfahren zur Signalverarbeitung von Radarsignalen eines Radarsystems (100), insbesondere eines Fahrzeugradarsystems, vorzugsweise eines Automobilradarsystems, mit mindestens zwei voneinander beabstandet angeordneter Radareinheiten (10, 20), folgende Schritte umfassend:

- Erfassen mindestens eines räumlichen Sichtbereichs (FoV) des Radarsystems (100) mit Radarsignalen der mindestens zwei Radareinheiten (10, 20);

- Erzeugen eines diskreten Gesamtkoordinatensystems des Sichtbereichs (FoV), in welchem durch das Erfassen des Sichtbereichs (FoV) erzeugte Messdaten der mindestens zwei Radareinheiten (10, 20) des Radarsystems (100) koregistriert sind; sowie

Ermitteln einer, vorzugsweise mehrdimensionalen,

Vektorgeschwindigkeit für mindestens eine Auflösungszelle des diskreten Gesamtkoordinatensystems und/oder einer, vorzugsweise mehrdimensionalen, Vektorgeschwindigkeit für das Radarsystem (100)

- Rekonstruieren mindestens eines räumlichen Teilbereichs des Sichtbereichs (FoV) anhand der ermittelten Vektorgeschwindigkeit und/oder der Vektorgeschwindigkeit für das Radarsystem sowie anhand der Messdaten von mindestens einer der Radareinheiten

(10, 20). Verfahren nach Anspruch 1, wobei das Rekonstruieren folgendes umfasst:

- Erzeugen mindestens eines Teil-Radar-Bildes für einen räumlichen Teilbereich des Sichtbereichs (FoV), in welchem sich die mindestens eine Auflösungszelle befindet, anhand der Messdaten von mindestens einer der Radareinheiten (10, 20) sowie anhand der ermittelten Vektorgeschwindigkeit der mindestens einen Auflösungszelle, vorzugsweise unter Verwendung eines inversen Synthetic-Aperture- Radar-Verfahrens . Verfahren nach Anspruch 1 oder 2, wobei das Rekonstruieren folgendes umfasst:

- Erzeugen mindestens eines Umgebungs-Radar-Bildes für einen räumlichen, zumindest von einer der Radareinheiten (10, 20) erfassten, Umgebungsbereich anhand der Messdaten der mindestens einen Radareinheit (10, 20), die den Umgebungsbereich erfasst, sowie anhand der Vektorgeschwindigkeit des Radarsystems (100), vorzugsweise unter Verwendung eines Synthetic-Aperture-Radar- Verfahrens. Verfahren nach einem der vorhergehenden Ansprüche, ferner umfassend:

- Detektieren mindestens eines sich im Sichtbereich (FoV) befindenden Objekts (O) im diskreten Gesamtkoordinatensystems, vorzugsweise indem Amplitudenmaxima unter Verwendung von dynamischen und/oder konstanten Leistungsschwellwerten bestimmt werden; wobei für das mindestens eine detektierte Objekt (O) eine, vorzugsweise mehrdimensionale, Vektorgeschwindigkeit (v) mindestens einer Auflösungszelle ermittelt wird. Verfahren nach einem der vorhergehenden Ansprüche, vorzugsweise nach Anspruch 4, wobei für einen räumlichen Teilbereich des Sichtbereichs (FoV), in welchem sich das mindestens eine detektierte Objekt befindet, mindestens ein Teil-Radar-Bild anhand der Messdaten von mindestens einer der Radareinheiten (10, 20) und anhand der für das mindestens eine detektierte Objekt (O) zugeordneten Vektorgeschwindigkeit erzeugt wird, vorzugsweise unter Verwendung eines inversen Synthetic-Aperture- Radar-Verfahrens . Verfahren nach einem der vorhergehenden Ansprüche, wobei eine Vielzahl von sich im Sichtbereich (FoV) befindenden Objekten im diskreten Gesamtkoordinatensystems detektiert wird, wobei für jedes detektierte Objekt eine, vorzugsweise mehrdimensionale, Vektorgeschwindigkeit (v) mindestens einer Auflösungszelle ermittelt wird, und wobei für jedes detektierte Objekt ein Teil-Radar-Bild anhand der Messdaten von mindestens einer der Radareinheit (10, 20) und anhand der Vektorgeschwindigkeiten der jeweiligen detektierten Objekte, vorzugsweise unter Verwendung des inversen Synthetic-Aperture-Radar- Verfahrens, erzeugt wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei die durch das Erfassen des Sichtbereichs (FoV) erzeugten Messdaten der jeweiligen Radareinheiten (10, 20) Abstandsdaten (d1, d2), Radialgeschwindigkeitsdaten (vr1, vr2) und Winkeldaten (ϑ 1, ϑ 2) enthalten, wobei die Winkeldaten vorzugsweise Winkeldaten in Azimut-Richtung und in Elevation-Richtung umfassen. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Erzeugen des diskreten Gesamtkoordinatensystems eine, vorzugsweise äquidistante und/oder kartesische, Diskretisierung des im Gesamtkoordinatensystem dargestellten Sichtbereichs (FoV) durchgeführt wird. Verfahren nach einem der vorhergehenden Ansprüche, vorzugsweise nach Anspruch 7 oder 8, wobei zum Erzeugen des diskreten Gesamtkoordinatensystems die Abstandsdaten (d1, d2) und Winkeldaten (ϑ 1, ϑ 2) der Radareinheiten (10, 20) betragsmäßig superponiert werden. Verfahren nach einem der vorhergehenden Ansprüche, wobei das inverse Synthetic-Aperture-Radar-Verfahren auf den räumlichen Teilbereich im diskreten Gesamtkoordinatensystem angewendet wird, in welchem sich das oder die detektierte/n Objekt/e befindet/n, vorzugsweise wobei der Teilbereich eine Rechteckform, eine Ellipsenform, oder eine Kreisform aufweist. Verfahren nach einem der vorhergehenden Ansprüche, wobei das inverse Synthetic-Aperture-Radar-Verfahren eines der folgenden Verfahren umfasst: Range-Doppler, Omega-K, Phase-Shift-Mitrgation, Holographie oder Extended-Chirp-Scaling. Verfahren nach einem der vorhergehenden Ansprüche, vorzugsweise nach Anspruch 4, wobei mindestens ein Vektorgeschwindigkeitsfehler der ermittelten Vektorgeschwindigkeit der mindestens einen Auflösungszelle oder des mindestens einen detektierten Objekts aus den erzeugten Teil-Radar- Bildern der beiden Radareinheiten (10, 20) bestimmt und korrigiert wird. Verfahren nach einem der vorhergehenden Ansprüche, vorzugsweise nach einem der Ansprüche 4 bis 12, ferner folgende Schritte umfassend:

- Vergleichen des von einer der mindestens zwei Radareinheiten (10, 20) erzeugten Teil-Radar-Bildes für einen räumlichen Teilbereich des Sichtbereichs (FoV), in welchem sich die mindestens eine Auflösungszelle und/oder das mindestens eine detektierte Objekt befindet, mit dem von der anderen der mindestens zwei Radareinheiten (10, 20) erzeugten Teil-Radar-Bild desselben räumlichen Teilbereichs; - Verändern der Vektorgeschwindigkeit um eine Vektorgeschwindigkeitsänderung sofern das Vergleichen der Teil- Radar-Bilder ergibt, dass ein Unterschied zwischen den beiden Teil- Radar-Bildern besteht, wobei das Vergleichen und das Verändern iterativ wiederholt wird, bis der Unterschied zwischen den beiden Teil-Radar-Bildern unterhalb eines vorbestimmten Schwellwerts liegt. Verfahren nach einem der vorhergehenden Ansprüche, wobei aus den einzelnen Teil-Radar-Bildern der jeweiligen Radareinheiten (10, 20) ein Gesamt-Radar-Bild erzeugt wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Ermitteln einer, vorzugsweise mehrdimensionalen, Vektorgeschwindigkeit ) für mindestens einen Teil der, vorzugsweise für alle, Auflösungszellen des diskreten Gesamtkoordinatensystems des Sichtbereichs (FoV) durchgeführt wird, und wobei mindestens ein Teil des, vorzugsweise der gesamte, Sichtbereich (FoV) im diskreten Gesamtkoordinatensystem, vorzugsweise unter Verwendung eines inversen Synthet/c-Aperture-Radar-V erfahrens, verarbeitet wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei ein Detektieren mindestens eines sich im Sichtbereich (FoV) befindenden Objekts (O) in einem Abstand-Radialgeschwindigkeit- Diagramm und/oder einem Abstand-Winkel-Diagramm durchgeführt wird, das/die aus den Messdaten einer der Radareinheiten (10, 20) erzeugt wird/werden, vorzugsweise indem Amplitudenmaxima unter Verwendung von dynamischen und/oder konstanten Leistungsschwellwerten bestimmt werden. Verfahren nach einem der vorhergehenden Ansprüche, insbesondere nach Anspruch 16, wobei für mindestens eine Auflösungszelle des diskreten Gesamtkoordinatensystem des Sichtbereichs (FoV) mehrere, vorzugsweise mehrdimensionalen, Vektorgeschwindigkeit ermittelt werden, sofern für die Auflösungszelle mehrere Objekte im Abstand-Radialgeschwindigkeit- Diagramm und/oder im Abstand-Winkel-Diagramm detektiert werden. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Erfassen des mindestens einen Sichtbereichs (FoV) des Radarsystems (100) periodisch wiederholt wird, wobei die Messdaten der Radareinheiten (10, 20) zu einem Gesamtmessdatensatz zusammengefügt werden, wobei der Gesamtmessdatensatz mit dem Verfahren nach einem der Ansprüche 1 bis 17 verarbeitet wird. Verfahren nach einem der vorhergehenden Ansprüche, wobei Messdaten, in denen auch die Messdaten von Kreuzpfaden der Radarsignale zwischen den Radareinheiten (10, 20) des Radarsystems (100) enthalten sind, mit dem Verfahren nach einem der Ansprüche 1 bis 18 verarbeitet werden, sofern die Radareinheiten (10, 20) des Radarsystems (100) kohärent betrieben werden. Verfahren zur Signalverarbeitung von Radarsignalen eines Radarsystems (100), insbesondere eines Fahrzeugradarsystems, vorzugsweise eines Automobilradarsystems, mit einer Vielzahl von voneinander beabstandet angeordneter Radareinheiten (10, ..., 70), wobei mehrere räumliche Sichtbereiche (FoV1, ..., FoV6) von jeweils mindestens zwei Radareinheiten (10, 20) des Radarsystems (100) erfasst werden und die Messdaten der Radareinheiten für jeden der Sichtbereiche (FoV1, ..., FoV6) mit dem Verfahren nach einem der Ansprüche 1 bis 19 paarweise verarbeitet werden. Radarsystem (100), insbesondere Fahrzeugradarsystem, vorzugsweise Automobilradarsystem, das mindestens zwei Radareinheiten (10, 20) aufweist, wobei vorzugsweise die Radareinheiten (10, 20) voneinander, vorzugsweise in einem vorbestimmten Abstand (b), beabstandet angeordnet sind, wobei das Radarsystem (100) dazu ausgestaltet ist, das Verfahren nach einem der vorhergehenden Ansprüche durchzuführen. Radarsystem (100), insbesondere Fahrzeugradarsystem, vorzugsweise Automobilradarsystem, das eine Vielzahl von Radareinheiten (10, ..., 70) aufweist, wobei sich mehrere räumliche Sichtbereiche (FoV1, F0V6) von jeweils mindestens zwei Radareinheiten (10, 20) des Radarsystem (100) zumindest teilweise überlappen, wobei die Radareinheiten (10, ..., 70), voneinander, vorzugsweise in einem vorbestimmten Abstand (b), beabstandet angeordnet sind, wobei das Radarsystem (100) dazu ausgestaltet ist, das Verfahren nach einem der Ansprüche 1 bis 20 durchzuführen. Radarsystem (100) nach Anspruch 21 oder 22, wobei mindestens eine Radareinheit (10) der mindestens zwei oder der Vielzahl von Radareinheiten (10, ..., 70) ein Rechenmodul (11) aufweist, das dazu ausgestaltet ist, das Verfahren nach einem der Ansprüche 1 bis 20 durchzuführen. Radarsystem (100) nach Anspruch 21 oder 22, das ferner eine, vorzugsweise zentrale, Recheneinheit aufweist, die dazu ausgestaltet ist, die Messdaten der Recheneinheiten zu empfangen und das Verfahren nach einem der Ansprüche 1 bis 20 durchzuführen. Fahrzeug, insbesondere Automobil, das ein Radarsystem (100) nach einem der Ansprüche 22 bis 24 aufweist.

Description:
Verfahren, Radarsystem und Fahrzeug zur Signalverarbeitung von Radarsignalen

Beschreibung

Die Erfindung betrifft ein Verfahren zur Signalverarbeitung von Radarsignalen nach Anspruch 1, ein Radarsystem nach Anspruch 21 und ein Fahrzeug nach An- spruch 25.

Radarsysteme finden insbesondere in der Umfelderfassung von Fahrzeugen, bei- spielsweise im Automobilbereich, neben optischen Sensoren, wie mono- oder ste- reoskopischen Kamerasystemen oder Light-Detection-and-Ranging-(Lidar-) Senso- ren, zunehmend Anwendung, da mit Radarsystemen präzise radiale Abstands- und Geschwindigkeitsmessungen ermöglicht werden. Eine zuverlässige Umfelderfassung von Fahrzeugen (Automobilen), kann als eine Voraussetzung für die weitere Automatisierung von, mitunter sicherheitskriti- schen, Fahrfunktionen der Fahrzeuge angesehen werden, wie beispielsweise bei Fahrerassistenzsystemen, hochautomatisierten Fahrsystemen und vollständig au- tonomen Fahrsystemen.

In G. Hobyan and B. Yang, "High-Performance Automotive Radar - A review of signal processing algorithms and modulation schemes," in IEEE Signal Processing Magazine, September 2019, pp. 32-44 wird beschrieben, dass bei der Umfelder- fassung insbesondere Radareinheiten verwendet werden, die frequenzmodulierte Dauerstrichsignale abstrahlen bzw. senden (Frequency-Modulated-Continuous- Wave- Signale, FMCW-Signale), sogenannte Chirp-Sequence-Radareinheiten. Bei einer Chirp-Sequence-Radareinheit wird von der Radareinheit als Sendesignal eine periodische Sequenz aus I FMCW-Signalen, die jeweils eine linearen Frequenz- rampe aufweisen, abgestrahlt.

Derartige aus dem Stand der Technik bekannte Radareinheiten weisen mindes- tens eine Sendeantenne (oder auch mehrere Sendeantennenelemente eines Sen- deantennen-Arrays) und mehrere Empfangsantennenelemente auf, die als ein Empfangsantennen-Array betrieben werden können, wobei das Empfangsanten- nen-Arrays sowohl ein- als auch zweidimensional ausgestaltet sein kann.

Mit einer solchen Radareinheit kann beispielsweise der radiale Abstand und/oder die Radialgeschwindigkeit eines (oder mehrerer) sich im Sichtbereich bzw. Sicht- feld (Field-of-View, FoV) der Radareinheit befindenden Objekts relativ zur Radar- einheit zu gemessen (ermittelt) werden.

Typischerweise kann das Ermitteln des radialen Abstands und/oder der Radialge- schwindigkeit relativ zur Radareinheit mit einer Chirp-Sequence-Radareinheit er- folgen, wobei von der mindestens einen Sendeantenne der Radareinheit über ei- nen reziproken Übertragungskanal ein Sendesignal gesendet bzw. abgestrahlt wird, das von mindestens einem Objekt reflektiert wird und von den Empfangsan- tennenelementen des Empfangsantennen-Arrays der Radareinheit empfangen wird.

Die empfangenen Signale des Empfangsantennen-Arrays der Radareinheit lassen sich derart verarbeiten, dass ein dreidimensionaler Ergebnisraum entsteht, der ei- nen (radialen) Abstand d j, eine radiale Geschwindigkeit v r,j und einen Azimutwin- kel ϑ j des Objekts relativ zur Radareinheit enthält.

Dabei wird die erreichbare Winkelauflösung (beispielsweise für den Azimutwinkel) insbesondere von der Halbwertsbreite bzw. dem 3 dB-Öffnungswinkel des verwen- deten Empfangsantennen-Arrays beschränkt.

Für Empfangsantennen-Arrays (einer äquidistanten Aperturbelegung), bei der die einzelnen Empfangsantennenelemente äquidistant angeordnet sind, sowie bei ei- ner rechteck-förmigen Fensterung ergibt sich die Winkelauflösung zu wobei L die Abmessung(en) (Aperturgröße) des Empfangsantennen-Arrays in Azi- mut- und/oder Elevationsrichtung angibt, je nachdem, ob es sich um ein ein- oder zweidimensionales Empfangsantennen-Array handelt.

Jedoch sind insbesondere im Automobilbereich die maximal möglichen Abmessun- gen des Empfangsantennen-Arrays, also die Aperturgröße L, aufgrund eines ge- ringen Einbauplatzes sowie aus Design- und Kostengründen strikt begrenzt. Das hat zur Folge, dass die realisierbaren Winkelauflösungen häufig zu gering für Si- cherheitsanwendungen im Straßenverkehr sind, wie beispielsweise in F. Roos, J. Bechter, C. Knill, B. Schweizer, and C. Waldschmidt, "Radar Sensors for Auto- nomous Driving," in IEEE Microwave Magazine, September 2019, pp. 58-72 be- schrieben wird.

Zusätzlich kommen zur Verbesserung der Nebenkeulendämpfung (die bei einer äquidistanten Aperturbelegung 13,3 dB beträgt) typischerweise Fenster-Funktionen zum Einsatz. Das hat jedoch zur Folge, dass die oben angegebene Winkelauflö- sung in Praxisanwendungen weiter (circa um einen Faktor 2) verschlechtert ist.

Die Aufgabe der Erfindung besteht daher darin, die Nachteile der aus dem Stand der Technik bekannten Lösungen zu verbessern und eine alternative Möglichkeit für ein Verfahren zur Verarbeitung von Radarsignalen eines Radarsystems sowie ein entsprechendes Radarsystem bereitzustellen, mit dem vorzugsweise eine ver- besserte Winkelauflösung erreicht werden kann, insbesondere ohne die physi- schen Abmessungen der Apertur des Empfangsantennen-Arrays zu vergrößern. Die Aufgabe der Erfindung wird gelöst durch ein Verfahren zur Signalverarbeitung von Radarsignalen nach Anspruch 1, ein Radarsystem nach Anspruch 21 und ein Fahrzeug nach Anspruch 25.

Insbesondere wird die Aufgabe der Erfindung gelöst durch ein Verfahren zur Sig- nalverarbeitung von Radarsignalen eines Radarsystems, insbesondere eines Fahr- zeugradarsystems, vorzugsweise eines Automobilradarsystems, mit mindestens zwei voneinander beabstandet angeordneter Radareinheiten, folgende Schritte umfassend:

Erfassen mindestens eines räumlichen Sichtbereichs des Radarsystems mit Radarsignalen der mindestens zwei Radareinheiten, vorzugsweise so dass sich im Sichtbereich des Radarsystems Sichtbereiche der einzelnen Radareinheiten zumindest teilweise überlappen;

Erzeugen eines diskreten Gesamtkoordinatensystems des Sichtbereichs (ins- besondere in welchem durch das Erfassen des Sichtbereichs erzeugte Mess- daten der mindestens zwei Radareinheiten des Radarsystems koregistriert sind); vorzugsweise Ermitteln einer, vorzugsweise mehrdimensionalen, Vektorgeschwindigkeit für mindestens eine Auflösungszelle (Pixel oder Voxel) des diskreten Gesamtkoordinatensystems und/oder einer, vorzugsweise mehrdimensionalen, Vektorgeschwindigkeit für das Radarsystem

Rekonstruieren mindestens eines räumlichen Teilbereichs des Sichtbereichs anhand der ermittelten Vektorgeschwindigkeit und/oder der Vektorgeschwindigkeit für das Radarsystem sowie anhand der Messdaten von mindestens einer der Radareinheiten.

Ein Gedanke der Erfindung beruht darauf, dass aus Messdaten von mindestens zwei Radareinheiten eines Radarsystems, die einen gemeinsamen Sichtbereich er- fassen (in welchem sich die Sichtbereiche der einzelnen Radareinheiten zumindest teilweise, ggf. nur teilweise, überlappen) ein diskretes Gesamtkoordinatensystems erzeugt werden kann. Die Messdaten der mindestens zwei Radareinheiten werden in dem diskreten Gesamtkoordinatensystem koregistriert, wodurch es ermöglicht wird, etwaige sich im gemeinsamen Sichtbereich befindliche Objekte aus mindes- tens zwei (unterschiedlichen) Perspektiven zu erfassen. Im erzeugten diskreten Gesamtkoordinatensystem des (gemeinsamen) Sichtbe- reichs kann für mindestens eine Auflösungszelle des diskreten Gesamtkoordina- tensystems, die beispielsweise zu einem Objekt (bzw. Radarziel) gehören kann, eine Vektorgeschwindigkeit für diese mindestens eine Auflösungszelle (Pixel bzw. Voxel) ermittelt werden.

Das Ermitteln der Vektorgeschwindigkeit der mindestens einen Auflösungszelle (die beispielsweise zu einem Objekt oder Radarziel gehören kann) aus dem dis- kreten Gesamtkoordinatensystem eröffnet die Möglichkeit, die Winkelauflösung anhand der ermittelten Vektorgeschwindigkeit zu verbessern.

Beispielsweise kann durch ein auflösungszellenweises (pixelweises oder voxelwei- ses) Anwenden eines diskreten, inversen Synthetic-Aperture-Radar-Verfahrens (inversen SAR-Verfahrens) ein Teil-Radar-Bild mit erhöhter Winkelauflösung (Azi- mutauflösung) berechnet (rekonstruiert) werden. Das Rekonstruieren erfolgt in einem räumlichen Teilbereich, in dem die Vektorgeschwindigkeit mindestens einer Auflösungszelle (die beispielsweise zu einem detektierten Objekt gehören kann) bekannt ist.

In einer statischen Szenerie, bei der mehrere statische (sich nicht bewegende) Objekte erfasst werden, kann aus dem diskreten Gesamtkoordinatensystem die Vektorgeschwindigkeit des Radarsystems, also die Eigenbewegung {Ego-Motion- Estimatiori) bzw. die Trajektorie des Radarsystems, ermittelt werden.

Solche statischen Szenerien können insbesondere bei Automobilanwendung ange- nommen werden. Dies ist beispielsweise der Fall beim Erfassen der seitlichen Um- gebung eines Fahrzeugs {Side-Looking}, insbesondere mit wenigen bewegten Ob- jekten.

Anhand der ermittelten Vektorgeschwindigkeit des Radarsystems kann zusätzlich oder alternativ beispielsweise mit einem Synthetic-Apertur-Radar-\ierfa\vc&c\ ein Umgebungs-Radar-Bild erzeugt werden, bei dem eine verbesserte Winkelauflö- sung erhalten wird. Das derart erzeugte Umgebungs-Radar-Bild ist nicht auf den gemeinsamen Sichtbereich der mindestens zwei Radareinheiten beschränkt.

Wenn die Vektorgeschwindigkeit des Radarsystems ermittelt wird, können auch die Messdaten für Sichtbereiche, die nur von einer Radareinheit erfasst werden, verwendet werden, um ein Umgebungs-Radar-Bild beispielsweise mit einem Syn- thetic-Apertur-Radar-Verfahren zu erzeugen, dass eine verbesserte Winkelauflö- sung aufweist.

Insbesondere kann das Verfahren für Fahrzeuganwendungen, wie Automobilan- wendungen, verwendet werden, bei denen mindestens zwei Radareinheiten einen gemeinsamen Sichtbereich erfassen und zumindest im Wesentlichen zeitlich syn- chronisierte Radareinheiten eines Radarsystems verwendet werden.

Durch die Verwendung einer synthetischen Apertur ist die resultierende Winkel- auflösung nicht mehr von der Größe der realen Apertur abhängig, sondern kann objektabhängig von dem zum Radarsystem lateralen Anteil der Objekttrajektorie bestimmt werden.

Beispielsweise können durch eine verbesserte Winkelauflösung auch mehrerer Streuzentren von mitunter komplexen Objekten erfasst werden. Des Weiteren kann das Verfahren für eine beliebige Objektverteilung (Radarzielverteilung) und Objektbewegungen verwendet werden, ohne dass eine Kenntnis der Eigenbewe- gung des Radarsystems vorausgesetzt wird.

Darüber hinaus können die Radareinheiten des Radarsystems zusätzlich auch ver- tikal verteilt angeordnet sein, wobei insbesondere der horizontale Versatz beibe- halten wird. Generell können jeweils mindestens zwei Radareinheiten des Radar- systems horizontal und/oder jeweils mindestens zwei Radareinheiten des Radar- systems vertikal und/oder jeweils mindestens zwei Radareinheiten in einem ge- genüber der Horizontal sowie Vertikalen schrägen Winkel angeordnet sein.

Das Radarsystem kann mindestens zwei oder mindestens drei oder mindestens vier oder mehr Radareinheiten (mit vorzugsweise zumindest teilweise gemeinsa- men Sichtbereich) umfassen.

Optional können die Radareinheiten des Radarsystems (bei ggf. mindestens drei Radareinheiten) in mindestens zwei Richtungen (z. B. horizontal und vertikal) an- geordnet sein. In diesem Fall kann die inverse SAR-Rekonstruktion beispielsweise in einem dreidimensionalen, diskretisierten Raum durchgeführt werden, wodurch eine interferometrische Auswertung der Höhe von Objekten zusätzlich ermöglicht wird. In diesem Fall kann aus den koregistrierten Messdaten der Radareinheiten des Radarsystems die Vektorgeschwindigkeit eines Voxels (bzw. einer dreidimen- sionalen Auflösungszelle) ermittelt werden. Unter einem diskreten Gesamtkoordinatensystem kann ein Koordinatensystem verstanden werden, in das Messdaten für einen Sichtbereich, die aus mehreren (unterschiedlichen) Perspektiven aufgenommen wurden, beispielsweise von meh- reren (unterschiedlichen) Radareinheiten, koregistriert (eingefügt) werden und das mit einem Diskretisierungsverfahren in diskrete Auflösungszellen, wie bei- spielsweise Pixel (im Zweidimensionalen) oder Voxel (im Dreidimensionalen), des kontinuierlichen Gesamtkoordinatensystems überführt wird.

Unter Koregistrieren kann ein Transformationsverfahren verstanden werden, bei dem mehrere Messdaten(-sätze) von unterschiedlichen Radareinheiten in ein ge- meinsames Koordinatensystem übertragen werden.

In einer Ausführungsform kann das Rekonstruieren (des räumlichen Teilbereichs des Sichtbereichs) den folgenden Schritt umfassen:

Erzeugen mindestens eines Teil-Radar-Bildes für einen räumlichen Teilbe- reich des Sichtbereichs, in welchem sich die mindestens eine Auflösungszelle befindet, anhand der Messdaten von mindestens einer der Radareinheiten sowie anhand der (mit mindestens zwei Radareinheiten) ermittelten Vektor- geschwindigkeit der mindestens einen Auflösungszelle, vorzugsweise unter Verwendung eines inversen Synthetic-Aperture-Radar-Verfahrens.

Es kann hierdurch erreicht werden, mit den Messdaten mindestens einer Radar- einheit und der zuvor ermittelten Vektorgeschwindigkeit der mindestens einen Auflösungszelle, ein Teil-Radar-Bild zu erzeugen, das eine höhere Winkelauflö- sung aufweist als das Radarbild, in welchen nur die Messdaten beider Radarein- heiten koregistriert wurden. Durch die höhere Winkelauflösung im (Teil-)Radar- Bild werden Konturen von Objekten (wesentlich) schärfer abgebildet.

Unter einem Teil-Radar-Bild wird insbesondere ein Teilausschnitt im diskreten Ge- samtkoordinatensystems, der eine höhere Winkelauflösung aufweist, verstanden.

In einer weiteren Ausführungsform kann das Rekonstruieren (des räumlichen Teil- bereichs des Sichtbereichs) insbesondere ferner folgenden Schritt umfassen:

Erzeugen mindestens eines Umgebungs-Radar-Bildes für einen räumlichen, zumindest von einer der Radareinheiten erfassten, Umgebungsbereich an- hand der Messdaten der mindestens einen Radareinheit, die den Umge- bungsbereich erfasst, sowie anhand der Vektorgeschwindigkeit des Radar- systems, vorzugsweise unter Verwendung eines Synthetic-Aperture-Radar- Verfahrens.

Durch das Ermitteln der Vektorgeschwindigkeit des Radarsystems kann es ermög- licht werden, insbesondere mit einem SAR-Verfahren, ein Umgebungs-Radar-Bild aus den Messdaten mindestens einer Radareinheit zu berechnen, welches eine höhere Winkelauflösung aufweist.

Durch die höhere Winkelauflösung im Umgebungs-Radar-Bild werden Konturen von Objekten (wesentlich) schärfer abgebildet. Das höher aufgelöste Umgebungs- Radar-Bild ist außerdem nicht auf den gemeinsamen Sichtbereich der beiden Ra- dareinheiten begrenzt, sondern kann Bereiche enthalten, die nur von einer Radar- einheit erfasst werden.

Es ist ebenfalls möglich, dass die Vektorgeschwindigkeit des Radarsystems durch zusätzliche Sensorik, wie beispielsweise odometrisch und/oder durch Verwendung eines globalen Navigationssatellitensystems und/oder durch Inertialsensorik, er- mittelt wird.

In einer weiteren Ausführungsform umfasst das Verfahren ferner folgenden Schritt:

Detektieren mindestens eines sich im Sichtbereich befindenden Objekts im diskreten Gesamtkoordinatensystems, vorzugsweise indem Amplitudenmaxima unter Verwendung von dynamischen und/oder konstanten Leistungsschwellwerten bestimmt werden; wobei für das mindestens eine detektierte Objekt eine, vorzugsweise mehrdimen- sionale, Vektorgeschwindigkeit mindestens einer Auflösungszelle ermittelt wird.

Durch das Detektieren des mindestens einen Objekts kann für das mindestens eine Objekt eine (mehrdimensionale) Vektorgeschwindigkeit ermittelt werden.

Insbesondere wird für einen räumlichen Teilbereich des Sichtbereichs, in welchem sich das mindestens eine detektierte Objekt befindet, mindestens ein Teil -Radar- Bild anhand der Messdaten von mindestens einer der Radareinheiten und anhand der für das mindestens eine detektierte Objekt zugeordneten Vektorgeschwindig- keit erzeugt, vorzugsweise unter Verwendung eines inversen Synthetic-Aperture- Radar-Verfahrens . Unter Verwendung des inversen SAR-Verfahrens kann anhand der (mehrdimensio- nalen) Vektorgeschwindigkeit des Objekts für einen räumlichen Teilbereich, in welchem sich das detektierte Objekt befindet, ein Teil-Radar-Bild erzeugt werden, dass eine höhere Winkelauflösung aufweist. In dem Teil-Radar-Bild sind die Kon- touren des detektierten Objekts ausgeprägter.

Vorzugsweise wird eine Vielzahl von sich im Sichtbereich befindenden Objekten im diskreten Gesamtkoordinatensystems detektiert, wobei für jedes detektierte Objekt eine, vorzugsweise mehrdimensionale, Vektorgeschwindigkeit mindestens einer Auflösungszelle ermittelt wird, und wobei für jedes detektierte Objekt ein (Teil-)Radar-Bild anhand der Messdaten von mindestens einer der Radareinheit und anhand der Vektorgeschwindigkeiten der jeweiligen detektierten Objekte, vorzugsweise unter Verwendung des inversen Synthetic-Aperture-Radar-Verfah rens, erzeugt wird.

Durch das Detektieren von einer Vielzahl von sich im Sichtbereich befindenden Objekten und durch das Ermitteln der Vektorgeschwindigkeiten für jedes detek- tierte Objekt kann jeweils ein Teil-Radar-Bild für jedes Objekt erzeugt werden, dass eine höhere Winkelauflösung aufweist als das Radarbild, in welchen nur die Messdaten beider Radareinheiten koregistriert wurden

Insbesondere enthalten die durch das Erfassen des Sichtbereichs erzeugten Mess- daten der jeweiligen Radareinheiten Abstandsdaten, Radialgeschwindigkeitsdaten und Winkeldaten, wobei die Winkeldaten vorzugsweise Winkeldaten in Azimut- Richtung und in Elevation-Richtung umfassen.

Es wird bevorzugt, dass zum Erzeugen des diskreten Gesamtkoordinatensystems eine, vorzugsweise äquidistante und/oder kartesische, Diskretisierung des im Ge- samtkoordinatensystem dargestellten Sichtbereichs durchgeführt wird.

Durch die Diskretisierung des im Gesamtkoordinatensystem dargestellten Sichtbe- reichs in Auflösungszellen (z. B. Pixel oder Voxel) wird es ermöglicht, für einzelne Auflösungszellen eine Vektorgeschwindigkeit zu berechnen und durch Anwendung des inversen SAR-Verfahrens auf einen (Teil-)Rekonstruktionsbereich, in welchem sich die Auflösungszelle befindet, eine erhöhte Winkelauflösung für den (Teil -)Re- konstruktionsbereich zu erreichen.

Insbesondere ist auch eine komplexe Diskretisierung denkbar, bei der die Auflö- sungszellengröße im Abstands-Winkel-Diagramms entfernungsabhängig verändert wird, so dass eine verringerte Auflösungszellenanzahl erreicht werden kann und damit Rechenaufwand eingespart werden kann.

Vorzugsweise werden zum Erzeugen des diskreten Gesamtkoordinatensystems die Abstandsdaten und Winkeldaten der Radareinheiten (betragsmäßig) superponiert, wodurch die Messdaten der Radareinheiten in dem diskreten Gesamtkoordinaten- system koregistriert werden können. Durch die Superposition kann jeder Auflö- sungszelle des diskreten Gesamtkoordinatensystems im gemeinsamen Sichtbe- reich eine Amplitude sowie (pro verwendeter Radareinheit) eine Radialgeschwin- digkeit zugeordnet werden.

Insbesondere wird das inverse Synthetic-Aperture-Radar-Verfahren auf den räum- lichen Teilbereich im diskreten Gesamtkoordinatensystem angewendet, in wel- chem sich das oder die detektierte/n Objekt/e befindet/n, vorzugsweise wobei der Teilbereich eine Rechteckform, eine Ellipsenform, oder eine Kreisform aufweist.

Vorzugsweise umfasst das inverse Synthetic-Aperture-Radar-Verfahren eines der folgenden Verfahren: Range-Doppler, Omega-K, Phase-Shift-Migration, Holographie oder Extended-Chirp-Scaiing.

Durch das Anwenden eines der zuvor genannten Verfahrens kann das inverse SAR-Verfahren (direkt) realisiert werden.

In einer weiteren Ausführungsform wird mindestens ein Vektorgeschwindigkeits- fehler der ermittelten Vektorgeschwindigkeit der mindestens einen Auflösungs- zelle oder des mindestens einen detektierten Objekts aus den erzeugten Teil-Ra- dar-Bildern der beiden Radareinheiten bestimmt und korrigiert.

Beim Ermitteln der Vektorgeschwindigkeit können Fehler auftreten, die zu syste- matischen Phasenfehlern in den rekonstruierten/erzeugten Radar-Bildern führen können, wodurch die Positionen der detektierten Objekte fehlerbehaftet rekon- struiert werden. Durch das Bestimmen und Korrigieren von etwaigen Vektorge- schwindigkeitsfehler können diese systematischen Phasenfehler behoben werden.

Vorzugsweise umfasst das Bestimmen und Korrigieren der Vektorgeschwindig- keitsfehler folgende Schritte:

Vergleichen des von einer der mindestens zwei Radareinheiten erzeugten Teil-Radar-Bildes für einen räumlichen Teilbereich des Sichtbereichs, in welchem sich die mindestens eine Auflösungszelle und/oder das mindestens eine detektierte Objekt befindet, mit dem von der anderen der mindestens zwei Radareinheiten erzeugten Teil-Radar-Bild desselben räumlichen Teilbereichs;

Verändern der Vektorgeschwindigkeit um eine

Vektorgeschwindigkeitsänderung, sofern das Vergleichen der Teil-Radar- Bilder ergibt, dass ein Unterschied zwischen den beiden Teil-Radar-Bildern besteht, wobei das Vergleichen und das Verändern vorzugsweise iterativ wiederholt wird, bis der Unterschied zwischen den beiden Teil-Radar-Bildern unterhalb eines vor- bestimmten Schwellwerts liegt. Hierdurch können die Vektorgeschwindigkeitsfeh- ler sukzessive reduziert werden. Das Verändern erfolgt hierbei insbesondere ziel- gerichtet (nicht willkürlich), indem anhand von Bildabweichungen berechnet wer- den kann, welche Vektorgeschwindigkeit die tatsächliche Vektorgeschwindigkeit besser beschreibt als die fehlerhafte Vektorgeschwindigkeit bzw. in welche Rich- tung die Vektorgeschwindigkeit verändert werden muss.

Vorzugsweise wird aus den einzelnen Teil-Radar-Bildern der jeweiligen Radarein- heiten ein Gesamt-Radar-Bild des gemeinsamen Sichtbereichs erzeugt, wodurch ein Bild erzeugt werden kann, in welchem die zuvor erzeugten Teil-Radar-Bilder der detektierten Objekte eingefügt werden und welches eine verbesserte Winkel- auflösung und präzisere Objektkontouren enthält.

Beispielsweise kann das diskrete Gesamtkoordinatensystem, in welchem die Mess- daten der Radareinheiten koregistriert wurden als Grundlage verwendet werden, in welches die Teil-Radar-Bilder durch eine geeignete Rechenoperation, wie Addi- tion, Multiplikation oder Substitution, der entsprechenden Teilbereiche eingefügt werden können.

Vorzugsweise kann in dem Gesamt-Radar-Bild eine weitere Objektdetektion- oder klassifikation durchgeführt werden, wie zum Beispiel durch Cluster -Algorithmen wie Density-Based-Spatial-Clustering-of-Applications-with-Noise oder Connected- Component-Labe/ing oder andere Methoden der Bild- und Mustererkennung, wie zum Beispiel Methoden des maschinellen Lernens, wie Deep-Learning-Ansätze .

Es ist hierbei möglich, für jede der verwendeten Radareinheiten ein separates Ge- samt-Radar-Bild zu erzeugen und/oder ein Gesamt-Radar-Bild des Radarsystems aus einer Kombination aller verwendeten Radareinheiten zu erzeugen. Vorzugsweise wird das Ermitteln einer, vorzugsweise mehrdimensionalen, Vektor- geschwindigkeit für mindestens einen Teil der, vorzugsweise für alle, Auflösungs- zellen des diskreten Gesamtkoordinatensystems des Sichtbereichs durchgeführt, wobei mindestens ein Teil des, vorzugsweise der gesamte, Sichtbereich im diskre- ten Gesamtkoordinatensystem, vorzugsweise unter Verwendung eines inversen Synthetic-Aperture-Radar-\l erfahrens, verarbeitet wird.

In einer weiteren Ausführungsform wird ein Detektieren mindestens eines sich im Sichtbereich befindenden Objekts in einem Abstand-Radialgeschwindigkeit-Dia- gramm und/oder einem Abstand-Winkel-Diagramm durchgeführt, das/die aus den Messdaten einer der Radareinheiten erzeugt wird/werden, vorzugsweise indem Amplitudenmaxima unter Verwendung von dynamischen und/oder konstanten Leistungsschwellwerten bestimmt werden.

In einer weiteren Ausführungsform werden für mindestens eine Auflösungszelle des diskreten Gesamtkoordinatensystems des Sichtbereichs mehrere, vorzugs- weise mehrdimensionale, Vektorgeschwindigkeiten ermittelt (insbesondere sofern für die Auflösungszelle mehrere Objekte im Abstand-Radialgeschwindigkeit-Dia- gramm und/oder im Abstand-Winkel-Diagramm detektiert werden).

Hierdurch wird es ermöglicht, mehrere Vektorgeschwindigkeiten für eine Auflö- sungszelle im Abstand-Winkel-Diagramm zu ermitteln. Hierbei ist es besonders zweckmäßig, wenn eine höhere Anzahl von Radareinheiten (z. B. mindestens drei oder mindestens vier oder mindestens acht) eingesetzt wird, da hierdurch die Zu- ordnung der unterschiedlichen Radialgeschwindigkeiten vereinfacht werden kann.

Insbesondere wird das Erfassen des mindestens einen Sichtbereichs des Radar- systems periodisch wiederholt, wobei die Messdaten der Radareinheiten zu einem Gesamtmessdatensatz zusammengefügt werden, wobei der Gesamtmessdatensatz mit dem obigen Verfahren verarbeitet wird.

Durch ein Ansteigen der durch die Objektbewegung bedingten Trajektorien wäh- rend der Messung, kann eine größere Apertur synthetisiert werden, wodurch eine Verbesserung der Winkelauflösung, beispielsweise um den Faktor 4, erreicht wer- den kann.

Vorzugsweise werden Messdaten, in denen auch die Messdaten von Kreuzpfaden der Radarsignale zwischen den Radareinheiten des Radarsystems enthalten sind, mit dem obigen Verfahren verarbeitet, sofern die Radareinheiten des Radarsys- tems kohärent betrieben werden.

Durch ein kohärentes Betreiben der Radareinheiten des Radarsystems kann ggf. auch der Kreuzpfad zwischen den mindestens zwei Radareinheiten als reziprok angenommen werden, wodurch die beiden Kreuzpfad-Spektren in einem separa- ten Schritt zusammengefügt (fusioniert) werden können, so dass ein Signal-zu- Rausch-Abstand für den Kreuzpfad verbessert (erhöht) werden kann.

Bei der Verarbeitung der Messdaten der Radareinheiten kann somit zusätzlich die Rekonstruktion des fusionierten Kreuzpfades berücksichtigt werden, wodurch ei- nerseits der Perspektiven-Gewinn erhöht und andererseits der Signal-zu-Rausch- Abstand verbessert werden kann, wodurch eine verbesserte Auswertung des Ge- samt-Radar-Bildes ermöglicht wird.

In einer weiteren Ausführungsform, in der das Radarsystem eine Vielzahl von voneinander beabstandet angeordneter Radareinheiten (z. B. mindestens drei o- der mindestens vier oder mindestens acht), aufweist, werden mehrere räumliche Sichtbereiche von jeweils mindestens zwei Radareinheiten des Radarsystems er- fasst und die Messdaten der Radareinheiten werden für jeden der Sichtbereiche mit dem obigen Verfahren z. B. paarweise verarbeitet.

Durch das paarweise Erfassen und Verarbeiten weiterer Sichtbereiche kann auf einfache Art und Weise ein vergleichsweise umfassendes Umfeld des Radarsys- tems erfasst werden.

Die Aufgabe wird weiterhin gelöst durch ein Radarsystem, insbesondere ein Fahr- zeugradarsystem, vorzugsweise ein Automobilradarsystem, das mindestens zwei Radareinheiten aufweist, wobei vorzugsweise die Radareinheiten voneinander, vorzugsweise in einem vorbestimmten Abstand, beabstandet angeordnet sind, wobei das Radarsystem dazu ausgestaltet ist, das obige Verfahren durchzuführen.

Darüber hinaus wird die Aufgabe gelöst durch ein Radarsystem, insbesondere ein Fahrzeugradarsystem, vorzugsweise ein Automobilradarsystem, das eine Vielzahl von Radareinheiten aufweist, wobei sich mehrere räumliche Sichtbereiche von je- weils mindestens zwei Radareinheiten des Radarsystem zumindest teilweise über- lappen, wobei die Radareinheiten voneinander, vorzugsweise in einem vorbe- stimmten Abstand, beabstandet angeordnet sind, wobei das Radarsystem dazu ausgestaltet ist, das obige Verfahren durchzuführen. Insbesondere weist mindestens eine Radareinheit der mindestens zwei oder der Vielzahl von Radareinheiten ein Rechenmodul auf, das dazu ausgestaltet ist, das obige Verfahren durchzuführen, wodurch eine zusätzliche Recheneinheit nicht notwendig ist.

Alternativ oder zusätzlich weist das Radarsystem ferner eine, vorzugsweise zent- rale, Recheneinheit (Master-Recheneinheit) auf, die dazu ausgestaltet ist, die Messdaten der Recheneinheiten zu empfangen und das obige Verfahren durchzu- führen.

Ferner wird die Aufgabe gelöst durch ein Fahrzeug, insbesondere Automobil, das das obige Radarsystem aufweist. Ebenfalls denkbar sind mobile Einrichtungen, wie beispielsweise bemannten oder unbemannte Luftfahrzeugen oder vorzugs- weise Personen- und/oder Lastkraftwagen, die das erfindungsgemäße Radarsys- tem aufweisen.

Darüber hinaus kann das erfindungsgemäße Radarsystem auch an statisch Ein- richtung angebracht sein. Beispielsweise können kleinere Radareinheiten bei der Verkehrsüberwachung am Straßenrand aufgestellt sein und die Bewegung der la- teral daran vorbeifahrenden Fahrzeuge genutzt werden, um eine gute Azimutauf- lösungen zu erzielen.

Darüber hinaus wäre es denkbar, die Radareinheiten des Radarsystems an Flug- häfen mit Blickrichtung in den Himmel zu positionieren und durch die Bewegung der Flugzeuge relativ große Aperturen (und somit sehr gute Auflösungen) zu er- zeugen. Man würde damit Auflösungen des klassischen Radars deutlich übertref- fen.

Sämtliche Merkmale und damit verbundene Vorteile, die in Zusammenhang mit dem erfindungsgemäßen Verfahren zur Signalverarbeitung von Radarsignalen ei- nes Radarsystems beschrieben wurden, sind auf das erfindungsgemäße Radarsys- tem oder das erfindungsgemäße Fahrzeug anwendbar und übertragbar. Die oben erläuterten Verfahrensschritte können im Radarsystem bzw. Fahrzeug als entspre- chende Konfigurationen (z.B. einer Steuer- und/oder Recheneinheit) einzeln oder in Kombination realisiert sein.

Weitere vorteilhafte Ausführungsformen ergeben sich anhand der Unteransprü- che. Nachfolgend wird die Erfindung anhand von nicht einschränkenden Ausführungs- beispielen unter Bezug auf die beigefügten Zeichnungen weiter erläutert. Hierbei zeigen:

Fig. 1 eine schematische Anordnung eines erfindungsgemäßen Radarsys- tems;

Fig. 2 eine schematische Darstellung eines FMCW-Sendesignals mit einer Sequenz aus mehreren Chirps,'

Fig. 3 eine schematische Darstellung eines Empfangsantennen-Arrays, das mehreren Empfangsantennenelementen enthält;

Fig. 4 eine schematische Darstellung, wie eine Vektorgeschwindigkeit für mindestens eine Auflösungszelle aus den Messdaten von mindestens zwei Radareinheiten 10, 20 eines Radarsystems 100 berechnet wer- den kann;

Fig. 5 eine schematische Anordnung eines erfindungsgemäßen Radarsys- tems;

Fig. 6 eine schematische Draufsicht eines Fahrzeugs, in welchem ein Ra- darsystem mit mehreren Radareinheiten zur Umfelderfassung ange- ordnet ist;

Fig. 7 ein Ablaufdiagramm eines ersten Ausführungsbeispiels des erfin- dungsbemäßen Verfahrens;

Fig. 8 ein Ablaufdiagramm eines zweiten Ausführungsbeispiels des erfin- dungsbemäßen Verfahrens;

Fig. 9 ein Ablaufdiagramm eines dritten Ausführungsbeispiels des erfin- dungsbemäßen Verfahrens;

Fig. 10 ein Ablaufdiagramm eines vierten Ausführungsbeispiels des erfin- dungsbemäßen Verfahrens; Fig. 11 ein Ablaufdiagramm eines fünften Ausführungsbeispiels des erfin- dungsbemäßen Verfahrens;

Fig. 12 ein Ablaufdiagramm eines sechsten Ausführungsbeispiels des erfin- dungsbemäßen Verfahrens;

Fig. 13 eine beispielhafte Auswertung mittels eines Delay-and-Sum-Beam- formers für eine Radareinheit;

Fig. 14 ein Beispiel für in einem gemeinsamen Gesamtkoordinatensystem koregistrierte Messdaten von zwei Radareinheiten, die nach dem Verfahrensschritt VS4 vorliegen;

Fig. 15 eine beispielhafte Detailansicht von den Geschwindigkeitskomponen- ten vx, vy der ermittelten Vektorgeschwindigkeiten eines Teilbe- reichs;

Fig. 16 eine beispielhafte Ansicht von Rekonstruktionsergebnissen, die nach dem Verfahrensschritt VS7 vorliegen;

Fig. 17 ein Beispiel für in einem gemeinsamen Gesamtkoordinatensystem koregistrierte Messdaten von zwei Radareinheiten, die nach dem Verfahrensschritt VS4 vorliegen, mit zwei nah beieinanderliegenden Objekten; sowie

Fig. 18 eine schematische Darstellung, Rekonstruktionsergebnisse bei einer nach der inversen SAR-Rekonstruktion basierend auf einer fehlerbe- hafteten Vektorgeschwindigkeit.

In der nachfolgenden Beschreibung werden für gleiche und gleich wirkende Teile dieselben Bezugsziffern verwendet.

In einem Ausführungsbeispiel, das in Fig. 1 abgebildet ist, weist das Radarsystem 100 zwei Radareinheiten 10, 20 auf, die räumlich getrennt voneinander angeord- net sind. Jede Radareinheit 10, 20 weist einen räumlichen Sichtbereich (Sichtfeld) FoV10, FoV20 auf, der sich mit einem bestimmten Öffnungswinkel von der jeweiligen Ra- dareinheit 10, 20 aus erstreckt. Die räumlichen Sichtbereiche FoV10, FoV20 der Radareinheiten 10, 20 überlappen sich zumindest teilweise in einem räumlichen Erfassungsbereich bzw. Sichtbereich FoV des gesamten Radarsystems 100.

Die zwei Radareinheiten 10, 20 sind kommunikativ mit einer (zentralen) Rechen- einheit 90 verbunden. Die kommunikative Verbindung zwischen den Radareinhei- ten 10 und 20 können drahtgebunden oder drahtlos ausgebildet sein.

Das in Fig. 1 gezeigte Radarsystem 100 kann beispielsweise in einem Fahrzeug, vorzugsweise einem Automobil, angeordnet sein.

Des Weiteren ist in Fig. 1 ein Objekt O gezeigt, das sich in einem Erfassungsbe- reich FoV des Radarsystems 100 befindet. Das Objekt O kann sich relativ zum Ra- darsystem 100 frei, mit einer zunächst unbekannten Geschwindigkeit, bewegen.

Darüber hinaus ist in Fig. 1 die Radareinheit 10 vergrößert abgebildet. Im vorlie- genden Ausführungsbeispiel ist die Radareinheit 20 gleichartig zur Radareinheit 10 aufgebaut.

In diesem Ausführungsbeispiel weist die Radareinheit 10 einen eigenen Lokalos- zillator LO, einen Modulationsgenerator MG, mindestens einen Hochfrequenzmi- scher M, eine Sendeantenne TX sowie ein Empfangsantennen-Array RX, das vier Empfangsantennenelemente enthält, auf.

Der Lokaloszillator LO ist mit dem Modulationsgenerator MG verbunden, in wel- chem ein Sendesignal erzeugt werden kann. Der Modulationsgenerator MG ist wiederum mit der Sendeantenne TX verbunden, so dass diese das Sendesignal senden bzw. abstrahlen kann. Der Modulationsgenerator MG ist außerdem mit dem Hochfrequenzmischer M verbunden, in welchem das Sendesignal mit einem Empfangssignal des Empfangsantennen-Arrays gemischt wird.

In diesem Ausführungsbeispiel sind die Radareinheiten 10, 20 derart angeordnet (oder beispielsweise in ein Fahrzeug eingebaut), dass die Positionen der Radar- einheiten zueinander zumindest im Wesentlichen bekannt sind (mindestens im Be- reich von Zentimetern). Die Radareinheiten 10, 20 können beispielsweise an der Seite oder der Front eines Fahrzeuges derart angeordnet sein, dass sich die Sicht- felder (Fie/d-of-View) FoV10, FoV20 der Radareinheiten 10, 20 in zumindest ei- nem räumlichen Sichtbereich FoV überlappen.

Um eine zumindest grobe zeitliche Synchronisation der Sendesignale der Radar- einheiten 10, 20, wie beispielsweise etwa im Bereich von wenigen Millisekunden, zu erreichen, können die Radareinheiten 10, 20 beispielsweise über eine Trigger- Leitung verbunden und/oder über einen Referenztakt angesteuert werden.

Die Dimensionierung der Radareinheiten 10, 20 sowie die Modulation der Sende- signale sind darauf ausgelegt, dass jede Radareinheit 10, 20 im gemeinsamen Sichtbereich zumindest in etwa gleichzeitig Objektparameter (Abstand, Radialge- schwindigkeit und Winkel) eines sich im (überlappenden) Sichtbereich FoV befin- denden Objekts bestimmt werden kann.

Bei der Übertragung der verschiedenen Sendesignale (Radarsignale) kann vorteil- haft ein Multiplexverfahren eingesetzt werden, um Interferenzen zwischen den Radareinheiten 10, 20 zu verringern (zu vermeiden).

Das Ermitteln von Objektparameter erfolgt mithilfe eines moduliertes Sendesig- nals, das mit der Sendeantenne TX über einen reziproken Übertragungskanal ge- sendet bzw. abgestrahlt wird und von mindestens einem Objekt reflektiert wird, wobei das an dem Objekt reflektierte Sendesignal von den Empfangsantennenele- menten des Empfangsantennen-Arrays RX als Empfangssignal empfangen wird. Anschließend kann das Empfangssignal mit einem Hochfrequenzmischer M in das Basisband gemischt. Die Basisbandsignale können dann durch den Analog-Digital- Wandler ADC abgetastet und mithilfe einer Recheneinheit 90 digital verarbeitet werden.

Informationen bezüglich des Abstands d j eines Objekts O können durch die Aus- wertung der Signallaufzeit über den Übertragungskanal berechnet werden. Die ra- diale Geschwindigkeit v r,j eines Objekts O ist proportional zu der auf dem Dopp- ler-Effekt beruhenden Frequenzverschiebung des Empfangssignals. Durch die Auswertung der Phasendifferenzen entlang des Empfangsantennenarrays ist die Bestimmen des Azimutwinkels ϑ j des Objekts zur jeweiligen Radareinheit 10, 20 möglich.

Die digitalen Basisbandsignale können derart verarbeitet werden, dass ein dreidi- mensionaler Ergebnisraum als Datensatz resultiert (Entfernung d j , radiale Ge- schwindigkeit v r,j , Azimutwinkel ϑ j ). Mit einem geeignet dimensionierten Antennenarray, das mindestens zwei Anten- nen in der vertikalen Ebene des realen oder virtuellen Arrays aufweist, ist auch eine Schätzung eines Elevationswinkels zur Auswertung der dreidimensionalen Po- sition eines Objekts möglich.

Aus dem Datensatz, der den dreidimensionalen Ergebnisraum (Abstand, Radialge- schwindigkeit und Azimutwinkel) aufspannt, können beispielsweise mit einem Constant-False-Alarm-Rate-(CFAR-) Verfahren, bei dem ein dynamischer Schwell- wert festgelegt wird, Objekte bzw. Radarziele und deren Objektparameter detek- tiert und/oder bestimmt werden. Hierfür können die Datensätze der Radareinhei- ten 10, 20 zu einer Recheneinheit 90 des Radarsystems 100, die beispielsweise als ein separater Computer realisiert ist, oder zu einem Rechenmodul einer (Mas- ter-)Radareinheit übertragen werden.

In der Recheneinheit 90 oder in dem Rechenmodul können die unterschiedlichen Datensätze unter Verwendung der Informationen über die Einbaupositionen der Radareinheiten 10, 20 durch eine Koregistrierung in ein gemeinsames Koordina- tensystem transformiert werden.

Dadurch, dass die Datensätze Radialgeschwindigkeiten enthalten, die aus unter- schiedlichen Perspektiven der Radareinheiten 10, 20 erfasst wurden, kann eine Vektorgeschwindigkeit v aus den Radialgeschwindigkeiten der Radareinheit 10, 20 bestimmt werden.

Bei den in Fig. 1 verwendeten Radareinheiten 10, 20 handelt es sich bespielhaft um Chirp-Sequence-Radareinheiten 10, 20. Andere Modulationsformen sind je- doch ebenfalls denkbar.

Jede Chirp-Sequence-Radareinheit 10, 20 sendet ein Sendesignal aus, das eine periodische Sequenz aus I frequenzmodulierten Dauerstrichsignalen (Frequency- Modu/ated-Continuous-Wave, FMCW) mit einer linearen Frequenzrampe (einem sogenannten Chirp), welche von dem Lokaloszillator LO erzeugt werden, enthält. Jeder einzelne Chirp kann als dargestellt werden, wobei f c die Trägerfrequenz und μ = B/T s die Sweeprate, also die Steigung der Frequenzrampe während der Sweep -Dauer, angeben. In Fig. 2 ist eine beispielhafte Sequenz aus mehreren Chirps abgebildet. Dieses Signal wird ausgehend von einer Sendeantenne TX über einen Übertra- gungskanal gesendet, welcher das Signal um die Signallaufzeit verzögert und um einen Wert A dämpft, der proportional zum Rückstreuquerschnitt des beo- bachteten Objekts ist.

Die Laufzeit ergibt sich aus den Abständen zwischen Sendeantenne TX und dem Objekt, an dem das Sendesignal reflektiert wird, sowie zwischen Objekt und dem Empfangsantennen-Array RX gemäß wobei c die Ausbreitungsgeschwindigkeit der elektromagnetischen Welle angibt.

Bewegt sich das Objekt relativ zum Radarsystem 100, ändert sich die Laufzeit in Abhängigkeit der zur jeweiligen Radareinheit 10, 20 radialen Komponente v r der tatsächlichen Vektorgeschwindigkeit des Objekts mit der Zeit:

Das resultierende Empfangssignal, das am Empfangsantennen-Array RX empfan- gen wird wird mit einem Mischer in das Basisband, gemäß gemischt und einer Tiefpassfilterung unterzogen, wobei eine Operation * hierbei für eine komplexe Konjugation steht. Nach dem Einsetzen von folgt für das sogenannte Beatsignal s B (t) näherungsweise

Verschiedene quadratische Terme in der Signalphase konnten hierbei aufgrund praxisrelevanter Näherungen (T « T s ; v r « c; B « f c ) vernachlässigt werden.

Aus der sogenannten Beatfrequenz f B , die sich beispielsweise mithilfe einer Fou- rier-Transformation von s B (t) auswerten lässt, kann durch Umformung nicht di- rekt die Laufzeit der elektromagnetischen Welle im Übertragungskanal bzw. die Objektentfernung d bestimmt werden, da die Beatfrequenz um einen unbekann- ten Doppleranteil durch die radiale Objektgeschwindigkeit v r frequenzverschoben ist:

Durch die Verwendung einer periodischen Sequenz aus I einzelnen Chirps, können mehrdeutige Entfernungsmessung vermieden (verhindert) werden.

Das Sendesignal wird hierbei wie in Abbildung 3 gezeigt um die „Siow Time" t i = i - T erweitert, wobei die einzelnen Chirps durch die Zählvariable i unterschieden werden. Für das Beatsignal folgt demnach:

Auch hier können quadratische t- bzw. t i -Terme vernachlässigt werden. Wird nun die Fourier-Transformation in Richtung der „Fast Time" t von s B (t, t i ) angewendet, ergibt sich in Abhängigkeit des betrachteten Chirps'.

Eine Fourier-Transformation entlang der „Siow Time" t i von s B (t, t i ) liefert dem hingegen eine Art Dopplerfrequenz, die abhängig vom betrachteten Zeitpunkt in der „Fast Time" t ist. In einem digitalen Datensatz entspricht dieser Zeitpunkt ei- nem gewissen Sample entlang der Dimension der Fast Time:

Für eine vollständige zweidimensionale Fourier-Transformation von s B (t, t i ) kön- nen die Fast- bzw. Slow-Time-Abhängigkeiten von f D bzw. f B mit dem im Mittel geringsten Fehler eliminiert werden, wenn t = T s /2 sowie i = 1/2 angenommen wird. Daraus folgt sowie

In Abhängigkeit von f D kann nun die radiale Geschwindigkeit v r ermittelt werden:

Wird v r in f B eingesetzt, kann auch die Objektentfernung eindeutig bestimmt werden:

Die Phasenterme modellieren die Laufzeitänderung, die durch die Zielbewegung während eines Chirps entsteht. Das verursacht so- wohl eine Aufweitung des Maximums im Frequenzspektrum in der Abstand- (Range-) als auch in Doppler-Richtung und macht die Verwendung einer Nähe- rung bei der Bestimmung von f D und f B erforderlich.

Auch wenn in beiden Fällen die Positionen des Maximums auf der jeweiligen Fre- quenzachse nicht verändert werden, steigt vor allem der Einfluss in Doppler-Rich- tung mit zunehmender Bandbreite B. Um diesen Effekt zu kompensieren und das Signal in Doppler-Richtung zu komprimieren, kann beispielsweise das in T. Wag- ner, R. Feger, and A. Stelzer, „Wide-Band Range-Doppier Processing for FMCW Systems" European Radar Conference, October 2013, pp. 160-163 beschriebene Matched-Filter verwendet werden.

Um die vollständige, auf die Radareinheit 10, 20 bezogene zweidimensionale Posi- tion eines Objekts bestimmen zu können, wird zusätzlich zur Entfernung d der Azimutwinkel ϑ , also der Einfallswinkel mit dem das am Objekt O reflektierte Empfangssignal erfasst wurde, benötigt, wobei der Azimutwinkel ϑ vom Lot des linearen Empfangsantennen-Arrays der Radareinheit 10, 20 gemessen wird.

Der Azimutwinkel ϑ wird beispielsweise in Automobilradareinheiten typischerweise mithilfe eines Arrays aus K horizontal verteilten Empfangsantennen ausgewertet, die in Abständen in der Größenordnung im Bereich der Wellenlänge angeordnet sind. Ein sogenanntes Uniform-Linear-Array (ULA) mit K in einem Abstand von 2/2 äquidistant verteilten Empfangsantennen ist in Fig. 3 schematisch dargestellt.

In Fig. 3 ist zu erkennen, inwiefern die Laufzeitdifferenz des Empfangssignals und somit der Phasenversatz Δφ entlang des Empfangsantennen-Arrays vom Azi- mutwinkel (Einfallswinkel) ϑ beeinflusst wird. Mathematisch kann dieser Zusam- menhang beschrieben werden durch

Da insbesondere für Radareinheiten 10, 20 in Automobilen die maximalen Aperturabmessungen (Aperturgrößen) L von der Fernfeldnäherung betroffen sein können, kann an dieser Stelle angenommen werden, dass die einfallenden Wel- lenfronten parallel zueinander verlaufen.

Somit lässt sich die winkelabhängige Phase entlang der K Empfangsantennenele- mente mit einer trigonometrischen Auswertung beschreiben über wobei b k den Abstand der k. Antenne zur ersten Antenne angibt.

Um zu gewährleisten, dass dieser Phasenversatz digital ausgewertet werden kann, muss jede Radareinheit 10, 20 initial kalibriert werden. Mithilfe der dafür eingesetzten Kalibrationsmatrix können dann herstellungs-, layout- und kopp- lungsbedingte Einflüsse auf die Amplituden und Phasen an den unterschiedlichen Empfangskanälen kompensiert werden.

Zur Schätzung des Einfallswinkels ϑ auf Basis des Vektors ϑ [k] können beispiels- weise Direction-of-Arrival- (DoA-)Methoden verwendet werden. In einigen Ansät- zen wird hierfür ein sogenannter Steering-Vector verwendet, mit dem die Signale der K Empfangsantennenelemente des Empfangsantennen-Arrays elementweise gewichtet werden.

Eine Methoden-Gruppe zur Winkelschätzung bildet das sogenannte Beamforming (selten auch „Strahl-Formung" genannt). Zu dieser Gruppe zählen beispielsweise der Deiay-and-Sum- bzw. Bartiett-Beamform er sowie der Minimum-Variance-Dis- tortioniess-Response- (MVDR) bzw. Capon- Beamformer. Beide zuvor genannten Ansätze nutzen eine digitale Strahlschwenkung (ein Beam-Steering) zur winkelab- hängigen Schätzung der spektralen Leistungsdichte.

In Fig. 13 ist eine beispielhafte Auswertung mittels eines Deiay-and-Sum-Beam- formers einer Radareinheit 10 für ein Objekt O in einer (tatsächlichen) Entfernung von d = 11,18 m und unter einem (tatsächlichen) Azimutwinkel ϑ = -26,56 ° sche- matisch dargestellt.

Die gemessenen Intensitäten sind in Abstands-Richtung (Range-Richtung) über der (Azimut-)Winkel-Richtung (Angle-Richtung) in Fig. 13 aufgetragen. Fig. 13 wird auch als Range-Angle-Diagramm bezeichnet. In Fig. 13 ist ein nach links oben fein schraffierter Bereich I dargestellt, in welchem niedrige Intensitäten ge- messen werden, die ungefähr in der Größenordnung des allgemeinen Rauschni- veaus liegen. Des Weiteren ist in Fig. 13 ein Bereich h abgebildet, in welchem Hö- henlinien eines Intensitätsmaximums dargestellt sind. Im Bereich h können Inten- sitäten gemessen werden, die beispielsweise in der Größenordnung von mehr als 3 dB, mehr als 5 dB, mehr als 10 dB, mehr als 15 dB oder mehr als 30 dB über dem allgemeinen Rauschniveau liegen.

Neben dem Beamforming existieren sogenannte Subspace -Methoden (selten auch „Unterraum" -Methoden genannt), die auch den Techniken der Bildgebung mit so- genannter Superresolution zugeschrieben werden. Subspace -Methoden basieren auf der Annahme, dass es einen zum Signalunterraum orthogonalen Rauschunter- raum gibt. Als ein Beispiel für eine Subspace- Methode kann die MUitipie-Signai- Ciassification (MUSIC) genannt werden.

Darüber hinaus gibt es weitere Ansätze zur Schätzung des Einfallswinkels ϑ , wie beispielsweise Com pressed -Sensing -Verfahren, Holographieverfahren, Machine- Learning-Verfahren oder analoge Strahlschwenkungsverfahren.

Zur Ermittlung der dreidimensionalen Position eines Objekts O lassen sich die zu- vor beschriebenen Verfahren unter Verwendung eines Empfangsantennen-Arrays RX mit zusätzlichen vertikal angeordneten Antennenelementen äquivalent auf die Ermittlung des Elevationswinkels anwenden.

Das Ergebnis einer Auswertung einer Chirp-Sequence-Radareinheit ist ein diskre- tisierter, dreidimensionaler Ergebnisraum mit den Dimensionen, die typischer- weise als „Range" (Entfernung d), „Doppler" (Radialgeschwindigkeit v r ) sowie „Angle" (Einfallswinkel ϑ ) bezeichnet werden.

Die im Ergebnisraum enthaltenen Informationen über das Objekt im erfassten Be- reich müssen in einem nächsten Schritt von den überlagerten Störanteilen wie dem Phasenrauschen des Lokaloszillators, thermischem Rauschen, Clutter oder Interferenzen anderer Sender oder Radareinheiten getrennt werden. Hierfür kön- nen adaptive Algorithmen, wie Constant-False-Alarm-Rate-(CFAR -)Verfahren, ver- wendet werden.

CFAR-Verfahren können in einer Dimension (beispielsweise in Range-Richtung), zwei Dimensionen (in Range- und Doppler-Richtung) oder in drei Dimensionen (Range-, Doppler- und Angle-Richtung) durchgeführt werden.

In Fig. 4 ist schematisch dargestellt, wie die Vektorgeschwindigkeit für mindes- tens eine Auflösungszelle (Pixel), die (der) beispielsweise als Mittelpunkt (Intensi- tätsmaximum) eines Objekts O detektiert wurde, aus den Messdaten von mindes- tens zwei Radareinheiten 10, 20 eines Radarsystems 100 berechnet werden kann.

Die Vektorgeschwindigkeit einer Auflösungszelle setzt sich im lokalen Polarkoordi- natensystem einer Radareinheit 10, 20 aus einer Radialgeschwindigkeitskompo- nente v r und einer Winkelgeschwindigkeitskomponente ω a zusammen.

Über die Auflösungszellenentfernung (Pixelentfernung) d 0 kann die Winkelge- schwindigkeit in eine tangentiale Geschwindigkeitskomponente v t überführt wer- den:

Während einer Messung bzw. während der Dauer einer Chirp -Sequenz können beide Geschwindigkeitskomponenten als konstant angenommen werden.

Die Vektorgeschwindigkeit einer beliebigen Auflösungszelle im gemeinsamen Sichtbereich FoV kann beispielsweise bestimmt werden, indem ein Vektor zwi- schen der betrachteten Auflösungszelle und einem Schnittpunkt S von auf den Endpunkten der radialen Geschwindigkeitsvektoren senkrecht stehenden Geraden Gl, G2 bestimmt wird.

Für die betrachtete Auflösungszelle sollen in diesem Beispiel die Ursprungskoordi- naten (0|0) angenommen werden.

Zunächst müssen die Radialgeschwindigkeiten der Auflösungszelle von allen Ra- dareinheiten 10, 20, die durch die Zählvariable j unterschieden werden, in ihre x- und y-Komponente zerlegt werden.

Die Endpunkt-Koordinaten der Vektoren der Radialgeschwindigkeitsvektoren sind somit (x j |y j ). Die auf den Endpunkt-Koordinaten senkrecht stehenden Geraden G j haben somit die Steigung sowie den y-Achsenabschnitt wodurch sich die folgende Geradengleichung für Gj ergibt:

Ausgehend von zwei Radareinheiten (J = 2) kann der Schnittpunkt der beiden Ge- raden (x s |y s ) angegeben werden als

Da die betrachtete Auflösungszelle als Koordinatenursprung festgelegt wurde, gilt für die Vektorgeschwindigkeit an dieser Auflösungszelle

Sollten die verwendeten Radareinheiten 10, 20, beispielsweise durch das in Y.

Dobrev, P. Gulden, M. Christmann, M. Göttinger, and M. Vossiek, „Radar-Verfah- ren und -System zur Bestimmung der Win keil age, des Ortes und/oder der, insbe- sondere vektoriellen, Geschwindigkeit eines Zieles," beschriebene Verfahren aus der Patentanmeldung DE 10 2018 100 632 Al, kohärent betrieben werden, kann die Vektorgeschwindigkeit auch über das in M. Göttinger, Ch. Mammitzsch, M. Christmann, P. Gulden, and M. Vossiek, „Method and Apparatus for Capturing the Surrounding," beschriebene Verfahren aus der internationalen Patentanmeldung WO 2018 158281 Al ermittelt werden. Fig. 14 zeigt ein Beispiel für Messdaten von zwei Radareinheiten 10, 20 des Ra- darsystems 100 des Ausführungsbeispiels aus Fig. 5, die in einem gemeinsamen Gesamtkoordinatensystem koregistriert wurden. In Fig. 14, ist ein Bereich (der gemeinsame Sichtbereich) FoV nach rechts oben weit schraffiert dargestellt. In diesem Bereich überlappen sich die Erfassungsbereiche FoV10, FoV20 der einen Radareinheit 10, dessen Erfassungsbereich FoV10 nach rechts oben fein schraf- fiert dargestellt ist, und der weiteren Radareinheit 20, dessen Erfassungsbereich Fov20 nach links oben fein schraffiert dargestellt ist.

Die Radareinheiten 10, 20 sind in diesem Ausführungsbeispiel einander um je- weils 45° zugewandt. In den Erfassungsbereichen FoV10 und Fov20, die nur von den einzelnen Radareinheiten 10, 20 erfasst werden, wird eine vergleichsweise- niedrige Intensität, die beispielsweise in der Größenordnung des allgemeinen Rauschniveaus liegen, gemessen.. Im gemeinsamen Sichtbereich FoV werden durch die erhöhte Rauschleistung höhere Intensitäten, die beispielsweise in der Größenordnung des doppelten allgemeinen Rauschniveaus (je nachdem wie viele Radareinheiten den gemeinsamen Sichtbereich FoV erfassen) liegen, als in den einzelnen Erfassungsbereichen FoV10, FoV20 gemessen.

Des Weiteren sind in Fig. 14 Bereiche h mit Höhenlinien dargestellt. In den mit Höhenlinien dargestellten Bereiche h werden noch höhere Intensitäten im Ver- gleich zu den im sonstigen Sichtbereich FoV gemessenen Intensitäten gemessen, die beispielsweise in der Größenordnung von mehr als 10 dB, mehr als 15 dB, mehr als 20 dB oder mehr als 30 dB über dem Rauschniveau des gemeinsamen Sichtbereichs FoV liegen.

Bei der in Fig. 14 gezeigten Messung wird für ein Objekt O im gemeinsamen Sichtbereich FoV mindestens zwei, aus unterschiedlichen Perspektiven aufgenom- mene, radiale Geschwindigkeiten vorliegen.

Aufgrund der bekannten Positionen der Radareinheiten zueinander kann der rela- tive Bezug des globalen Koordinatensystems auf jede einzelne Radareinheit ohne weiteres hergestellt werden, wobei der Koordinatenursprung willkürlich gewählt werden kann. Besonders zweckmäßig ist es, den Ursprung beispielsweise im Koor- dinatenursprung einer Radareinheit oder auf einer Achse mittig zwischen den ver- wendeten Radareinheiten zu definieren. Für das zu erzeugende koregistrierte Bild eignet sich im globalen Koordinatensys- tem primär der Bereich um das Fahrzeug, der von allen an diesem Verfahren be- teiligten Radareinheiten gleichzeitig eingesehen werden kann.

Besonders zweckmäßig ist eine pro Dimension äquidistante, kartesische Diskreti- sierung dieses Bereichs. Unter Berücksichtigung der entfernungsabhängigen Größe der Range-Angle-Auflösungszellen kann auch eine komplexere Diskretisie- rung implementiert werden, mit der durch eine verringerte Zellenanzahl Gesamt- rechenaufwand eingespart werden kann.

Die Range-Angle-Zellen aller beteiligten Radareinheiten inklusive des jeweiligen radialen Geschwindigkeitsverlaufs in der entsprechenden Zelle können beispiels- weise durch eine zweidimensionale Interpolation einer Zelle des globalen Koordi- natensystems zugeordnet werden. Eine lineare Interpolation ist hierbei aufgrund des geringen Rechenaufwandes besonders zweckmäßig.

Die Range-Angle-Daten der einzelnen Radareinheiten können im globalen Koordi- natensystem beispielsweise betragsmäßig superponiert werden. Werden die Rada- reinheiten kohärent betrieben, ist eine kohärente Überlagerung nach Betrag und Phase möglich, jedoch entstehen mit kleinen Radareinheiten und bedingt durch die große Basislinie starke Interferenzmuster.

Durch diese Superposition kann jeder Auflösungszelle des globalen Koordinaten- systems im gemeinsamen Sichtbereich eine Amplitude sowie pro verwendeter Ra- dareinheit ein radialer Geschwindigkeitsverlauf zugeordnet werden.

Für Verfahrensschritt VS4 ist es erforderlich, dass die dreidimensionalen Range- Doppler-Angle-Datensätze an eine zentrale Recheneinheit übertragen werden. Diese kann beispielsweise bei ausreichender Rechenkapazität in einer „Master"- Radareinheit integriert werden.

Um den zu übertragenden Datenaufwand zu verringern, ist es möglich, für jede Range-Angle-Zelle lediglich die radiale Geschwindigkeit mit der maximalen Amplitude zu übertragen. Auf diese Art und Weise kann pro Auflösungszelle im gemeinsamen Sichtbereich lediglich eine Vektorgeschwindigkeit gebildet werden, was in den meisten Anwendungsfällen jedoch ausreicht. In Fig. 5 ist ein Ausführungsbeispiel abgebildet, in welchem zwei Radareinheiten 10, 20 eines Radarsystems 100 an einem Fahrzeug angebracht sind. Die Radar- einheiten 10, 20 sind um die Basislänge b voneinander beabstandet angeordnet.

Die Radareinheiten 10, 20 erfassen jeweils einen Sichtbereich FoV10, FoV20.

Beide Sichtbereiche FoV10, FoV20 überlappen sich im Sichtbereich FoV. In dem Sichtbereich FoV befinden sich in Fig. 5 drei Objekte 01, 02, 03, die sich mit ei- ner (zunächst unbekannten) Vektorgeschwindigkeit frei bewegen, die mit dem oben beschriebene Verfahren ermittelt werden kann.

Der gemeinsame Sichtbereich FoV wird von beiden Radareinheiten 10, 20 erfasst. Die Messdaten der Radareinheiten 10, 20 werden in einem Gesamtkoordinaten- system koregistriert und diskretisiert.

In Fig. 5 sind einzelne Auflösungszellen Pnm des diskretisierten Gesamtkoordina- tensystems schematisch abgebildet.

Das Radarsystem 100, das in Fig. 5 an einem Fahrzeug angebracht ist, bewegt sich außerdem mit einer (zunächst ebenfalls unbekannten) Vektorgeschwindigkeit , die mit dem oben beschriebenen Verfahren für statische Szenerien ermittelt werden kann.

In Fig. 6 ist eine schematische Draufsicht eines Fahrzeugs gezeigt, in welchem ein Radarsystem 100 angeordnet ist, dass sieben Radareinheiten 10, 20, 30, 40, 50, 70 umfasst, wobei sich die einzelnen Sichtbereiche der Radareinheiten 10, 20, 30, 40, 50, 70 in den Sichtbereichen Fovl, Fov2, Fov3, Fov4, Fov5 und Fov6 überlappen.

Die in Fig. 6 abgebildeten Radareinheiten 10, 20, 30, 40, 50, 70 befinden sich an für den Automobilbereich typischen Positionen. Im Frontbereich des Fahrzeugs befindet sich beispielsweise eine Long- oder Full-Range-Radareinheit 70 mit einer im Vergleich zu den anderen Radareinheiten 10, 20, 30, 40, 50 und 60 größeren Apertur und einem schmaleren Sichtfeld FoV70. Alternativ oder zusätzlich kann die Radareinheit 70 ebenfalls im Heckbereich angebracht sein.

In Fig. 6 sind weiterhin sechs Short-Range-Radareinheiten 10, 20, 30, 40, 50 und 60 mit einem jeweiligen vergleichsweise breiten Sichtbereich FoV10, Fov20, FoV30, FoV40, FoV50, F0V6O abgebildet. Die Sichtbereiche FoV10, Fov20, FoV30, FoV40, FoV50, F0V6O der Radareinheiten 10, 20, 30, 40, 50 und 60 weisen bei- spielsweise einen Öffnungswinkel von 120° in der horizontalen Ebene auf.

Die Radareinheiten 10, 20, 30, 40, 50 und 60 sind um das Fahrzeug herum derart angeordnet, dass in den Ecken des Fahrzeugs die Radareinheiten 10, 20, 30, 40 sind und an den Seiten des Fahrzeugs zumindest im Wesentlichen mittig die Ra- dareinheiten 50, 60 angeordnet sind.

Die Radareinheiten 10, 20, 30, 40, 50, 60 und 70 sind derart ausgerichtet und an- geordnet, dass die Umgebung um das Fahrzeug möglichst vollständig erfasst wer- den kann.

In Fig. 6 überlappen sich die einzelnen Sichtbereiche FoV10, Fov20, FoV30, FoV40, FoV50, F0V6O der Radareinheiten 10, 20, 30, 40, 50, 60 und 70 in den ge- meinsamen Sichtbereichen FoV1, FoV2, FoV3, FoV4, FoV5, F0V6 paarweise. Die sich überlappenden Sichtbereiche FoV1, FoV2, FoV3, FoV4, FoV5, F0V6 sind in Fig. 6 schraffiert eingezeichnet.

In den gemeinsamen Sichtbereichen FoV5, F0V6 vor dem Fahrzeug können die Objekte verbessert aufgelöst werden, die sich quer zur Fahrtrichtung des eigenen Fahrzeugs bewegen, da sich insbesondere große Lateralanteile der Objekttrajek- torien (der Vektorgeschwindigkeit des Objekts) ergeben.

Für die gemeinsamen Sichtbereiche FoV1, FoV2, FoV3, FoV4 der Radareinheiten 10, 20, 30, 40, 50 und 60 in seitlicher Blickrichtung kann die Winkelauflösung aufgrund der Bewegungsrichtung des Fahrzeuges während der Fahrt verbessert werden.

In Fig. 7 wird ein schematischer Ablauf eines ersten Ausführungsbeispiels des er- findungsgemäßen Verfahrens mit den Verfahrensschritten VS1 bis VS10 gezeigt.

In den Radareinheiten 10, 20 des Radarsystems 100 wird zuerst Verfahrensschritt VS1 durchgeführt, in welchem von den Radareinheiten 10, 20 der gemeinsame Sichtbereich FoV erfasst wird. Die Radareinheiten 10, 20 können den Abstand die Radialgeschwindigkeit und den Azimutwinkel von reflektierenden Objekten, die sich im gemeinsamen Sichtbereich befinden, messen. Für eine möglichst präzise Bestimmung der Vektorgeschwindigkeit sind die Radar- einheiten 10, 20 vorzugsweise die Radareinheiten mit einer relativ großen Basis- länge b beabstandet angeordnet. Beispielsweise sind für Automobile Basislängen von etwa 1 - 5 m möglich.

Die Radareinheiten 10, 20 sind in bestimmten Einbaupositionen angeordnet, die beispielsweise bis in einem Bereich von weniger Zentimetern bekannt sind.

Auch die Ausrichtung der Radareinheiten 10, 20 ist vorzugsweise bekannt, da auch die Ausrichtung der Radareinheiten 10, 20 mit zunehmender Objektentfer- nung stärker auf die Bildqualität auswirken kann.

Parameter der Sendesignale der Radareinheiten 10, 20 können beispielsweise derart dimensioniert sein, dass der gemeinsame Sichtbereich FoV mit einer von den einzelnen Radareinheiten 10, 20 maximal erreichbaren Messdistanz erfasst werden können.

Darüber hinaus sind die Parameter der Sendesignale beispielsweise derart einge- stellt, dass die für Fahrzeuge im Automobilbereich typischen Geschwindigkeiten eindeutig und mit ausreichender Genauigkeit bestimmbar. Für FMCW-Radareinhei- ten kann das beispielsweise mit einer ausreichend kleinen Chirp -Wiederholrate T und einer ausreichend großen Gesamtmesszeit IT erreicht werden.

Bei sich überlappenden Sendezeiten können beispielsweise geeignete Multiplex- verfahren (Zeit-, Frequenz- oder Codemultiplexverfahren) angewendet werden, um störende Interferenzen zwischen den Sendesignalen der einzelnen Radarein- heiten 10, 20 zu vermeiden.

Besonders zweckmäßig kann hierbei beispielsweise die Verwendung eines Fre- quenzmultiplexverfahrens sein, da die Sendesignale lediglich um wenige Mega- hertz zueinander versetzt gesendet werden können. Dies kann insbesondere dazu führen, dass störende Interferenzen im Basisband vermieden werden können.

Mit den Radareinheiten 10, 20 können für jeden Empfangskanal Beatsignale im Basisband erzeugt werden, wie in Gleichung (6) dargestellt. Die Bestsignale kön- nen anschließend durch eine Analog-Digitalwandlung als digitale Messdaten (als ein digitaler Datenstrom) weiterverarbeitet werden.

Die weitere Verarbeitung der Messdaten kann beispielsweise in einem Rechenmo- dul der jeweiligen Radareinheit 10, 20 erfolgen. Alternativ können die Messdaten der einzelnen Radareinheiten 10, 20 auch bereits in diesem Verfahrensschritt VS1 zu einer (zentralen) Recheneinheit übertragen werden, um dort gesammelt verar- beitet zu werden.

In Verfahrensschritt VS2 werden aus den digitalen Beatsignalen Beat-Spektren er- zeugt. In diesem Verfahrensschritt werden die digitalen Beatsignale durch eine Fourier-Transformation („Range-FFT") in die Frequenzdarstellung transformiert, so dass sich Beat-Spektren mit Beatfrequenzen, wie beispielsweise nach Glei- chung (7), ergeben. Auch hier kann die Verarbeitung entweder direkt in einem Rechenmodul der jeweiligen Radareinheit 10, 20 oder in einer (zentralen) Re- cheneinheit erfolgen.

In Verfahrensschritt VS3 werden Range-Doppler-Angle-Datensätze, also Abstand, Radialgeschwindigkeit-Winkel-Datensätze, für jede Radareinheit 10, 20 erzeugt. Hierfür kann die gesamte Sequenz aus Gleichung (8) zunächst mit einer zweidi- mensionalen Fourier-Transformation in die sogenannte Range-Doppler-Darstel- lung überführt werden.

Anschließend kann eine beliebige Methode zur Winkelschätzung auf Basis der Phasen entlang der Empfangsantennen mit Gleichung (16) eingesetzt werden. Hierfür muss sichergestellt werden, dass die Messdaten der Radareinheiten unter Berücksichtigung der initial erstellten Kalibrationsmatrix verarbeitet werden.

Aufgrund des geringen Rechenaufwandes ist beispielsweise der Deiay-and-Sum- Beamformer vorteil haft, der für ein Uniform-Linear-Array (beispielsweise wie in Fig. 3 dargestellt) direkt durch eine Fourier-Transformation ausgewertet werden kann.

Auch Verfahrensschritt VS3 kann entweder in der jeweiligen Radareinheit 10, 20 oder in einer (zentralen) Recheneinheit 90 erfolgen.

In einem Verfahrensschritt VS4 werden die einzelnen in VS3 erzeugten Range- Doppler-Angle-Datensätze in einem gemeinsamen Koordinatensystem (Gesamtko- ordniatensystem) koregistriert.

Zum Bestimmen der Vektorgeschwindigkeiten werden die Datensätze der einzel- nen Radareinheiten 10, 20 in einem gemeinsamen, „globalen" Koordinatensystem koregistriert, so dass für mindestens ein Objekt im gemeinsamen Sichtbereich mindestens zwei, aus unterschiedlichen Perspektiven erfasste, Radialgeschwindig- keiten vorliegen.

Aufgrund der bekannten Positionen der Radareinheiten zueinander kann der rela- tive Bezug des Gesamtkoordinatensystems auf jede einzelne Radareinheit herge- stellt werden, wobei der Koordinatenursprung willkürlich gewählt werden kann.

Besonders vorteilhaft ist es, den Ursprung beispielsweise im Koordinatenursprung einer der Radareinheit 10, 20 oder auf einer Achse (mittig) zwischen den verwen- deten Radareinheiten 10, 20 zu definieren (zu wählen).

Die in dem Gesamt-Koordinatensystem koregistrierten Messdaten der Radarein- heiten 10, 20 können diskretisiert werden, wobei insbesondere eine äquidistante, kartesische Diskretisierung pro Dimension der Messdaten verwendet werden kann. Durch die Diskretisierung des Gesamtkoordinatensystems werden Auflö- sungszellen (Pixel im Zweidimensionalen und Voxel im Dreidimensionalen) er- zeugt. Auch komplexere Diskretisierungen, beispielsweise mit entfernungsabhän- gigen Variieren der Abmessungen der Auflösungszellen, sind ebenfalls denkbar. Da die Entfernungsauflösung der Radareinheiten zumindest annähernd entfer- nungsunabhängig ist; können beispielsweise in Entfernungsrichtung die Ausflö- sungszellen eine konstante Größe aufweisen. Da auch die Winkelauflösung zumin- dest annähernd konstant ist, bedeutet das im kartesischen Raum, dass die Ausflö- sungszellen in Azimut-Richtung in größeren Entfernungen größer Abmessungen aufweisen können, da hier die Auflösung mit steigender Entfernung verringert wird.

Insbesondere können die Auflösungszellen im Range-Angle-Bereich aller beteilig- ten Radareinheiten 10, 20 inklusive des jeweiligen radialen Geschwindigkeitsver- laufs in der entsprechenden Auflösungszelle beispielsweise durch eine zweidimen- sionale Interpolation einer Auflösungszelle des Gesamtkoordinatensystems zuge- ordnet werden. Eine lineare Interpolation kann hierbei aufgrund des geringen Re- chenaufwandes besonders vorteilhaft sein.

Die Range-Angle-Daten der einzelnen Radareinheiten können im Gesamtkoordina- tensystem beispielsweise betragsmäßig superponiert werden. Werden die Radar- einheiten kohärent betrieben, ist eine kohärente Überlagerung nach Betrag und Phase möglich. Durch die Superposition kann jeder Auflösungszelle des Gesamt- koordinatensystems im gemeinsamen Sichtbereich eine Amplitude sowie pro ver- wendeter Radareinheit ein Radialgeschwindigkeitsverlauf zugeordnet werden. Für den Verfahrensschritt VS4 kann es erforderlich sein, dass die dreidimensiona- len Range-Doppler-Angle-Datensätze an eine (zentrale) Recheneinheit 90 übertra- gen werden. Ebenfalls denkbar ist jedoch, dass Verfahrensschritt VS4 in einem Rechenmodul einer Radareinheit 10, die beispielsweise als Master-Radareinheit fungiert, durchgeführt wird.

Um den zu übertragenden Datenaufwand zu verringern, ist es möglich, für jede Range-Angle-Auflösungszelle lediglich die Radialgeschwindigkeit mit der größten Amplitude zu übertragen. Auf diese Art und Weise kann pro Auflösungszelle im gemeinsamen Sichtbereich lediglich eine Vektorgeschwindigkeit gebildet werden, was in den meisten Anwendungsfällen jedoch ausreicht.

In Verfahrensschritt VS5 kann eine Vektorgeschwindigkeit mindestens einer Auflö- sungszelle bestimmt werden.

In Fig. 15 ist beispielhaft eine Detailansicht von den Geschwindigkeitskomponen- ten vx, vy der ermittelten Vektorgeschwindigkeiten eines Teilbereichs dargestellt. Die Vektorgeschwindigkeiten basieren auf der maximalen Radialgeschwindigkeit des Teilbereichs. In Fig. 15 ist beispielhaft ein Geschwindigkeitsbereich vl mit ei- ner niedrigen Geschwindigkeit (zwischen etwa 0 und -5 m/s) und einem weiteren Geschwindigkeitsbereich v2 mit einer höheren Geschwindigkeit (zwischen etwa 0 und +5 m/s).

Verfahrensschritt VS6 umfasst die Detektion von Objekten (Zieldetektion). In die- sem Ausführungsbeispiel wird mindesten ein Objekt im gemeinsamen Sichtbereich detektiert. Die Objektkoordinaten des detektierten Objekts im Gesamtkoordina- tensystem können mit einer an diesen Objektkoordinaten ermittelten Vektorge- schwindigkeit in einer Datenstruktur, beispielsweise einer Zielliste, gespeichert werden. Die Anzahl der in der Datenstruktur (Zielliste) eingetragenen Objekte wird mit N angegeben.

Für die Objektdetektion besonders vorteilhaft ist die Suche lokaler Amplitudenma- xima im gemeinsamen Sichtbereich. Hierfür können geeignete CFAR-Adaptionen oder auch konstante Leistungsschwellwerte eingesetzt werden. Da diese Objekt- detektion zweidimensional im gemeinsamen Koordinatensystem erfolgt, wird sie indirekt auf die Range-Angle-Daten der Radareinheiten angewendet.

An die Zieldetektion anschließend ist es möglich, die Bewegung des eigenen Fahr- zeugs auf Basis der Ziellisten zu ermitteln Ego-Motion-Estimation), wenn davon ausgegangen werden kann, dass eine ausreichend große Anzahl an statischen Zielen (/V) detektiert wurde.

Hierfür kann beispielsweise das in D. Kellner, M. Barjenbruch, J. Klappstein, J. Dickmann, and K. Dietmayer, „Instantaneous Ego-Motion Estimation using Mul- tiple Doppler Radars", in IEEE International Conference on Robotics and Automation (ICRA), June 2014, pp. 1592-1597 beschriebene Verfahren eingesetzt wer- den. Eine Reduktion der Komplexität kann außerdem dadurch erreicht wird, dass direkt die Vektorgeschwindigkeiten in ein v x -v y -Diagramm eingetragen werden können.

Die Detektion der stationären Ziele kann wie beim Stationary-Target-Detection mit einem RANdom-Sample-Consensus-Al gorithmus (RANSAC) erfolgen. Die Kenntnis der eigenen Bewegung kann dann für eine SAR-Rekonstruktion des ge- samten Sichtbereichs aller Radareinheiten verwendet werden.

In Verfahrensschritt VS7 kann die inverse SAR-Rekonstruktion für jedes in der Zielliste eingetragene detektierte Objekt (Ziel), also N Mal, (separat) durchge- führt werden.

Die Rekonstruktion erfolgt hierbei für einen um das Objekt gelegenen räumlichen Bereich (Rekonstruktionsbereich), wobei vorausgesetzt wird, dass der betrachtete Bereich vollständig im gemeinsamen Sichtbereich aller verwendeter Radareinhei- ten liegt.

Der Bereich kann beispielsweise rechteckig, elliptisch oder kreisförmig realisiert werden. Für das Beispiels eines rechteckigen Ausschnitts gilt dann jeweils x e , wobei x n und y n die Koordinaten des n. Objekts im Gesamtkoordinatensystems angeben.

Es wird angenommen, dass sich im Rekonstruktionsbereich jede Auflösungszelle mit der Zielgeschwindigkeit v n relativ zum Nullpunkt des Gesamtkoordinatensys- tems bewegt.

Die inverse SAR-Rekonstruktion kann jeweils beispielsweise mit einem der folgen- den Algorithmen realisiert werden: Range-Doppler, Omega-K, Phase-Shift-Migra- tion, Holographie oder Extended-Chirp-Scaiing. Für den diskretisierten gemeinsamen Sichtbereich ist die holographische Auswer- tung mithilfe eines räumlichen Optimalfilters („Matched Filter") besonders vorteil- haft.

Die Rekonstruktionsidee besteht darin, für jeden diskretisierten Raumpunkt ein hypothetisches Empfangssignal aufzustellen und die gemessenen Ra- dar-Empfangssignale daraufhin zu testen, ob dieses Partialecho enthalten ist.

Die Signalhypothese für jede Radareinheit j ergibt sich aus dem in Gleichung (6) vorgestellten Beatsignal eines jeden Chirps i, der Sendeantenne m sowie der Empfangsantenne k zum Fast-Time-Zeitpunkt t = 0:

Die hierbei verwendete hypothetische Laufzeit setzt sich in Abhän- gigkeit der verwendeten Radareinheit j für den i. Chirp aus der Laufzeit von der jeweiligen Sendeantenne m zur betrachteten Auflösungszelle sowie aus dem Rückweg zur jeweiligen Empfangsantenne k zum Zeitpunkt zusammen (vgl. (3)). Hierbei wird der Tatsache Rechnung geschuldet, dass sich ein Ziel im Laufe der Slow-Time mit der vektoriellen Geschwindigkeit weiterbewegt.

||z|| 2 gibt hierbei die euklidische Norm des Vektors z an.

Die mit dieser Signalhypothese einhergehende, auflösungszellenabhängige, hypo- thetische Beatfrequenz f B,hyp,j,i,m,k (x,y) ist nach (7) wobei v r.j (x,y) den Betrag der radialen Geschwindigkeit an der Auflösungszelle bezogen auf die Radareinheit j angibt.

Das rekonstruierte Bild des n. Ziels entsteht anschließend als Wahrscheinlichkeits- dichtefunktion, die sich durch die laufzeit- und phasenrichtige Summation der Signalkomponenten aller Messwege (d.h. für alle Antennenkombinationen zu allen Koordinaten betrachteten Ausschnitt, der beispielsweise rechteckig, elliptisch oder kreisförmig sein kann) ergibt. Der Hypothesentest wird hierbei als konjugiert komplexe Multiplikation der hypothetischen Signalphase mit der real gemessenen Phase an der entsprechenden hypothetischen Beatfrequenz interpre- tiert. Anschließend an die Summation erfolgt eine Betragsbildung: gibt hierbei die Fouriertransformation des Beatsignals an. Die verwen- dete Fensterfunktion wird chirpabhängig angegeben durch w(i).

Es gilt zu beachten, dass die Daten der einzelnen Radareinheiten aufgrund der fehlenden Kohärenz zueinander getrennt prozessiert werden müssen. Sollten die Radareinheiten kohärent betrieben werden, ist eine gesamtheitliche Auswertung aller Radareinheiten durchführbar, im Falle kleiner Radareinheiten und großer Ba- sislinien können hierdurch jedoch starke Interferenzmuster entstehen.

In Fig. 16 sind beispielhaft die Rekonstruktionsergebnisse der in Fig. 14 gezeigten Szenerie auf Basis der am Amplitudenmaximum ermittelten Vektorgeschwindigkeit dargestellt. Fig. 16 zeigt ein Teil-Radar-Bild für die zwei Radareinheiten 10, 20.

Der rechteckige Bereich x = [0; 1,3] m und y = [6,2; 7,7] m erstreckt sich um das zuvor detektierte Objekt O mit den Koordinaten . Durch den Einsatz von zwei Radareinheiten 10, 20 können zwei Teil-Radar-Bilder b 1 (x,y) und b 2 (x,y) aus unterschiedlichen Perspektiven erstellt werden. Werden die Radarein- heiten kohärent betrieben, kann zusätzlich ein drittes Teil-Radar-Bild b 1→2 (x,y) auf Basis des reziproken Kreuzpfades erstellt werden.

In Fig. 16 ist ein Bereich I, in welchem eine niedrige Intensität (die beispielsweise etwa in der Größenordnung des (doppelten) allgemeinen Rauschniveaus liegt) ge- messen wird, und ein Bereich h mit Höhenlinien, in welchem eine höhere Intensi- tät (die beispielsweise etwa in der Größenordnung von mehr als 30 dB, mehr als 35 dB oder mehr als 40 dB über dem Rauschniveau liegt) gemessen wird, abgebil- det.

In Verfahrensschritt VS7 werden somit N Teil-Radar-Bilder der rekonstruierten

Objekte der Zielliste mit einer erhöhten Winkelauflösung und schärferen Konturen berechnet. Zur Erstellung eines Gesamtbildes und/oder zur Verringerung von Feh- lern, können die Verfahrensschritte VS10 und/oder VS8 und VS9 optional durch- geführt werden.

In Verfahrensschritt VS8 können für den Fall, dass die in Verfahrensschritt VS7 ermittelte Vektorgeschwindigkeit fehlerbehaftet bestimmt werden konnte, die Fehler bestimmt werden.

Durch Fehler beim Ermitteln der Vektorgeschwindigkeit können in der inversen SAR-Rekonstruktion in Gleichung (28) systematische Phasenfehler entstehen. Das kann zur Folge haben, dass alle betroffenen Objekte mit einem Positionsfehler re- konstruiert werden. Der Fehler kann jedoch durch die unterschiedlichen Radialge- schwindigkeiten für die Rekonstruktion jeder Radareinheit 10, 20 unterschiedlich sein.

Um diesen Fehler abzuschätzen, können die rekonstruierten Bilder der verschie- denen Radareinheiten 10, 20 verglichen werden. Beispielsweise ist dies über eine erneute CFAR-basierte Zieldetektion möglich. Hierbei wird untersucht, ob die Ab- weichung der Zielpositionen in den unterschiedlichen Bildern größer ist als ein vorher festgelegter Schwellwert.

Alternativ können beispielsweise die Differenzen zwischen den unterschiedlichen Bildern ausgewertet werden. Liegen die Differenzamplituden über einem ebenfalls im Voraus definierten Schwellwert, zeigt das eine falsche Position der Ziele an.

Die Positionsfehler können durch eine iterative Korrektur in Verfahrensschritt VS9 reduziert werden, bis die korrekten bzw. ausreichend genauen Vektorgeschwin- digkeiten gefunden und die Zielpositionen (ausreichend) genau bestimmt wurden.

Deutet die Fehleranalyse in Verfahrensschritt VS8 nicht daraufhin, dass es zu Po- sitionsfehler gekommen ist, können die Rekonstruktionsergebnisse für diese De- tektion direkt in Verfahrensschritt VS10 weiterverarbeitet werden.

Die Vektorgeschwindigkeit kann insbesondere dann falsch bestimmt werden, wenn zwei oder mehrere Objekte, die nicht zwingend eine unterschiedliche Vek- torgeschwindigkeit aufweisen, im gemeinsamen Sichtbereich in der Range-Angle- Dimension nicht aufgelöst werden können. In diesem Fall ist es möglich, dass ein gemeinsames Amplitudenmaximum für alle beteiligten Objekte am Schwerpunkt der Objekte entsteht. Dieses Maximum wird dann in Verfahrensschritt VS6 als de- tektiertes Objekt definiert und die Geschwindigkeit an diesen vermeintlichen Ziel - Koordinaten wird in der ISAR-Rekonstruktion verwendet.

Für eine Bewegung der Objekte entstehen jedoch Objekt -Trajektorien, mit denen eine Auflösungsverbesserung erreicht werden kann, sodass die unterschiedlichen Objekte nach der ISAR-Rekonstruktion in den Bildern b j (x,y) getrennt und aufge- löst werden können.

Weisen beispielsweise alle an dem detektierten Gesamtziel beteiligten Objekte dieselbe oder eine sehr ähnliche Vektorgeschwindigkeit auf, so ist die in der Ziel- liste festgehaltene Geschwindigkeit nur mit einem geringen Fehler behaftet. Der Fehler entsteht dadurch, dass die Vektorgeschwindigkeit in Verfahrensschritt VS5 durch die geometrische Auswertung an einem fehlerbedingt verschobenen Schwerpunkt als Zielkoordinaten erfolgt.

Weisen die beteiligten Objekte jedoch unterschiedliche tatsächliche Geschwindig- keiten auf, kann ein weiterer Fehler-Anteil hinzukommen und die Abweichung der ermittelten Vektorgeschwindigkeit von den tatsächlichen Vektorgeschwindigkeiten kann zunehmend abweichen.

In Fig. 17 ist eine schematische Darstellung von zwei Objekten (Punktzielen) 01, 02 gezeigt, die nur einen geringen Abstand zueinander aufweisen. In Fig. 14 sind die Objekte 01,02 beispielhaft bei (x 1 ,y 1 ) = (0,7|6,8) m sowie (x 2 ,y 2 ) = (0,5|7) m im gemeinsamen Sichtbereich angeordnet. Eine präzise Auflösung beider Ziele ist hier nicht mehr möglich. Die jeweiligen tatsächlichen Vektorgeschwindigkeiten der Objekte 01, 02 sind beispielsweise

In Verfahrensschritt VS5 wird am Amplitudenmaximum jedoch die fehlerbehaftete Vektorgeschwindigkeit bestimm. Die fehlerbehaftet be- stimmte Vektorgeschwindigkeit führt dazu, wie in Fig. 18 schematisch dar- gestellt, dass es zu einem Positionsfehler nach der inversen SAR-Rekonstruktion kommt, der von der ausgewerteten Radareinheit 10, 20 abhängig ist.

Wird in Verfahrensschritt VS8 ermittelt, dass ein oder mehrere Objekte für den betrachteten n. Rekonstruktionsvorgang (Verfahrensschritt VS7) mit einer fal- schen Position rekonstruiert wurden, kann in einem separaten Korrekturschritt (in Verfahrensschritt VS9) die der Rekonstruktion zugrunde liegende Vektorgeschwin- digkeit verändert werden und die Rekonstruktion in Verfahrensschritt VS7 für den entsprechend n. Ziellisteneintrag mit der veränderten (angepassten) Vektorge- schwindigkeit erneut durchgeführt werden.

Der Korrekturschritt VS9 kann wiederholt werden, bis ein vorab definierter Fehler- schwellwert für Verfahrensschritt VS8 nicht überschritten wird. In diesem Fall kann die Vektorgeschwindigkeit im n. Ziellisteneintrag durch die veränderte (an- gepasste), in der letzten Rekonstruktion verwendete Vektorgeschwindigkeit sub- stituiert werden.

Die für den Korrekturschritt VS9 benötigte Korrekturgeschwindigkeit kann bei- spielsweise analytisch über die radareinheitenspezifische Positionsabweichung von der ursprünglichen Ziellistenposition ermittelt werden.

Zusätzlich oder alternativ kann als Korrekturschritt VS9 beispielsweise ein SAR- Autofokus-Algorithmus wie zum Beispiel ein Phase-Gradient-Autofocus-Verfahren verwendet werden.

In Verfahrensschritt VS10 kann aus allen Teil-Radar-Bildern ein Gesamt-Radar- Bild erzeugt werden. In den Verfahrensschritten VS7 bis VS9 werden insgesamt N Teil-Radar-Bilder im gemeinsamen Sichtbereich der verwendeten Radareinheiten 10, 20 erzeugt (generiert).

Für viele Automobilradaranwendungen kann es ausreichend sein, die mit einer verbesserten Winkelauflösung erzeugten Teil-Radar-Bilder weiterzuverarbeiten.

Da in den Teil-Radar-Bildern einerseits die Winkelauflösung verbessert ist und zu- sätzlich auf die Objektkonturen schärfer abgebildet sind, kann es mitunter bevor- zugt sein, ein Gesamt-Radar-Bild der Amplitudenverteilung im gemeinsamen Sichtbereich zu erzeugen und auszuwerten.

Beispielsweise würde hierdurch eine weitere Objektdetektion oder -klassifikation in dem Gesamt-Radar-Bild ermöglicht werden, bei der (durch die schärfere Abbil- dung der Objektkontouren) beispielsweise Verfahren zur Clusteranalyse wie Den- sity-Based-Spatial-Clustering-of-Applications-with-Noise DBSCAN oder Connected- component-labeling CCL angewendet werden können. Alternativ ist es auch denkbar auf das Gesamt-Radar-Verfahren zur Muster- bzw. Bilderkennung anzuwenden.

Die Erzeugung eines Gesamt-Radar-Bildes des gemeinsamen Sichtbereichs kann beispielsweise derart erfolgen, dass das in Verfahrensschritt VS4 durch die Kore- gistrierung erzeugte Bild als unterste Ebene gewählt wird.

Die N Rekonstruktionsbilder (Teil-Radar-Bilder) können anschließend durch eine geeignete Rechenoperationen, wie beispielsweise Addition, Multiplikation oder Substitution, in den entsprechenden Teilbereichen eingefügt werden. Im Falle ei- ner Multiplikation fungieren die rekonstruierten Bilder als eine Art Schablone, wodurch eine stärkere Konturschärfung erreicht werden kann.

Hierbei ist es entweder möglich, für jede der verwendeten Radareinheiten ein se- parates Gesamt-Radar-Bild zu erzeugen oder eine Kombination aus allen Radar- einheiten zu wählen, wobei die Daten hierbei bevorzugt nicht-kohärent überlagert werden sollten.

In Fig. 8 ist ein Ablaufdiagramm eines zweiten Ausführungsbeispiels des erfin- dungsgemäßen Verfahrens abgebildet. Im zweiten Ausführungsbeispiel wird die inverse SAR-Rekonstruktion in Verfahrensschritt VS7 mit den Vektorgeschwindig- keiten für zumindest einen Teil der Auflösungszellen, insbesondere für alle Auflö- sungszellen, durchgeführt.

Die Verfahrensschritte VS1 bis VS5 werden, wie zuvor in Bezug auf Fig. 7 be- schrieben, durchgeführt. Im zweiten Ausführungsbeispiel wird jedoch Verfahrens- schritt VS6 (Objektdetektion) nicht durchgeführt.

Stattdessen wird in der inversen SAR-Rekonstruktion in Verfahrensschritt VS7 jede Auflösungszelle des gemeinsamen Sichtbereichs in einem Durchgang mit der für die jeweilige Auflösungszelle in Verfahrensschritt VS5 ermittelten Vektorge- schwindigkeit verarbeitet.

Die Fehlerkorrektur, die in den Verfahrensschritten VS8 und VS9 durchgeführt wird, kann auf dem gesamten gemeinsamen Sichtbereich angewendet werden, wobei hierbei beispielsweise Bereiche ermittelt werden, in denen die zur Rekon- struktion verwendete Vektorgeschwindigkeit nicht korrekt bestimmt wurde.

Das in Verfahrensschritt VS10 erzeugte Gesamt-Radar-Bild wird nun nicht mehr aus N Einzelbildausschnitten, die Teil-Radar-Bilder, zusammengesetzt, wodurch die Rechenkomplexität an dieser Stelle verringert werden kann. Die abschließende Fusion der einzelnen Gesamtbilder der verschiedenen Radareinheiten erfolgt wie oben beschrieben.

Da somit die Zieldetektion (beispielsweise implementiert mit einem CFAR-Verfah- ren) und ein /V-maliger Durchlauf der Verfahrensschritte VS7 bis VS9 vermieden wird, kann der Rechenaufwand des Gesamtverfahrens reduziert werden. Demge- genüber steht, dass durch die auflösungszellenweise (pixelweise) Verarbeitung im Gegensatz zur zielspezifischen Verarbeitung mit konstanten Vektorgeschwindig- keiten die Qualität der Rekonstruktionsergebnisse abnehmen kann.

In Fig. 9 ist ein Ablaufdiagramm eines dritten Ausführungsbeispiels des erfin- dungsgemäßen Verfahrens abgebildet. Im dritten Ausführungsbeispiel wird eine inverse SAR-Rekonstruktion in Verfahrensschritt VS7 nur mit den Messdaten einer mit einer Radareinheit 10 und ohne Fehlerkorrektur (Verfahrensschritt VS8 und VS9) durchgeführt.

In diesem Ausführungsbespiel werden die Verfahrensschritte VS1 bis VS6 unver- ändert durchgeführt. Allerdings werden im zweiten Ausführungsbeispiel aus Fig. 9 nur die Messdaten einer Radareinheit 10 zur inversen SAR-Rekonstruktion in Ver- fahrensschritt VS7 herangezogen.

Es entfallen dadurch im dritten Ausführungsbeispiel die Korrekturschritte VS8 und VS9. Da in Verfahrensschritt VS7 nur ein Rekonstruktionsergebnis für jeweils ein detektiertes Objekt O berechnet wird (im ersten und zweiten Ausführungsbeispie- len werden mindestens zwei Rekonstruktionsergebnisse in Verfahrensschritt VS7 für jeweils ein detektiertes Objekt O berechnet), kann ein Bestimmen etwaiger Fehler (eine Fehleranalyse) und somit auch eine Korrektur der fehlerbehaftet er- mittelten Vektorgeschwindigkeiten nicht durchgeführt werden. Der Einsatz eines Autofokus-Algorithmus wie Phase-Grad 'ient-Auto focus ist dennoch möglich, da hierfür nicht mindestens zwei Rekonstruktionsergebnisse notwendig sind.

Die N Rekonstruktionsergebnisse der detektierten Objekte O können in einem Verfahrensschritt VS10 in ein Gesamt-Radar-Bild eingetragen werden, wobei hier- bei eine Fusion der Rekonstruktionen (Teil-Radar-Bilder) von anderen (weiteren) Radareinheiten 20 für die jeweiligen detektierten N Objekte entfällt.

Im dritten Ausführungsbeispiel ist der Rechenaufwand insbesondere in Verfah- rensschritt VS7 reduziert, da einerseits lediglich ein Datensatz einer Radareinheit 10 in Verfahrensschritt VS7 verarbeitet werden und andererseits eine iterative Korrektur (Verfahrensschritte VS8 und VS9) nicht durchgeführt werden . Allerdings kann das resultierende Gesamt-Radar-Bild nicht vom Erfassen der Szenerie aus verschiedenen Perspektiven der unterschiedlichen Radareinheiten 10, 20 profitie- ren und rekonstruierte Objekte können nicht durch andere Bilder bestätigt oder widerlegt und korrigiert werden.

In Fig. 10 ist der schematische Ablauf eines vierten Ausführungsbeispiels des er- findungsgemäßen Verfahrens abgebildet. Im vierten Ausführungsbeispiel erfolgt eine Detektion von Objekten schon in Verfahrensschritt VS2, im Range-Doppler- Diagramm.

Die Verfahrensschritte VS1 bis VS4 werden wie für die ersten bis dritten Ausfüh- rungsbeispiele beschrieben durchgeführt. In Verfahrensschritt VS5 und VS6 wird jedoch im vierten Ausführungsbeispiel überprüft, ob in einer Range-Angle-Zelle im gemeinsamen Sichtbereich mehrere Ziele mit unterschiedlichen Vektorgeschwin- digkeiten liegen. Hierfür kann beispielsweise eine zwei- oder dreidimensionale CFAR-Adaption auf die dreidimensionalen Range-Doppler-Angle-Datensätze aus Verfahrensschritt VS3 angewendet werden.

Im vierten Ausführungsbeispiel wird es ermöglicht, mehrere Vektorgeschwindig- keiten für eine Range-Angle-Auflösungszelle zu ermitteln. Die Anzahl der auswert- baren Vektorgeschwindigkeiten wird durch die Position und die Anzahl der ver- wendeten Radareinheiten bestimmt. Die erstellte Zielliste besteht folglich aus N + > N Detektionen, die anschließend in den Verfahrensschritten VS7 bis VS10, die unverändert zum ersten bis dritten Ausführungsbeispiel angewendet werden können, weiterverarbeitet werden können.

Das vierte Ausführungsbeispiel ist besonders vorteilhaft, wenn eine größere An- zahl an Radareinheiten 10, 20 eingesetzt wird, da hierdurch die Zuordnung der unterschiedlichen Radialgeschwindigkeitsverläufe leichter erfolgen kann. Die Kom- plexität und der Rechenaufwand nehmen zwar leicht zu, dafür kann die Geschwin- digkeitsauflösung der einzelnen Radareinheiten zumindest teilweise ausgenutzt werden, wodurch die Bildqualität insgesamt verbessert wird.

In Fig. 11 ist der schematische Ablauf eines fünften Ausführungsbeispiels abgebil- det. Im fünften Ausführungsbeispiel wird die inverse SAR-Rekonstruktion in Ver- fahrensschritt VS7 mit einer verlängerten Messzeit und beispielsweise mit einer zumindest teilweise separaten Geschwindigkeitsmessung durchgeführt. Die inverse SAR-Rekonstruktion in Verfahrensschritt VS7 und die Geschwindig- keitsmessung können auf Basis von Messdaten durchgeführt werden, wobei die Messdaten sich aus zumindest teilweise verschiedenen Radar-Messungen (bei- spielsweise einem Erfassen des gemeinsamen Sichtbereichs mit einer vorbe- stimmten Anzahl von Chirps) zusammensetzen können.

Beispielsweise können die beteiligten (mindestens zwei) Radareinheiten 10, 20 je- weils eine Sequenz aus 1024 zeitlich äquidistanten Chirps aussenden. Für ein Er- mitteln der Vektorgeschwindigkeiten und eine Zieldetektion in den Verfahrens- schritten VS3 bis VS6 wäre eine geringere Anzahl an aufeinanderfolgenden Chi- rps, beispielsweise 256, möglich.

Für die inverse SAR-Rekonstruktion in Verfahrensschritt VS7 und ggf. VS8 bis VS10 können beispielsweise die 1024 Chirps, und damit 1024 fouriertransfor- mierte, digitale Beatsignale verwendet werden. Dadurch kann die erfasste Szene- rie für eine längere Messzeit betrachtet wird. Wird das räumliche Abtastkriterium eingehalten, kann auch beispielsweise lediglich jeder zweite oder dritte Chirp für die inverse SAR-Rekonstruktion verwendet werden.

Durch die Begrenzung der verwendeten Chirps in den Verfahrensschritten VS3 bis VS6 und eine (wie oben beschriebene) Ausdünnung der Messdaten für die Verfah- rensschritte VS7 bis VS10 erhöht sich der Rechenaufwand nicht besonders stark, es können jedoch deutlich längere Messzeiten (wie im zuvor beschriebenen Bei- spiel um den Faktor 4 oder auch um einen größeren Faktor) realisiert werden. Hierdurch können die Längen der durch die Zielbewegung bedingten Trajektorien während der Messung steigen, wodurch größere Aperturen synthetisiert werden können und eine Verbesserung der Auflösung (wie im zuvor beschriebenen Bei- spiel bestenfalls um den Faktor 4) erreicht werden.

In Fig. 12 ist der Ablauf eines sechsten Ausführungsbeispiels abgebildet. Im sechsten Ausführungsbeispiel werden die Radareinheiten 10, 20 kohärent betrie- ben, so dass eine kohärente Verarbeitung, insbesondere auch die Nutzung der Kreuzpfade der Radareinheiten 10, 20, bei der inversen SAR-Rekonstruktion in Verfahrensschritt VS7-K ermöglicht wird. In Verfahrensschritt VS4 werden zusätz- lich auch die Messdaten der Kreuzpfade der Radareinheiten in das Gesamtkoordi- natensystem koregistriert (Verfahrensschritt VS4-K).

Im sechsten Ausführungsbeispiel stehen nach einem initialen Datenaustausch im Verfahrensschritt VS1 nachdem Verfahrensschritt VS2 durchgeführt wurde, im Beatspektrum auch die Beatsignale der Kreuzpfade der Radareinheiten 10, 20 zur Verfügung.

Da bei kohärent betriebenen Radareinheiten 10, 20 die Kreuzpfade zwischen zwei Radareinheiten 10, 20 als reziprok angenommen werden können, können die bei- den Kreuzpfad-Spektren in einem Verfahrensschritt VS-KF fusioniert werden, wodurch sich der Signal-zu-Rausch-Abstand für den Kreuzpfad erhöht.

Die Verarbeitung kann nun dahingehend erweitert werden, dass in der inversen SAR-Rekonstruktion im Verfahrensschritt VS7-K und in der optionalen Fehlerana- lyse im Verfahrensschritt VS8 und VS9 zusätzlich die Rekonstruktion des fusio- nierten Kreuzpfades berücksichtigt werden können. Hierdurch entsteht einerseits ein Perspektiven-Gewinn, andererseits steigt der Signal-zu-Rausch-Abstand, wodurch eine verbesserte Auswertung eines in Verfahrensschritt VS10 erzeugten Gesamt-Radar-Bildes ermöglicht wird.

An dieser Stelle sei darauf hingewiesen, dass alle oben beschriebenen Teile für sich alleine gesehen und in jeder Kombination, insbesondere die in den Zeichnun- gen dargestellten Details, als erfindungswesentlich beansprucht werden. Ände- rungen hiervon sind dem Fachmann geläufig.

Bezuaszeichenliste

10, 20, 30, 40, mehrere Radareinheiten eines Radarsystems;

50, 60, 70, 90 (zentrale) Recheneinheit;

100 Radarsystem;

ADC Analog-Digital-Konverter; b Basislänge;

FoV gemeinsamer Sichtbereich von mindestens zwei Radareinheiten; FoV10, FoV20 einzelne Sichtbereiche von Radareinheiten; FoV1, FoV2, FoV3, gemeinsame Sichtbereiche mehrerer Radareinheiten;

FoV4, FoV5, FoV6

G1, G2 Geraden; h Bereich, in welchem eine hohe Intensität gemessen wird;

I Bereich, in welchem eine niedrige Intensität gemessen wird

LO Lokaloszillator einer Radareinheit;

M Hochfrequenzmischer; MG Modulationsgenerator;

O, O1, O2, O3 Objekte in einer erfassten Szenerie;

RX Empfangsantennen-Array;

S Schnittpunkt;

TX Sendeantenne (Sendeantennen-Array);

VS1, ... VS10 Verfahrensschritte;

VS4-K Koregistrieren der Messdaten für den Kreuzpfad;

VS-KF Fusionieren der Messdaten für den Kreuzpfad;

VS7-K Erzeugen eines Teil-Radar-Bildes mit den Messdaten für den Kreuzpfad; vx, vy Komponenten einer ermittelten Vektorgeschwindigkeit; v1 Geschwindigkeitsbereich mit einer niedrigen Geschwindigkeit; v2 Geschwindigkeitsbereich mit einer hohen Geschwindigkeit;

Vektorgeschwindigkeit;

Vektorgeschwindigkeit einzelner Objekte;

Vektorgeschwindigkeit des Radarsystems; fehlerbehaftete Vektorgeschwindigkeit;

Abstandsdaten;

Radialgeschwindigkeitsdaten;

Winkeldaten;