Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR MONITORING A REGION IN FRONT OF A VEHICLE
Document Type and Number:
WIPO Patent Application WO/2016/169685
Kind Code:
A1
Abstract:
The invention relates to a method (300) for monitoring a region (104) in front of a vehicle (100), wherein the vehicle (100) has a first sensor (106) orientated in the direction of said region (104), and a second sensor (108) orientated in the direction of said region (104), wherein the second sensor (108) has a larger vertical detection angle (112) than the first sensor (106), wherein in an assigning step (302) information (116) detected by the first sensor (106) is assigned to the objected (118) detected in said region (104) by the second sensor (108). In a tracking step (304), a position (128) of the object (118) is tracked by using the second sensor (108) if the object (118) leaves the detection angle (110) of the first sensor (106) owing to a pitch angle (130) of the vehicle (100).

Inventors:
FOLTIN JOHANNES (DE)
Application Number:
PCT/EP2016/054366
Publication Date:
October 27, 2016
Filing Date:
March 02, 2016
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BOSCH GMBH ROBERT (DE)
International Classes:
G01S13/931; G01S13/86
Foreign References:
JP2006048435A2006-02-16
EP2293118A12011-03-09
JP2013117475A2013-06-13
Download PDF:
Claims:
Verfahren (300) zum Überwachen eines Bereichs (104) vor einem Fahrzeug (100), wobei das Fahrzeug (100) einen in Richtung des Bereichs (104) gerichteten ersten Sensor (106) und einen in Richtung des Bereichs (104) gerichteten zweiten Sensor (108) aufweist, wobei der zweite Sensor (108) einen größeren vertikalen Erfassungswinkel (112) als der erste Sensor (106) aufweist, wobei das Verfahren (300) die folgenden Schritte aufweist:

Zuordnen (302) einer von dem ersten Sensor (106) erfassten

Entfernungsinformation (116) zu einem von dem zweiten Sensor (108) in dem Bereich (104) erfassten Objekt (118); und

Verfolgen (304) einer Position (128) des Objekts (118) unter

Verwendung des zweiten Sensors (108), wenn das Objekt (118) aufgrund eines Nickwinkels (130) des Fahrzeugs (100) den

Erfassungswinkel (110) des ersten Sensors (106) verlässt.

Verfahren (300) gemäß Anspruch 1, bei dem der Schritt (302) des Zuordnens ausgeführt wird, wenn der Nickwinkel (130) größer als ein Schwellenwinkel ist.

Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (304) des Verfolgens das Objekt (118) unter Verwendung eines durch das Objekt (118) verdeckten Horizontalwinkels (204) und/oder Vertikalwinkels (204) verfolgt wird.

Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (304) des Verfolgens ferner eine Positionsänderung des Objekts (118) ermittelt wird.

5. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (302) des Zuordnens ferner eine von dem ersten Sensor (106) erfasste Relativgeschwindigkeit zwischen dem Fahrzeug (100) und dem Objekt (118) dem Objekt (118) zugeordnet wird.

6. Verfahren (300) gemäß Anspruch 5, bei dem im Schritt (304) des

Verfolgens eine Veränderung der Relativgeschwindigkeit verfolgt wird.

7. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem als erster Sensor (106) ein Radarsensor (106) und als zweiter Sensor (108) ein Videosensor (108) verwendet wird.

8. Vorrichtung (102), die eingerichtet ist, das Verfahren (300) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern.

9. Computerprogramm, das dazu eingerichtet ist, das Verfahren (300) gemäß einem der vorangegangenen Ansprüche auszuführen und/oder anzusteuern.

Maschinenlesbares Speichermedium, auf dem das Computerprog nach Anspruch 9 gespeichert ist.

Description:
Beschreibung Titel

Verfahren und Vorrichtung zum Überwachen eines Bereichs vor einem Fahrzeug Stand der Technik

Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.

Während eines Beschleunigungsvorgangs beziehungsweise eines

Verzögerungsvorgangs kann ein Fahrzeug eine Nickbewegung ausführen. Durch die Nickbewegung kann ein fest mit dem Fahrzeug verbundener Sensor ein Objekt aus seinem Erfassungsbereich verlieren.

Im Stand der Technik erfolgt die Auslösung häufig unter Verwendung von zwei Sensor-Informationen. Die Signale, die zur Auslösung führen, kommen allerdings meist nur von einem ersten Sensor. So wird beispielsweise bei einem

Notbremsassistent ein Objekt durch den Radarsensor erkannt und die

Relativgeschwindigkeit bzw. der Crash-Zeitpunkt vorhergesagt. Ein zweiter Sensor (z. B. ein Videosensor) wird genutzt, um eine Objektbestätigung zu liefern und die Notbremsung freizugeben. Das Signal, das zur Auslösung des

Notbremsassistenten führt (d. h., die Vorhersage des Crash-Zeitpunkts), kommt jedoch in der Regel nur vom ersten Sensor.

Offenbarung der Erfindung

Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Überwachen eines Bereichs vor einem Fahrzeug, weiterhin eine

Vorrichtung, die dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.

Wenn der Sensor das Objekt aufgrund der Nickbewegung aus seinem

Erfassungsbereich verliert, kann das Objekt mittels eines weiteren Sensors weiterverfolgt werden. Dazu kann der weitere Sensor einen größeren

Erfassungsbereich aufweisen, als der erste Sensor.

Um das Objekt sicher mit dem weiteren Sensor verfolgen zu können, kann eine Datenfusion von Daten des ersten Sensors mit Daten des weiteren Sensors erfolgen. Dabei kann insbesondere eine Referenzentfernung des Objekts übertragen werden.

Es wird ein Verfahren zum Überwachen eines Bereichs vor einem Fahrzeug vorgestellt, wobei das Fahrzeug einen in Richtung des Bereichs gerichteten ersten Sensor und einen in Richtung des Bereichs gerichteten zweiten Sensor aufweist, wobei der zweite Sensor einen größeren vertikalen Erfassungswinkel als der erste Sensor aufweist, wobei das Verfahren die folgenden Schritte aufweist:

Zuordnen einer von dem ersten Sensor erfassten Entfernungsinformation zu einem von dem zweiten Sensor in dem Bereich erfassten Objekt; und

Verfolgen einer Position des Objekts unter Verwendung des zweiten Sensors, wenn das Objekt aufgrund eines Nickwinkels des Fahrzeugs den

Erfassungs winkel des ersten Sensors verlässt.

Unter einem Bereich vor einem Fahrzeug kann insbesondere ein zukünftig von dem Fahrzeug zu befahrender Verkehrsraum verstanden werden. Der erste Sensor und der zweite Sensor können vorausschauende Sensoren sein. Eine Entfernungsinformation kann einen Abstand zwischen einem Objekt und dem Fahrzeug repräsentieren. Der Schritt des Zuordnens kann ausgeführt werden, wenn der Nickwinkel größer als ein Schwellenwinkel ist. Dadurch kann die Entfernungsinformation übertragen werden, solange das Objekt von beiden Sensoren erfasst wird.

Das Objekt kann unter Verwendung eines durch das Objekt verdeckten

Horizontalwinkels und/oder Vertikalwinkels verfolgt werden. Der zweite Sensor kann ein richtungsempfindlicher Sensor sein. Mit anderen Worten kann das Objekt über eine Position in Sensordaten des zweiten Sensors verfolgt werden. Durch die Referenzentfernung kann der von dem Objekt verdeckte Winkel über trigonometrische Berechnungen in einen Entfernungswert umgerechnet werden.

Im Schritt des Verfolgens kann ferner eine Positionsänderung des Objekts ermittelt werden. Dadurch kann beispielsweise eine Ausweichbewegung des Objekts verfolgt werden.

Im Schritt des Zuordnens kann ferner eine von dem ersten Sensor erfasste Relativgeschwindigkeit zwischen dem Fahrzeug und dem Objekt dem Objekt zugeordnet werden. Die Relativgeschwindigkeit kann beeinflusst eine erwartete Veränderung der Sensordaten des zweiten Sensors.

Im Schritt des Verfolgens kann eine Veränderung der Relativgeschwindigkeit verfolgt werden. Dadurch kann eine voraussichtliche Aufprallgeschwindigkeit aktualisiert werden.

Der erste Sensor kann ein Radarsensor und der zweite Sensor ein Videosensor sein. Ein Radarsensor kann die Entfernung beispielsweise über eine

Signallaufzeit messen. Ein Videosensor beziehungsweise eine Kamera kann eine laterale und horizontale Position des Objekts im Bild erfassen.

Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.

Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.

Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.

Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend

beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:

Fig. 1 eine Darstellung eines Fahrzeugs mit einer Vorrichtung gemäß einem Ausführungsbeispiel;

Fig. 2 eine Darstellung eines Sichtwinkels einer Kamera in Abhängigkeit der Entfernung; und Fig. 3 ein Ablaufdiagramm eines Verfahrens zum Überwachen eines Bereichs vor einem Fahrzeug gemäß einem Ausführungsbeispiel.

In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren

dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche

Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.

Fig. 1 zeigt eine Darstellung eines Fahrzeugs 100 mit einer Vorrichtung 102 gemäß einem Ausführungsbeispiel. Die Vorrichtung 102 ist dazu ausgebildet, einen Bereich 104 vor dem Fahrzeug 100 zu überwachen. Die Vorrichtung 102 ist dazu mit einem ersten Sensor 106 des Fahrzeugs 100 und einem zweiten Sensor 108 des Fahrzeugs 100 verbunden. Beide Sensoren 106, 108 sind auf den Bereich 104 gerichtet. Der erste Sensor 106 weist einen ersten vertikalen Erfassungswinkel 110 auf. Der zweite Sensor 108 weist einen zweiten vertikalen Erfassungs winkel 112 auf. Der zweite Erfassungswinkel 112 ist größer als der erste Erfassungswinkel 110. Hier deckt der zweite Erfassungswinkel 112 den ersten Erfassungswinkel 110 ab einer gewissen Entfernung vollständig ab.

Der erste Sensor 106 stellt ein erstes Sensorsignal 114 bereit. In dem ersten Sensorsignal 114 ist zumindest eine Entfernungsinformation 116 enthalten. Die Entfernungsinformation 116 repräsentiert eine Entfernung zwischen dem Fahrzeug 100 und einem innerhalb des ersten Erfassungswinkels 110 angeordneten Objekt 118.

Der zweite Sensor 108 stellt ein zweites Sensorsignal 120 bereit. In dem zweiten Sensorsignal 120 ist zumindest eine Objektinformation 122 des Objekts 118 enthalten, da das Objekt 118 von dem zweiten Sensor 108 erfasst wird. Die Objektinformation 122 repräsentiert eine Position des Objekts 118 innerhalb des zweiten Erfassungswinkels 112.

Die Vorrichtung 102 weist eine Einrichtung 124 zum Zuordnen und eine

Einrichtung 126 zum Verfolgen auf. Die Einrichtung 124 zum Zuordnen ist dazu ausgebildet, die Entfernungsinformation 116 zu der Objektinformation 122 von dem zweiten Sensor 108 zuzuordnen. Damit wird dem Objekt 118 die Entfernung zugeordnet und es ist eine momentane räumliche Position 128 des Objekts 118 als Abstand und Winkel bekannt. Durch ein zeitlich versetztes weiteres Zuordnen der dann aktuellen Entfernung zu dem Objekt 118 kann dem Objekt 118 ebenso eine Relativgeschwindigkeit zugeordnet werden. Die Einrichtung 126 zum Verfolgen ist dazu ausgebildet, die Position 128 des Objekts 118 unter

Verwendung der Objektinformation 122 des zweiten Sensors 108 zu verfolgen, wenn das Objekt 118 aufgrund eines Nickwinkels 130 des Fahrzeugs 100 den Erfassungs winkel 110 des ersten Sensors 106 verlässt.

Der Nickwinkel 130 wird von einem Nickwinkelsensor 132 des Fahrzeugs 100 bereitgestellt. Der Nickwinkelsensor kann auch z. B. durch eine

Bildauswertungseinheit ersetzt werden. Ein dedizierter Sensor ist nicht zwingend nötig.

In einer weiteren Ausführungsform wird vom ersten Sensor 106 erfasst, dass das Objekt beispielsweise durch eine Nickbewegung des Fahrzeugs aus dem ersten Erfassungsbereich 110 verschwindet, vom zweiten Sensor 108 jedoch noch erfasst wird.

In einem Ausführungsbeispiel ist der erste Sensor 106 ein Radarsensor. Der zweite Sensor 108 ist eine Kamera.

Wenn das Fahrzeug 100 beispielsweise aufgrund einer Verzögerung oder Beschleunigung eine Nickbewegung ausführt, kann der erste Sensor 106 das

Objekt 118 aus seinem Erfassungswinkel 110 verlieren. Damit können

Funktionen des Fahrzeugs 100, die ausschließlich das erste Sensorsignal 114 auswerten, so lange keine Entfernungsinformation 116 über das Objekt 118 erhalten, bis das Fahrzeug 100 die Nickbewegung beendet und der erste Sensor 106 erneut auf das Objekt 118 gerichtet ist.

Durch den hier vorgestellten Ansatz kann das Objekt 118 in dem zweiten Sensorsignal 120 verfolgt werden, solange das Fahrzeug die Nickbewegung ausführt. Eine Relativposition des Objekts 118 zu dem Fahrzeug 100 kann aus der Winkelinformation 122 mit hoher Zuversicht abgeleitet werden, da die Entfernung zu dem Objekt 118 zu Beginn des Verfolgens bekannt ist.

Insbesondere kann eine Positionsveränderung des Objekts 118 in dem zweiten Sensorsignal 120 verfolgt werden. Ebenso kann eine Relativgeschwindigkeit zwischen dem Fahrzeug 100 und dem Objekt 118 verfolgt werden.

Bei dem hier vorgestellten Ansatz wird eine Nutzung von Kamera-Daten 120 bei starkem Nicken des Fahrzeugs 100 vorgeschlagen. Dabei erfolgt eine

Umschaltung basierend auf dem Nickwinkel 130 des Fahrzeugs 100.

Bei einer Notbremsung nickt das Fahrzeug 100 sehr stark, weshalb ein insbesondere crashrelevantes Objekt 118 aus dem Erfassungsbereich 110 des Radarsensors 106 verschwinden kann. Durch Nutzung der Radarinformationen 114 zur Initialisierung der Kamerainformation 120 kann im Anschluss die normalerweise weniger geeignete Kamerainformation 120 zur Crashvorhersage genutzt werden. Das ist insbesondere für ein Sicherheitssystem (ISS, Integrated Safety System) des Fahrzeugs 100 wichtig.

In einem Ausführungsbeispiel wird das System, beispielsweise ein Airbag- Auslöse-Algorithmus, anhand von Umfeldsensoren 106, 108 eingestellt. Die Umfeldsensoren 106, 108, wie beispielsweise eine Kamera 108, ein Radar 106, ein Lidar oder Ultraschall, erfassen die Umwelt 104 und ermitteln einen möglichen bevorstehenden Crash und Crash-Typ. Das Airbag-Steuergerät kann dabei sensibler eingestellt werden, sodass eine Auslösung der

Rückhaltesysteme schneller erfolgen kann.

So kann beispielsweise von dem Radarsensor 106 eine Front- Kollision mit einem Fahrzeug vorausgesagt werden. Während des vorhergesagten Zeitpunkts, zu dem der Unfall stattfinden sollte, wird die Aktivierungsschwelle für

Rückhaltesysteme reduziert, was zu einer sensibleren und früheren Reaktion führt. Wenn dann von den klassischen Sensoren der passiven Sicherheit, beispielsweise Beschleunigungssensoren und/oder Aufprallsensoren ein möglicher Unfall registriert wird, dann kann schneller darauf reagiert werden, da die Plausibilisierungsdauer begrenzt werden kann. Je nach Ausbaustufe kann eine Frontkollision oder Seitenkollision vorhergesagt werden oder auch auf eine rückwärtige Kollision reagiert werden. Bei den Kollisionen kann zwischen verschiedenen Unfallgegnern unterschieden werden, beispielsweise kann ein Fahrzeug von einem LKW oder einem Fußgänger oder einem fest verankerten Objekt 118 unterschieden werden.

Eine Kollisionserkennung hat dabei immer die Voraussetzung, dass ein Unfall bereits stattgefunden hat beziehungsweise unvermeidbar ist und stattfinden wird. Es wird lediglich die Reaktionszeit verkürzt, wodurch die Fahrzeuginsassen besser auf den Unfall eingestellt werden können. Beispielsweise kann mehr Raum geschaffen werden, um kinetische Energie abzubauen und so

Beschleunigungs-Spitzen zu vermeiden. Die Grund- Funktionalität der Crash-Sensierung mit Beschleunigungssensoren etc. bleibt bestehen.

Unter den Sicherheitssystem- Funktionen Pre-Trigger (zur Aktivierung von reversiblen Personenschutzmitteln) und Pre-Fire (zur Aktivierung von

irreversiblen Personenschutzmitteln) können Ausprägungen verstanden werden, bei denen Rückhaltesysteme aktiviert werden, noch bevor es zu einem Kontakt zwischen den Unfallgegnern kommt. Für die Sensierung kommen verschiedene Umfeldsensoren 106, 108 zum Einsatz. Dabei wird zwischen Pre-Fire von reversiblen Aktoren und Pre-Trigger von nichtreversiblen, beispielsweise pyrotechnischen Aktoren unterschieden. Es können Airbags und Gurtstraffer aktiviert werden, letztere auch häufig reversibel (Pre- Fire).

Verschiedene Umfeldsensoren 106, 108 können unterschiedliche Eigenschaften und Messprinzipien aufweisen.

Radar- und Lidarsysteme 106 sind aktive Sensoren, die ein Signal,

beispielsweise einen Puls oder eine Frequenzrampe aussenden, der an Objekten 118 reflektiert und wieder empfangen wird. Durch Auswertung des ausgesandten Signals mit dem empfangenen Signal, beispielsweise über seine Laufzeit, kann auf Größen in Richtung des ausgesandten Signals geschlossen werden.

In der Regel können so Abstand und Relativgeschwindigkeit, teilweise auch Relativbeschleunigung, in Fahrtrichtung gemessen werden, wenn der Sensor 106 in Fahrtrichtung eingebaut ist.

Der vertikale Öffnungswinkel 110 des Radarsensors 106 beziehungsweise des Lidarsensors ist in der Regel klein, um möglichst wenige Störsignale des irrelevanten Umfelds, wie Straßenleuchten über dem Fahrzeug 100 zu erfassen.

Der Radarsensor 106 ist so angebaut, dass er parallel zur ebenen Straße Signale aussendet und empfängt.

Ein typischer Öffnungswinkel 112 der Kamera 108 liegt beispielsweise bei 10° nach oben, um Straßenleuchten ausreichend nahe zu erkennen und 10° nach unten, um Fahrspurmarkierungen zu erkennen.

Nickbewegungen können im Bild beispielsweise anhand von

Straßenmarkierungen oder über Inertialsensorik ermittelt werden und beim Erkennen beziehungsweise Vermessen der Objekte 118 genutzt werden, um die Erkennung robust gegenüber von Nickbewegungen zu halten.

Der Nickwinkel kann neben einer expliziten Berechnung auch modellbasiert erfolgen. So kann beispielsweise der Nickwinkel an Hand der

Beschleunigungssignale geschätzt werden, ggf. unter Zuhilfenahme der Fahrzeugmasse und Massenverteilung. Eine weitere modellbasierte

Nickwinkelschätzung ist die Dauer des Notbremssignals bzw. des Eingriffs des Anti-Blockier-Systems: ab einer gewissen Dauer ist eine maximale Verzögerung aufgebaut, von der wiederum auf den Nickwinkel geschlossen werden kann.

Der Nickwinkel kann ebenfalls indirekt gemessen werden, indem eine

Veränderung der Objektposition in den Sensoren ermittelt wird und mit dem ermittelten Objekt-Abstand verglichen wird. Wenn das Objekt nahe am Erfassungsbereich des ersten Sensors 106 ist, dann kann bereits eine Umschaltung erfolgen, da von einer gewissen Nickbewegung ausgegangen werden kann. Wenn das Fahrzeug 100 stark nickt, beispielsweise durch eine starke Bremsung, initiiert durch den Fahrer oder einen Notbremsassistenten, dann kann das relevante Objekt 118 durch die Nickbewegung nicht mehr im Radarsensor- Erfassungsbereich 110 liegen. Die für die ISS- Funktionen relevanten Größen in Fahrtrichtung, wie die

Entfernung, die Relativgeschwindigkeit, die Time To Impact beziehungsweise der geschätzte Crash-Zeitpunkt können daher unter Verwendung des Radarsensors 106 nicht mehr aktualisiert werden. Änderungen der relevanten Größen können unter Verwendung ausschließlich des Radarsensors nicht mehr gemessen und berücksichtigt werden.

Bei der Auslegung der Sicherheitssystem- Funktion kann das berücksichtigt werden. Beispielsweise kann das mögliche Crash-Fenster bei einer

Kollisionserkennung größer gewählt werden.

Deshalb wird bei dem hier vorgestellten Ansatz die Nutzung von Sensordaten 114 von einem Sensor 106 mit geringer vertikaler Öffnung 110 hin zu einem Sensor 108 mit größerer vertikaler Öffnung 112 in Abhängigkeit vom Nickwinkel 130 des Fahrzeugs 100 angepasst.

Mit anderen Worten werden Kamera- Messdaten 120 zur Crash- Vorhersage genutzt, wenn der Nickwinkel 130 groß ist.

In einem Ausführungsbeispiel misst der Radarsensor 106 die longitudinalen Daten 116 eines Objekts 118. Anschließend nickt das Fahrzeug 100

beispielsweise durch eine Notbremsung vor einem Unfall, wodurch das Objekt 118 aus dem Erfassungsbereich 110 des Radarsensors 106 verschwindet. Daher wird vom Radarsensor 106 auf den Videosensor 108 umgeschaltet, der einen größeren vertikalen Erfassungsbereich 112 besitzt. Dazu wird das Objekt 118 aus dem Videosensor 108 mit den Daten 116 der Fahrtrichtung, insbesondere der Position und Relativgeschwindigkeit des Radarsensors 106 initialisiert. Nach der Initialisierung kann aus der Skalierungsinformation 122, also einer Änderung des Sichtwinkels zusammen mit dem Abstand 116 die tatsächliche

Relativgeschwindigkeit beziehungsweise die Größe des Objekts 118 gemessen werden. Durch die Vermessung des Objekts 118 durch den Radarsensor 106 am Anfang sind ausreichend Informationen vorhanden, um auch durch den Video- Sensor 108 eine genaue Crash-Vorhersage durchzuführen.

Durch die den hier vorgestellten Ansatz können nun auch bei starken

Nickbewegungen die Fahrzeuge weiter verfolgt werden, wodurch ein genaueres und zielgerichteteres Auslösen von Rückhaltesystemen möglich wird.

In einem weiteren Ausführungsbeispiel weist das Fahrzeug 100 statt des Radarsensors 106 einen Lidarsensor 106 oder einen anderer Sensor 106 auf, der einen verhältnismäßig kleinen vertikalen Erfassungswinkel 110 oberhalb der Horizontlinie besitzt. Insbesondere werden Sensoren 106 eingesetzt, die longitudinale Größen 116 entlang der Fahrtachse beziehungsweise x-Achse messen können.

Der zweite Sensor 108 kann eine Monokamera, eine Stereokamera oder ein anderer Kamerasensor sein. Vorzugsweise werden Sensoren 108 eingesetzt, die einen Winkel vor dem Fahrzeug 100 vermessen.

Es ist möglich mit der Kamera 108 die Skalierungsinformation vom gesamten Objekt 118 beispielsweise eine Fahrzeug- Rückfront oder von Teilen des

Fahrzeugs, wie dem Nummernschild oder den Rückleuchten zu nutzen, um die Relativ- Bewegung zu vermessen.

Fig. 2 zeigt eine Darstellung eines Sichtwinkels 112 einer Kamera 108 in Abhängigkeit der Entfernung. Aufgrund geometrischer Gesetzmäßigkeiten erscheint ein weit entferntes Objekt 200 in einem Bild der Kamera 108 kleiner, als ein nahes Objekt 202. So lange jedoch eine absolute Entfernung der Objekte 200, 202 von der Kamera 108 unbekannt ist, kann ohne zusätzliche

Informationen über die Objekte 200, 202 keine Aussage über eine tatsächliche Größe der Objekte 200, 202 getroffen werden. Wenn ein kleines Objekt 202 nahe an der Kamera 108 eine geringe

Relativbewegung zu der Kamera 108 ausführt, ergibt sich eine identische Veränderung eines Winkels 204, den das Objekt 202 in dem Bild einnimmt, als wie, wenn ein großes Objekt 200 entfernt von der Kamera 108 eine große

Relativbewegung zu der Kamera 108 ausführt.

Bei dem hier vorgestellten Ansatz werden solche systematisch bedingten Einschränkungen bei der Entfernungsbestimmung unter Verwendung einer monookularen Kamera 108 durch ein Referenzieren der Entfernung zu dem

Objekt 200, 202 unter Verwendung einer Entfernungsinformation von einem anderen Sensor aufgehoben. Dadurch kann die Position des Objekts 200, 202 nach dem Referenzieren unter Verwendung eines durch das Objekt 200, 202 verdeckten Horizontalwinkels 204 und/oder Vertikalwinkels 204 verfolgt werden.

Kamera-Systeme 108 erfassen ein Abbild der Umwelt in der Regel passiv. Das Kamerasystem 108 kann auch mit einer aktiven Lichtquelle verstärkt sein. Das Kamerasystem 108 kann eine Tiefenmessung mittels Time of Flight durchführen. Das Kamerasystem 108 kann messbedingt gut Ausdehnungen messen, beispielsweise durch Abzählen von Pixeln. Dabei entspricht eine Pixelposition dem Sichtwinkel.

Entfernungen können von passiven Mono- Kamerasystemen 108 nur

modellbasiert ermittelt werden, was zu einer hohen Ungenauigkeit führt.

Relativbewegungen kann das Kamerasystem 108 über die Änderung der Ausdehnung beziehungsweise den Skalierungsfaktor ermitteln. Jedoch kann die Entfernung, in der die Abstandsänderung stattfindet, nur ungenau ermittelt werden. Im Nahbereich ist die Skalierungsänderung größer als im Fernbereich, daher eignet sich das Verfahren besonders für nahe Objekte 202.

In Fig. 2 sind die tatsächliche Objektgröße und die Objektentfernung unbekannt, was durch gleiche Sichtwinkel 204 bei dem dunklen Objekt 202 und dem hellen Objekt 200 dargestellt ist. Die Relativbewegung kann aus dem

Größenunterschied ermittelt werden, ist jedoch nicht absolut. Das kleine dunkle Objekt 202 hat bei gleicher Winkeländerung pro Zeit eine geringere

Relativgeschwindigkeit, als das helle große Objekt 200.

Je näher ein Fahrzeug kommt, desto größer wird es im Bild. Diese Information kann in einem Kamera-Bild als Sichtwinkel 204 erfasst werden. Anders als beim Schätzen der Entfernung ist für die Größenmessung keine Modellannahme nötig.

Fig. 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zum Überwachen eines Bereichs vor einem Fahrzeug gemäß einem Ausführungsbeispiel. Das Verfahren 300 kann beispielsweise auf einer Vorrichtung, wie sie in Fig. 1 dargestellt ist, ausgeführt werden. Das Verfahren 300 weist einen Schritt 302 des Zuordnens und einen Schritt 304 des Verfolgens auf. Im Schritt 302 des Zuordnens wird eine von einem ersten Sensor des Fahrzeugs erfasste Entfernungsinformation zu einem von einem zweiten Sensor des Fahrzeugs in dem Bereich erfassten Objekt zugeordnet. Im Schritt 304 des Verfolgens wird eine Position des Objekts unter Verwendung des zweiten Sensors verfolgt, wenn das Objekt aufgrund eines Nickwinkels des Fahrzeugs einen Erfassungswinkel des ersten Sensors verlässt.

In einem Ausführungsbeispiel erfolgt eine kontinuierliche Überwachung 306 des Nickwinkels. Wenn der Nickwinkel einen Schwellenwert überschreitet, wird das Zuordnen 302 ausgelöst. Wenn der Nickwinkel kleiner als der Schwellenwert ist, wird das Objekt in einem alternativen Schritt 308 des Verfolgens nur unter Verwendung des ersten Sensors verfolgt.

Dem Überwachen 306 vorausgehend erfolgt ein Schritt 310 des Erkennens. Der Schritt 310 des Erkennens weist zwei Teilschritte 310a, 310b auf. Im ersten Teilschritt 310a wird das Objekt in dem ersten Sensorsignal des ersten Sensors erkannt. Im zweiten Teilschritt 310b wird das Objekt in dem zweiten Sensorsignal des zweiten Sensors erkannt.

Mit anderen Worten zeigt Fig. 3 ein Ablaufdiagramm für einen

Notbremsassistenten. Der Notbremsassistent erkennt eine kritische Situation und leitet eine Notbremsung ein, um einen Unfall zu vermeiden. Allgemein messen Sensoren, beispielsweise Radarsensoren, den Abstand zum Gegner- Fahrzeug und die Relativgeschwindigkeit und ermittelt so den letztmöglichen Zeitpunkt, um einen Unfall zu verhindern.

Die Relativgeschwindigkeit sowie die Position sind bei ISS- Funktionen wichtig, weshalb die Funktionen häufig mit Radar-Sensoren umgesetzt werden.

Bei Nickvorgängen, wie der Notbremsung, kann der Radar-Sensor bzw. ein Sensor mit geringer vertikaler Öffnung Objekte im Nahbereich verlieren.

Bisher können bei starkem Nicken durch das Bremsen die zuletzt gemessenen Werte beibehalten werden bzw. ein Lösen der Bremse für eine gewisse Zeit nicht zugelassen werden, außer der Fahrer übersteuert über das Gaspedal.

Die Bewegung des anderen Fahrzeugs kann auch extrapoliert werden. Dann bleiben Änderungen in der Fahrzeugdynamik des anderen Objekts jedoch unberücksichtigt.

Bei dem in Fig. 3 dargestellten Ablauf erfolgt zuerst das Erkennen 310 des Objekts durch den ersten Sensor und den zweiten Sensor. Dann folgt eine Abfrage 306, ob eine Notbremsung vorliegt. Wenn Nein erfolgt eine Crash- Vorhersage 308 auf Basis des ersten Sensors. Wenn Ja erfolgt eine

Initialisierung 302 von Daten des zweiten Sensors mit Daten des ersten Sensors und anschließend die Crash-Vorhersage 304 auf Basis der fusionierten Daten des zweiten Sensors.

Dabei hat der erste Sensor einen geringen vertikalen Öffnungswinkel oberhalb der Horizontlinie und der zweite Sensor hat einen größeren Öffnungswinkel oberhalb der Horizontlinie.

Am Anfang wird das relevante Objekt von beiden Sensoren detektiert. Es ist sinnvoll, dass bereits zu diesem Zeitpunkt eine Sensordatenfusion stattfindet, ist jedoch nicht zwingend nötig. Das Fahrzeug befindet sich noch in einem relativ normalen Zustand, also keine Bremsung oder Teilbremsung und ist zumindest noch nicht stark eingenickt, sodass das Objekt noch immer von dem ersten Sensor erkannt werden kann.

Die Objekte können noch für eine Weile gemessen werden, was durch eine Sanduhr dargestellt ist, um klarzustellen, dass es nicht im gleichen Rechenzyklus geschehen muss.

Es wird dabei auch immer gemessen, ob das Fahrzeug mittlerweile stark nickt bzw. ob eine Notbremsung durchgeführt wurde.

Wenn keine Notbremsung durchgeführt wird, dann kann standardmäßig der Crash-Zeitpunkt mit dem ersten Sensor, beispielsweise einem Radarsensor, durchgeführt werden.

Wenn eine Notbremsung durchgeführt wird, dann werden die vom ersten Sensor zuvor gemessenen Daten genutzt, um die Daten des zweiten Sensors damit abzugleichen oder zu initialisieren.

Die Crash-Vorhersage wird dann anhand der fusionierten beziehungsweise optimierten Daten des zweiten Sensors durchgeführt.

Umfasst ein Ausführungsbeispiel eine„und/oder"- Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.