Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
OBJECT DETECTING DEVICE
Document Type and Number:
WIPO Patent Application WO/2003/031228
Kind Code:
A2
Abstract:
The invention concerns a device for detecting objects designed for a driving aid system in motor vehicles. The inventive object detecting device comprises at least two sensor systems (13; 14; 16L, 16R) which measure data (d1, j1; d2, j2; d3, y3) concerning the location or the displacement state of the objects (24) in the neighbourhood of the vehicle (10) and whereof the detection zones (18, 20) are mutually overlapping. The inventive object detecting device is characterized in that it comprises an error detection device which controls the coherence of the data measured by the sensor systems(12; 14; 16L, 16R) and emits an error signal when it identifies an incoherence.

Inventors:
BRAEUCHLE GOETZ (DE)
HEINEBRODT MARTIN (DE)
BOECKER JUERGEN (DE)
Application Number:
PCT/DE2002/003483
Publication Date:
April 17, 2003
Filing Date:
September 17, 2002
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BOSCH GMBH ROBERT (DE)
BRAEUCHLE GOETZ (DE)
HEINEBRODT MARTIN (DE)
BOECKER JUERGEN (DE)
International Classes:
B60R21/00; B60K31/00; B60R1/00; G01S3/78; G01S7/40; G01S13/931; G08G1/16; G01S17/86; B60R; (IPC1-7): B60R/
Foreign References:
DE19934670A12000-12-21
DE19856313A12000-06-08
EP0544468A21993-06-02
US6055042A2000-04-25
Download PDF:
Claims:
Patentansprüche
1. Objekterfassungsvorrichtung für FahrerAssistenzsysteme in Kraftfahrzeugen, mit mindestens zwei Sensorsystemen (12,14, 16), die Daten (dl, vl, jl ; d2, v2, j2 ; jL, jR) über den Ort und/oder Bewegungszustand von Objekten (24) in der Umgebung des Fahrzeugs (10) messen und deren Detektionsbereiche (18,20) einander überlappen, gekennzeichnet durch eine Fehlererkennungseinrichtung (32), die die von den Sensorsystemen (12,14, 16) gemessenen Daten auf ihre Widerspruchsfreiheit prüft und bei Erkennung eines Widerspruchs ein Fehlersignal (Fdj, Fvj, Ffk) ausgibt.
2. Objekterfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Sensorsysteme (12 ; 14 ; 16) als Radar, Lidaroder Videosystem oder einer Kombination hieraus ausgeführt sind.
3. Objekterfassungsvorrichtung nach Anspruch 1, dadurch gekennzeichnet, daß die Sensorsysteme ein Sensorsystem (12) für den Fernbereich und ein Sensorsystem (14 ; 16) für den Nahbereich umfassen.
4. Objekterfassungsvorrichtung nach Anspruch 3, dadurch gekennzeichnet, daß die Sensoreinrichtung (12) für den Fernbereich ein Radarsystem oder Lidarsystem ist.
5. Objekterfassungsvorrichtung nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß das Sensorsystem (14 ; 16) für den Nahbereich ein Radarsystem, ein Lidarsystem oder ein Videosystem ist.
6. Objekterfassungsvorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß eines der Sensorsysteme ein Videosystem (16) mit zwei Kameras (16L, 16R) zur Erfassung eines Stereobildes des Objektes (24) umfassen.
7. Objekterfassungsvorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß die Fehlererkennungseinrichtung (32) anhand der Daten mindestens eines Sensorsystems (12) überprüft, ob sich das Objekt im Überlappungsbereich (22) des Detektionsbereiches (18) dieses Sensorsystems mit dem Detektionsbereich (20) eines anderen Sensorsystems (14) befindet, und das Fehlersignal (Fdj, Fvj, Fjk) ausgibt, wenn das Objekt (24) von dem anderen Sensorsystem (14) nicht geortet wird oder wenn die von diesem Sensorsystem (14) gemessenen Daten unter Berücksichtigung der Fehlergrenzen von den mit dem ersten Sensorsystem (12) gemessenen Daten abweichen.
8. Objekterfassungsvorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß die Fehlererkennungseinrichtung (32) für Objekte (24), die sich im Überlappungsbereich (22) mehrerer Sensorsysteme (12,14, 16) befinden, die von diesen Sensorsystemen gemessenen Daten entsprechend ihrer Verläßlichkeit wichtet und die einander entsprechenden gewichteten Daten zu Daten (di, vi, yi) kombiniert, die an das Assistenzsystem (44) ausgegeben werden.
9. Objekterfassungsvorrichtung nach einem der vorstehenden Ansprüche, dadurch gekennzeichnet, daß die Fehlererkennungseinrichtung (32) dazu ausgebildet ist, anhand der Art des festgestellten Widerspruches das Sensorsystem zu identifizieren, das den Fehler verursacht.
10. Objekterfassungsvorrichtung nach Anspruch 9, gekennzeichnet durch eine Korrektureinrichtung (34) zur Korrektur des festgestellten Fehlers durch Neujustierung oder Neukalibrierung. des Sensorsystems, das den Fehler verursacht, oder einer zu diesem Sensorsystem gehörenden Auswerteeinheit (26,28, 30).
11. Objekterfassungsvorrichtung nach Anspruch 9 oder 10, gekennzeichnet durch ein Statistikmodul (46) zur Aufzeichnung und Speicherung der festgestellten Fehler.
12. Objekterfassungsvorrichtung nach Anspruch 11, dadurch gekennzeichnet, daß das Statistikmodul (46) dazu ausgebildet ist, eine Fehlermeldung (F) an den Fahrer auszugeben, wenn ein von der Fehlererkennungseinrichtung (32) festgesteller Fehler mit einer bestimmten statistischen Häufigkeit auftritt.
Description:
Objekterfassungsvorrichtung Die Erfindung betrifft eine Objekterfassungsvorrichtung für Fahrer-Assistenzsysteme in Kraftfahrzeugen, mit mindestens zwei Sensorsystemen, die Daten über den Ort und/oder Bewegungszustand von Objekten in der Umgebung des Fahrzeugs messen und deren Detektionsbereiche einander überlappen.

Kraftfahrzeuge werden zunehmend mit Fahrer-Assistenzsystemen ausgestattet, die den Fahrer bei der Führung des Fahrzeugs unterstützen und entlasten. Ein Beispiel eines solchen Assistenzsystems ist ein sogenanntes ACC-System (Adaptive Cruise Control), das die Geschwindigkeit des Fahrzeugs automatisch auf eine vom Fahrer gewählte Wunschgeschwindigkeit regelt oder, sofern ein vorausfahrendes Fahrzeug vorhanden ist, die Geschwindigkeit so anpaßt, daß ein geeigneter, mit Hilfe eines Abstandssensors überwachter Abstand zu dem vorausfahrenden Fahrzeug eingehalten wird. Andere Beispiele für Fahrer-Assistenzssysteme sind Kollisionswarngeräte, automatische Spurführungssysteme (LKS ; Lane Keeping System), die Fahrbahnmarkierungen erkennen und das Fahrzeug durch Eingriff in die Lenkung automatisch in der Spurmitte halten, sensorgestützte Einparkhilfen und dergleichen. All diese Assistenzsysteme benötigen ein Sensorsystem, mit dem Informationen über die Umgebung des Fahrzeugs erfaßt werden können, sowie Auswerteeinheiten, mit denen diese Informationen geeignet ausgewertet und interpretiert werden können.

Insbesondere müssen diese Einrichtungen in der Lage sein, Objekte in der Umgebung des Fahrzeugs, beispielsweise andere Fahrzeuge und sonstige Hindernisse zu detektieren und Daten zu erfassen, die den Ort und ggf. den Bewegungszustand dieser Objekte kennzeichnen. Die Sensorsysteme und die zugehörigen Auswerteeinheiten sollen deshalb zusammenfassend als Objekterfassungsvorrichtung bezeichnet werden.

Beispiele für Sensorsysteme, die in solchen Objekterfassungsvorrichtungen eingesetzt werden, sind Radarsysteme und ihre lichtoptischen Gegenstücke, sogenannten Lidar-Systeme, sowie Stereo-Kamerasysteme. Mit Radarsystemen kann durch Auswertung der Laufzeit des Radarechos der Abstand des Objekts längs der Sichtlinie gemessen werden. Durch Auswertung der Dopplerverschiebung des Radarechos kann auch die Relativgeschwindigkeit des Objekts auf der Sichtlinie direkt gemessen werden. Mit einem richtungsensitiven Radarsystem, beispielsweise einem Mehrstrahlradar ist es auch möglich, Richtungsdaten über die Objekte zu erfassen, beispielsweise den Azimutwinkel relativ zu einer durch die Justierung des Radarsensors definierten Bezugsachse. Mit Stereo-Kamerasystemen können Richtungsdaten und, durch Auswertung der Parallaxe, auch Abstandsdaten gewonnen werden. Durch Auswertung der von diesen Sensorsystemen direkt gemessenen Rohdaten können Daten berechnet werden, die den Abstand des Objekts in Fahrtrichtung sowie den Querversatz des Objektes relativ zur Fahrbahnmitte oder zur augenblicklichen Geradeaus-Richtung des Fahrzeugs angeben.

Da all diese bekannten Sensorsysteme ihre besonderen Stärken und Schwächen bei der Erfassung der benötigten Meßdaten haben, ist es zweckmäßig, mehrere Sensorsysteme zu verwenden, die einander ergänzen.

Bei ACC-Systemen ist es grundsätzlich bekannt, die gemessenen

Rohdaten einer Plausibilitätsauswertung zu unterziehen, um zu entscheiden oder zumindest Wahrscheinlichkeiten dafür anzugeben, ob es sich bei dem erfaßten Objekt um ein relevante Hindernis oder um ein irrelevantes Objekt, beispielsweise ein Verkehrsschild am Fahrbahnrand handelt. Unter Umständen kann die Unplausibilität der erfaßten Daten auch ein Indiz für einen Defekt des Sensorsystems ein.

Generell ist es jedoch mit den bekannten Objekterfassungsvorrichtungen nicht möglich, Fehljustierungen oder sonstige Defekte der Sensorsysteme, die die Funktionsfähigkeit des Assistenzsystems beeinträchtigen, sicher zu erkennen.

Aufgabe der Erfindung ist es deshalb, eine Objekterfassungsvorrichtung zu schaffen, mit der es möglich ist, Defekte der Sensorsysteme während des Betriebs genauer und zuverlässiger zu erkennen und so die Funktionssicherheit des Assistenzsystems zu verbessern.

Diese Aufgabe wird erfindungsgemäß gelöst durch eine Fehlererkennungseinrichtung, die die von den Sensorsystemen gemessenen Daten auf ihre Widerspruchsfreiheit prüft und bei Erkennung eines Widerspruchs ein Fehlersignal ausgibt.

Die Erfindung beruht auf der Überlegung, daß es bei mehreren Sensorsystemen mit einander überlappenden Detektionsbereichen immer wieder vorkommt, daß Objekte in dem Überlappungsbereich geortet werden. In diesem Fall liefern die unabhängig voneinander arbeitenden Sensorsysteme redundante Informationen, die eine Fehlererkennung während des laufenden Betriebs der Vorrichtung ermöglichen. Wenn die beteiligten Sensorsysteme korrekt arbeiten, müssen die von ihnen gelieferten Informationen innerhalb gewisser Fehlergrenzen miteinander kompatibel sein. Wenn dies nicht der Fall ist, wenn also die

Daten einander widersprechen, so kann daraus geschlossen werden, daß mindestens eines der beteiligten Sensorsysteme defekt ist, und es wird ein Fehlersignal ausgegeben. Dieses Fehlersignal kann im einfachsten Fall dazu benutzt werden, den Fahrer durch eine optische oder akustische Anzeige auf die Fehlfunktion hinzuweisen und ggf. eine Selbstabschaltung des Assistenzsystems auszulösen. Gemäß einer Weiterbildung der Erfindung kann jedoch mit Hilfe dieses Fehlersignals auch eine automatische Fehlerkorrektur vorgenommen werden.

Die Erfindung ermöglicht somit während des normalen Fahrbetriebs eine fortlaufende Selbstdiagnose der Objekterfassungsvorrichtung und damit eine wesentliche Verbesserung der Verkehrssicherheit des Assistenzsystems, das die Daten der Objekterfassungsvorrichtung benutzt.

Vorteilhafte Ausgestaltungen der Erfindung ergeben sich aus den Unteransprüchen.

In einer bevorzugten Ausführungsform weist die Objekterfassungsvorrichtung neben einem Sensorsystem für den Fernbereich, das beispielsweise durch ein 77GHz Radarsystem oder ein Lidarsystem gebildet wird, ein Sensorsystem für den Nahbereich auf, das eine kürzere Reichweite hat, dafür jedoch einen größeren Winkelbereich erfaßt, so daß tote Winkel im Nahbereich weitgehend vermieden werden. Das Sensorsystem für den Nahbereich kann ebenfalls durch ein Radarsystem oder durch ein Lidarsystem oder auch durch ein Video-Sensorsystem, beispielsweise ein Stereo-Kamerasystem mit zwei elektronischen Kameras gebildet werden.

In einer modifizierten Ausführungsform können drei voneinander unabhängige Sensorsysteme vorhanden sein, deren Detektionsbereiche einen gemeinsamen Überlappungsbereich aufweisen. In diesem Fall besteht bei Objekten, die sich in dem

gemeinsamen Überlappungsbereich befinden, über die Fehlererkennung hinaus eine einfache Möglichkeit, durch "Mehrheitsentscheidung"das fehlerhafte Sensorsystem zu identifizieren und ggf. die Daten, die Justierung oder die Kalibrierung des fehlerhaften Systems zu korrigieren.

Auch bei Ausführungsformen mit nur zwei Sensorsystemen ist unter bestimmten Umständen eine automatische Identifizierung des fehlerhaften Systems sowie eine automatische Fehlerkorrektur möglich, insbesondere durch eine Plausibilitätsauswertung unter Berücksichtigung der jeweiligen Besonderheiten der physikalischen Meßprinzipien, die bei den beteiligten Sensorsystemen eingesetzt werden. Zum Beispiel ist mit Radar-und Lidar-Systemen eine relativ genaue Abstandsmessung möglich, während die Abstandsmessung mit Hilfe eines Stereo-Kamerasystems insbesondere bei größeren Abständen mit größeren Fehlertoleranzen behaftet ist und kritisch von der Kamerajustierung abhängt. Im Fall einer Diskrepanz spricht deshalb eine hohe Wahrscheinlichkeit für einen Fehler in dem Stereo-Kamerasystem. Umgekehrt erlaubt ein Videosystem eine relativ genaue Messung des Querversatzes eines vorausfahrenden Fahrzeugs, während die Querversatzmessung mit Hilfe eines Radar-oder Lidar-Systems kritisch von der Justierung des Radar-bzw. Lidarsensors abhängig ist. In diesem Fall spricht eine Diskrepanz daher eher für einen Defekt im Radar-oder Lidarsystem.

In der Praxis wird es sich bei dem Bereich, in dem die Detektionsbereiche der Sensorsysteme überlappen, um einen Bereich handeln, der für das Assistenzsystem von besonderer Relevanz ist. Beispielsweise wird man bei einem ACC-System die Sensorsysteme für den Nahbereich und den Fernbereich vorzugsweise so auslegen, daß sie sich in dem Abstandsbereich überlappen, der dem typischen Sicherheitsabstand zu. einem vorausfahrenden Fahrzeug entspricht. In diesem Fall läßt sich

eine automatische Fehlerkorrektur bzw.. eine Verbesserung der Meßgenauigkeit auch dadurch erreichen, daß die von den verschiedenen Sensorsystemen gelieferten Daten entsprechend ihrer jeweiligen Verläßlichkeit gewichtet und dann zu einem Endergebnis kombiniert werden.

Gemäß einer Weiterbildung der Erfindung ist es zweckmäßig, die von der Fehlererkennungseinrichtung gelieferten Fehlersignale zusammen mit den zugehörigen, einander widersprechenden Meßdaten zu speichern und so eine Fehlerstatistik zu erstellen, die bei der Reparatur oder Wartung der Objekterfassungsvorrichtung die Diagnose erleichtert.

Im folgenden werden Ausführungsbeispiele der Erfindung anhand der Zeichnung näher erläutert.

Es zeigen : Fig. 1 eine schematische Darstellung der Detektionsbereiche von mehreren Sensorsystemen, die an einem Kraftfahrzeug installiert sind ; Fig. 2 ein Blockdiagramm einer Objekterfassungsvorrichtung gemäß der Erfindung ; und Fig. 3 eine Skizze zur Erläuterung der Konsequenzen von Fehlerjustierungen verschiedener Sensorsysteme.

Figur 1 zeigt schematisch in der Draufsicht die Frontpartie eines Kraftfahrzeugs 10, das mit drei unabhängig voneinander arbeitenden Sensorsystemen ausgerüstet ist, nämlich einem Fernbereichsradar 12, einem Nahbereichsradar 14 und einem Videosystem, das durch zwei Kameras 16L und 16R gebildet wird.

Das Fernbereichsradar 12 hat. einen Detektionsbereich 18 mit einer Reichweite von beispielsweise 150 m und einem Erfassungswinkel von 15°, während das Nahbereichsradar 14 einen Detektionsbereich 20 mit einer Reichweite von beispielsweise 50 m und einem Erfassungswinkel von 40° aufweist. Zwischen diesen

Detektionsbereichen 18,20, die in der Zeichnung nicht maßstäblich dargestellt sind, gibt es einen Überlappungsbereich 22. Der Detektionsbereich des durch die Kameras 16L, 16R gebildeten Videosystems, das zusammenfassend mit dem Bezugszeichen 16 bezeichnet. werden soll, ist in der Zeichnung nicht dargestellt, schließt jedoch (bei guten Sichtbedingungen) den Überlappungsbereich 22 ein. Ein Objekt 24, das sich in diesem Überlappungsbereich 22 befindet, kann daher von allen drei Sensorsystemen erfaßt werden.

Der Detektionsbereich 18 des Fernbereichsradars 12 ist symmetrisch zu einer Bezugsachse 18A, die-bei korrekter Justierung des Radarsensors-parallel zu einer Hauptachse H verläuft, die in Längsrichtung durch die Mitte des Fahrzeugs 10 verläuft. Entsprechend ist der Detektionsbereich 20 des Nahbereichsradars 14 symmetrisch zu einer Bezugsachse 20A, die ebenfalls zu der Hauptachse H und zu der Bezugsachse 18A parallel ist.

Das Fernbereichsradar 12 mißt den Abstand dl zum Objekt 24 sowie die Relativgeschwindigkeit des Objekts 24 relativ zum Fahrzeug 10 und den Azimutwinkel jl des Objekts 24 relativ zur Bezugsachse 18A. Entsprechend mißt das Nahbereichsradar 14 den Abstand d2 zum Objekt 24, die Relativgeschwindigkeit des Objekts 24 längs der Sichtlinie vom Radarsensor zum Objekt sowie den Azimutwinkel j2 des Objekts 24 relativ zur Bezugsachse 20A.

Im Videosystem 16 werden die von den Kameras 16L, 16R aufgenommenen Bilder des Objekts. 24 elektronisch ausgewertet.

Die als solche bekannte Auswertungssoftware solcher Stereo- Kamerasysteme ist in der Lage, das Objekt 24 in den von beiden Kameras aufgenommenen Bildern zu identifizieren und anhand der parallaktischen Verschiebung die Lage des Objekts 24 in einem zweidimensionalen Koordinatensystem (parallel zur

Fahrbahnebene) zu bestimmen. Auf diese Weise liefert das Videosystem 16 den senkrechten Abstand d3 des Objekts 24 vom Fahrzeug 10 (d. h., von der Basislinie der Kameras 16L, 16R) sowie den Querversatz y3 des Objekts 24 gegenüber der Hauptachse H.

Die Ortskoordinaten des Objekts 24 lassen sich somit mit Hilfe der drei Sensorsysteme 12,14, 16 auf drei voneinander unabhängige Weisen bestimmen. Die von den Radarsystemen gemessenen Polarkoordinaten lassen sich durch eine einfache Koordinatentransformation in kartesische Koordinaten umrechnen, wie im gezeigten Beispiel durch das Koordinatenpaar (d3, y3) gebildet werden. Die drei unabhängig voneinander gemessenen Koordinatensätze können nun miteinander verglichen werden, und wenn diese Koordinaten einander widersprechen, so deutet dies darauf hin, daß eines der drei Sensorsysteme fehlerhaft arbeitet. Anhand des abweichenden Koordinatensatzes kann auch das fehlerhafte System identifiziert werden.

Durch zeitliche Ableitung des mit dem Videosystem 16 gemessenen Abstands d3 kann auch die Relativgeschwindigkeit 24 des Objekts bestimmt werden. Da die Sehstrahlen von den Radarsensoren zum Objekt 24, längs derer die Relativgeschwindigkeiten mit Hilfe. des Doppler-Effektes gemessen werden, nicht genau parallel zur Hauptachse H sind, werden die drei gemessenen Relativgeschwindigkeiten geringfügig voneinander abweichen. Bei den in der Praxis auftretenden Entfernungsverhältnissen ist diese Abweichung jedoch in der Regel vernachlässigbar.

Erforderlichenfalls kann sie durch Umrechnung auf kartesische Koordinaten korrigiert werden, so daß sich auch die gemessenen Geschwindigkeitsdaten miteinander vergleichen und gegeneinander abgleichen lassen.

Figur 2 zeigt ein Blockdiagramm einer Objekterfassungsvorrichtung, die das Fernbereichsradar 12, das

Nahbereichsradar 14, das Videosystem 16 sowie zugehörige Auswerteeinheiten 26, 28, 30 und weiterhin eine Fehlererkennungseinrichtung 32 und eine Korrektureinrichtung 34 umfaßt. Die Auswerteeinheiten 26,28, 30, die Fehlererkennungseinrichtung 32 und die Korrektureinrichtung 34 können durch elektronische Schaltungen, durch Mikrocomputer oder auch durch Softwaremodule in einem einzigen Mikrocomputer gebildet werden.

Die Auswerteeinheit 26 bestimmt aus den vom Fernbereichsradar 12 gelieferten Rohdaten die Abstände dli, die Relativgeschwindigkeiten vli und die Azimutwinkel jli sämtlicher Objekte, die sich im Erfassungsbereich 18 des Fernbereichsradars 12 befinden. Der Index i dient hier zur Identifizierung der einzelnen Objekte. Aus den Abstandsdaten und Azimutwinkeln berechnet die Auswerteeinheit 26 auch die Querversätze yli der verschiedenen Objekte.

Auf analoge Weise bestimmt die Auswerteeinheit 28 die Abstände d2i, die Relativgeschwindigkeit v2i, die Azimutwinkel j2i und die Querversätze y2i sämtlicher Objekte, die sich im Erfassungsbereich 20 des Nahbereichsradars 14 befinden.

Die Auswerteeinheit 30 bestimmt zunächst die Azimutwinkel jLi und jRi der von den Kameras 16L, 16R erfaßten Objekte. Diese Azimutwinkel sind analog zu den Azimutwinkeln jl und j2 in Figur 1 definiert, geben also den Winkel zwischen dem jeweiligen Sehstrahl zum Objekt und einer zur Hauptachse H parallelen Geraden an. Aus den Azimutwinkeln jLi und jRi werden anhand des bekannten Abstands zwischen Kameras 16L und 16R die Abstände d3i und die Querversätze y3i und-durch zeitliche Ableitung der Abstandsdaten-die Relativgeschwindigkeiten v3i berechnet.

Die von den drei Auswerteeinheiten 26, 28, 30 bestimmten

Abstände dli, d2i und d3i werden einem Abstandsmodul 36 der Fehlererkennungseinrichtung 32 zugeführt. Entsprechend werden die Relativgeschwindigkeitsdaten vli, v2i und v3i einem Geschwindigkeitsmodul 38 und die Querversatzdaten yli, y2i und y3i einem Querversatzmodul 40 zugeführt. Ein Winkelmodul 42 der Fehlererkennungseinrichtung 32 wertet die Azimutwinkel jli, j2i, jLi und jRi aus.

Die verschiedenen Module der Fehlererkennungseinrichtung 32 stehen miteinander in Verbindung und haben Zugriff auf sämtliche Daten, die der Fehlererkennungseinrichtung 28 von irgendeiner der Auswerteeinheiten zugeführt werden. Die in der Zeichnung dargestellten Datenverbindungen beziehen sich jeweils nur auf die Daten, deren Verarbeitung in dem betreffenden Modul im Vordergrund steht.

Wenn die Auswerteeinheit 26 den Abstand dil eines erfaßten Objektes (mit dem Index i) an das Abstandsmodul 36 meldet, so überprüft das Abstandsmodul 36 zunächst anhand des zugehörigen Querversatzes yli, ob sich das betreffende Objekt auch im Erfassungsbereich 20 des Nahbereichsradars 14 und/oder im Erfassungsbereich des Videosystems 16 befindet. Wenn dies der Fall ist, so überprüft das Abstandsmodul, ob Daten für dieses Objekt auch von den Auswerteeinheiten 28,30 verfügbar sind.

Die Identifizierung der Objekte wird dadurch erleichtert, daß das Abstandsmodul 36 die zeitliche Änderung der Abstandsdaten verfolgen kann. Wenn beispielsweise ein Objekt zunächst nur vom Fernbereichsradar 12 erfaßt wird und dann in den Erfassungsbereich 20 des Nahbereichsradars 14 eintritt, so ist zu erwarten, daß die Auswerteeinheit 28 das Auftreten eines neuen Objektes meldet, das dann mit dem verfolgten Objekt identifiziert werden kann. Zur Beseitigung von Mehrdeutigkeiten kann auch das Kriterium herangezogen werden, daß die von den verschiedenen Auswerteeinheiten übermittelten Ortskoordinaten für dasselbe Objekt zumindest grob übereinstimmen müssen.

Wenn Abstandsdaten für dasselbe Objekt von mehreren Sensorsystemen verfügbar sind, überprüft das Abstandsmodul 36, ob dieses Abstandsdaten innerhalb der jeweiligen Fehlergrenzen übereinstimmen. Dabei ist zu. berücksichtigen, daß die Fehlergrenzen ihrerseits variabel sind. Beispielsweise'sind die Querversatzdaten yli bei großem Objektabstand relativ ungenau, weil das Fernbereichsradar 12 nur ein begrenztes Winkelauflösungsvermögen hat und schon geringe Abweichungen im gemessenen Azimutwinkel zu einer beträchtlichen Abweichung des zugehörigen Querversatzes führen. Wenn die Abstandsdaten innerhalb der Fehlergrenzen übereinstimmen, wird der übereinstimmende Wert di an ein nachgeschaltetes Assistenzsystem 44, beispielsweise ein ACC-System, übermittelt.

Bei dem ausgegebenen Wert di kann es sich dabei um ein gewichtetes Mittel der Abstandsdaten dli, d2i und d3i handeln, wobei die Gewichte um so größer sind, je verläßlicher die Daten des betreffenden Sensorsystems sind.

Die von den Auswerteeinheiten 28 und 30 übermittelten Abstandsdaten d2i und d3i werden vom Abstandsmodul 36 in entsprechender Weise ausgewertet wie die Daten dli von der Auswerteeinheit 26. Wenn also beispielsweise ein Objekt zunächst nur vom Nahbereichsradar 14 erfaßt wird und dann in den Erfassungsbereich 18 des Fernbereichsradars 12 einwandert, so verfolgt das Abstandsmodul 36 zunächst die Änderung der von der Auswerteeinheit 28 eintreffenden Daten und überprüft dann, ob zum erwarteten Zeitpunkt auch entsprechende Daten von der Auswerteeinheit 26 eintreffen.

Wenn die erwarteten Daten von einer der Auswerteeinheiten 26, 28,30 ausbleiben, d. h., wenn ein Sensorsystem kein Objekt erfaßt, obwohl sich dieses Objekt nach den Daten der anderen Systeme zu urteilen im Erfassungsbereich befinden müßte, so gibt das Abstandsmodul 36 ein Fehlersignal Fdj aus. Der Index j

identifiziert hier das Sensorsystem, von dem keine Daten erhalten wurden. Somit läßt das Fehlersignal Fdj erkennen, daß das betreffende Sensorsystem möglicherweise ausgefallen oder "blind"ist.

Wenn das Abstandsmodul 36 zwar alle erwarteten Abstandsdaten enthält, diese Daten jedoch um mehr als die Fehlergrenzen voneinander abweichen, so wird ebenfalls das Fehlersignal Fdj ausgegeben. In diesem Fall gibt das Fehlersignal Fdj auch an, von welchen Sensorsystemen die abweichenden Daten erhalten wurden und wie groß die Abweichung ist.

Sofern von mindestens zwei Sensorsytemen Abstandsdaten vorliegen, die innerhalb der Fehlergrenzen überreinstimmen, kann aus diesen Daten der Abstandswert di gebildet und an das Assistenzsystem 44 ausgegeben werden, obgleich ein Fehler festgestellt und das Fehlersignal Fdj erzeugt wurde.

Die Arbeitsweise des Geschwindigkeitsmoduls 38 ist der oben beschriebenen Arbeitsweise des Abstandsmoduls 36 analog, nur das hier nicht die Abstandsdaten, sondern die Geschwindigkeitsdaten vli, v2i und v3i miteinander abgeglichen werden, um daraus einen Geschwindigkeitswert vi zu bilden, der an das Assistenzsystem 44 ausgegeben wird, und/oder ein Fehlersignal Fvj auszugeben, das auf eine Diskrepanz zwischen den gemessenen Relativgeschwindigkeiten hinweist.

Auch die Arbeitsweise des Querversatzmoduls 40 ist weitgehend der oben beschriebenen Arbeitsweise des Abstandsmoduls 36 und des Geschwindigkeitsmoduls 38 analog. Allerdings ist hier im gezeigten Beispiel keine Ausgabe eines Fehlersignals vorgesehen, weil es sich bei den Querversatzdaten lediglich um abgeleitete Daten handelt, die aus den gemessenen Azimutwinkeln berechnet werden, so daß für die Fehlererkennung primär auf die Azimutwinkel abgestellt werden sollte.

Dementsprechend werden die Azimutwinkel jli, j2i, jLi und jRi im Winkelmodul 42 gesondert abgeglichen. Bei dem Vergleich dieser Azimutwinkel sind natürlich die Abweichungen zu berücksichtigen, die sich für ein gegebenes Objekt zwangsläufig aus dem Objektabstand und den unterschiedlichen Positionen der betreffenden Sensoren oder Kameras auf der Basislinie ergeben.

Wenn unter Berücksichtigung dieser Abweichungen eine Diskrepanz verbleibt, die die Fehlergrenzen übersteigt, wird ein Fehlersignal Ffk ausgegeben. Der Index k (k = 1-4) identifiziert in diesem Fall die Kamera 16L oder 16R bzw. den Radarsensor, deren oder dessen Azimutwinkel nicht zu den übrigen Azimutwinkeln paßt. Wenn trotz der festgestellten Diskrepanz eine hinreichend verläßliche Bestimmung des Querversatzes möglich ist, wird ein entsprechender Wert yi für den Querversatz vom Querversatzmodul 40 an das Assistenzsystem 44 ausgegeben.

Die Fehlersignale Fdj, Fvj und Ffk werden im gezeigten Beispiel der Korrektureinrichtung 34 zugeführt. Sofern sich aus den Fehlersignalen mit hinreichender Sicherheit ergibt, welches der drei Sensorsysteme für die Diskrepanz verantwortlich ist, und sofern sich aus der Art und Größe des festgestellten Fehlers ergibt, daß dieser Fehler sich durch eine Neukalibrierung des betreffenden Sensorsystems korrigieren läßt, so wird ein Korrektursignal K an die zugehörige Auswerteeinheit 26,28 oder 30 ausgegeben. Wahlweise kann das Korrektursignal auch direkt an das Fernbereichsradar 12, das Nahbereichsradar 14 oder das Videosystem 16 ausgegeben werden.

Ein Beispiel für einen systematischen Fehler, der sich durch eine Neukalibrierung korrigieren läßt, ist eine Fehljustierung eines Radarsensors oder einer Kamera, die zu einem Verschwenken der betreffenden Bezugsachse, z. B. 18A oder 20A, und damit zu einer fehlerhaften Messung des Azimutwinkels führt. In diesem

Fall kann die Kalibrierung in der betreffenden Auswerteeinheit so verändert werden, daß die Fehljustierung korrigiert wird und man wieder den richtigen Azimutwinkel erhält. Zwar sollte die Fehljustierung dennoch bei der nächsten Reparatur behoben werden, da die Fehljustierung auch zu einer unerwünschten Veränderung des Erfassungsbereiches führt, doch kann durch die Neukalibrierung die Funktionsfähigkeit des Systems einstweilen erhalten werden.

Die Korrektureinrichtung 34 weist im gezeigten Beispiel ein Statistikmodul 46 auf, das die während des Betriebs der Vorrichtung aufgetretenen Fehlersignale Fdj, Fvj und Fjk speichert und so Art und Größe aller aufgetretenen Fehler dokumentiert. Diese Daten stehen dann bei einer Reparatur oder Wartung der Vorrichtung zur Diagnosezwecken zur Verfügung.

Außerdem hat das Statistikmodul 46 im gezeigten Beispiel die Funktion, zu entscheiden, ob ein Fehler automatisch korrigiert werden kann oder ob ein nicht behebbarer Fehler vorliegt und eine optische oder akustische Fehlermeldung F an den Fahrer ausgegeben werden muß, um ihn auf die Fehlfunktion hinzuweisen.

Beispielsweise wird die Fehlermeldung F ausgegeben werden, wenn die von der Fehlerkorrektureinrichtung 28 erhaltenen Signale einen Totälausfall eines der Sensorsysteme anzeigen. Die Funktionen des Statistikmoduls 46 bieten dabei die Möglichkeit, nicht sofort bei einer nur einmal oder sporadisch auftretenden Diskrepanz die Fehlermeldung F auszugeben, sondern die Fehlermeldung nur dann auszugeben, wenn Diskrepanzen derselben Art mit einer gewissen Häufigkeit auftreten. Auf diese Weise wird die Robustheit der Vorrichtung beträchtlich gesteigert.

In Figur 3 ist an Beispielen illustriert, wie sich eine Fehljustierung eines Sensors auf das Meßergebnis auswirkt.

Wenn beispielsweise infolge einer Fehljustierung des Fernbereichsradars 12 die Hauptachse 18A um den Winkel Dj

verschwenkt wird, so ist der gemessene Azimutwinkel jl um diesen Winkel zu groß, und das Fernbereichsradar 12"sieht"das Objekt 24 nicht in der tatsächlichen Position, sondern in der gestrichelt eingezeichneten Position 24'. Hieraus ergibt sich ein Fehler Dyl für den gemessenen Querversatz. Dieser Fehler ist um so größer, je weiter das Objekt 24 vom Fahrzeug 10 entfernt ist.

Wenn dagegen die linke Kamera 16L des Videosystems eine Fehljustierung von derselben Größe aufweist, so ist der zugehörige Azimutwinkel jL um dieselbe Winkelabweichung Dj verfälscht, wie in Figur 3 durch einen strichpunktiert eingezeichneten Sehstrahl S angegeben wird. Das Videosystem 16 sieht dann das Objekt 24 am Schnittpunkt der Sehstrahlen der beiden Kameras, also in der Position 24''. Man erkannt, daß in diesem Fall der für den Querversatz gemessene Fehler Dy3 wesentlich kleiner ist. Andererseits führt aber die Fehljustierung der Kamera 16L zu einem beträchtlichen Fehler Dd3 bei der Messung des Abstands.

Diese Zusammenhänge lassen sich bei der beschriebenen Vorrichtung zur automatischen Fehlerkorrektur ausnutzen, und zwar selbst dann, wenn nur zwei Sensorsysteme vorhanden sind.

Wenn beispielsweise eine Fehljustierung des Fernbereichsradars 12 vorliegt, so erhält man bei einem Abgleich der Querversatzdaten des Fernbereichsradars 12 und des Videosystems 16 eine deutliche Diskrepanz Dyl, während die mit denselben Systemen gemessenen Abstandsdaten im wesentlichen konsistent sind. Dies läßt darauf schließen, daß der Fehler auf eine Fehljustierung des Radarsystems und nicht auf eine Fehljustierung einer Kamera zurückzuführen ist. Aus der gemessenen Größe des Fehlers kann sogar die Fehljustierung quantitativ bestimmt und durch Neukalibrierung des Radarsensors bzw. der zugehörigen Auswerteeinheit 26 korrigiert werden.

Wenn dagegen eine Fehljustierung der Kamera 16L vorliegt, so ist dies an einer großen Diskrepanz Dd3 der Abstandsdaten bei weitgehender Konsistenz der Querversatzdaten zu erkennen-In diesem Fall kann der Fehler durch eine Neukalibrierung des Videosystems korrigiert werden.

Im Fall von widersprüchlichen Meßergebnissen können für die Entscheidung, welches der beteiligten Sensorsysteme defekt ist, auch andere Kriterien herangezogen werden, insbesondere auch in den Fällen, in denen für das Objekt nur Daten von zwei Sensorsystemen vorliegen oder überhaupt nur zwei Sensorsysteme am Fahrzeug vorhanden sind.

Wenn zum Beispiel, wie in Figur 3, der Querversatz des Objektes 24 gegenüber der Bezugsachse 18A nicht 0 ist, so ist der Azimutwinlcel jl annähernd umgekehrt proportional zum Objektabstand. In diesem Fall ist somit die Änderungsrate des Azimutwinkels jl von der Relativgeschwindigkeit des Objekts abhängig, die mit Hilfe des Radarsystems direkt gemessen werden kann. Wenn sich aber das Objekt 24 tatsächlich auf der Hauptachse 18A befindet und der Querversatz nur durch eine Fehljustierung Dj des Sensorsystems vorgetäuscht wird, so ist der gemessene (scheinbare) Azimutwinkel vom Abstand und von der Relativgeschwindigkeit unabhängig. Entsprechend gibt es auch bei einem tatsächlich bestehenden Querversatz des Objekts eine Diskrepanz zwischen der gemessenen und der anhand der Relativgeschwindigkeit theoretisch vorhergesagten Änderungsrate des Azimutwinkels. Diese Diskrepanz läßt auf eine Fehljustierung des Sensorsystems schließen.

Bei dem Videosystem 16 besteht außerdem die Möglichkeit, die abstandsabhängige Änderung der scheinbaren Größe des Objekts 24 zu messen. Diese scheinbare Größenänderung ist direkt proportional zur Relativgeschwindigkeit und annähernd umgekehrt

proportional zum Abstand. Ein Fehler bei der Abstandsmessung, der durch eine Fehljustierung einer Kamera verursacht wird, ist dann daran zu erkennen, daß die scheinbare Größenänderung nicht zu der gemessenen Abstandsänderung paßt.

Da mit Hilfe des Kamerasystems 16 auch die Art des Objektes, beispielsweise ein Pkw oder ein Lkw, erkannt werden kann und die typische tatsächliche Größe solcher Objekte zumindest annähernd bekannt ist, kann auch überprüft werden, ob der mit dem Kamerasystem 16 gemessene Abstand des Objekts mit der gemessenen scheinbaren Größe des Objekts kompatibel ist.

Wenn mit Hilfe des Kamerasystems 16 auch Farbahnmarkierungen erkannt werden, kann auch diese Information für die automatische Fehlererkennung und Fehlerkorrektur herangezogen werden. Insbesondere läßt sich anhand der erkannten Fahrbahnmarkierungen der Querversatz des eigenen Fahrzeugs relativ zur Fahrbahnmitte erkennen. Es ist zu erwarten, daß dieser Querversatz im statistischen Mittel den Wert 0 hat. Wenn die Auswertung im Statistikmodul 46 zeigt, daß die gemessene Querposition des eigenen Fahrzeugs dauernd nach einer Richtung von der Fahrbahnmitte'abweicht, so deutet dies auf eine Fehljustierung einer oder beider Kameras hin. Dies gilt natürlich erst recht, wenn der mit dem Kamerasystem gemessene Querversatz eines Objektes im gleichen Sinne von dem mit einem anderen Sensorsystem gemessenen Querversatz abweicht.