Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
DISTANCE MEASUREMENT BY MEANS OF A CAMERA SENSOR
Document Type and Number:
WIPO Patent Application WO/2012/152746
Kind Code:
A1
Abstract:
The invention relates to a distance-determining method by means of a camera sensor, wherein a distance between the camera sensor and a target object is determined on the basis of camera information, which method is defined by the fact that the camera information comprises a spatial extent of the region covered by the target object on a light sensor in the camera sensor.

Inventors:
STAEHLIN ULRICH (DE)
Application Number:
PCT/EP2012/058354
Publication Date:
November 15, 2012
Filing Date:
May 07, 2012
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CONTINENTAL TEVES AG & CO OHG (DE)
STAEHLIN ULRICH (DE)
International Classes:
G08G1/16; G01B11/02; G01C3/06; G06K9/00; G06T7/00
Domestic Patent References:
WO2010007392A12010-01-21
WO2008080951A12008-07-10
Foreign References:
DE102009012917A12009-09-24
DE102008042631A12010-04-08
DE102006005512A12006-08-10
EP2416115A12012-02-08
DE102007048809A12008-07-10
Other References:
BRAUCKMANN M E ET AL: "Towards All Around Automatic Visual Obstacle Sensing for Cars", 19941024; 19941024 - 19941026, 24 October 1994 (1994-10-24), pages 79 - 84, XP010258310
Attorney, Agent or Firm:
CONTINENTAL TEVES AG & CO. OHG (DE)
Download PDF:
Claims:
Patentansprüche

1. Abstandsbestimmungsverfahren mittels eines Kamerasensors, wobei auf Basis einer Kamerainformation ein Abstand des Kamerasensors zu einem Zielobjekt bestimmt wird, dadurch gekennzeichnet,

dass die Kamerainformation eine räumliche Erstreckung des vom Zielobjekt auf einem Lichtsensor im Kamerasensor bedeckten Bereichs umfasst.

2. Verfahren nach Anspruch 1,

dadurch gekennzeichnet,

dass die Kamerainformation, welche die räumliche Erstre¬ ckung des vom Zielobjekt auf einem Lichtsensor im Kamerasensor bedeckten Bereichs umfasst, mit einer Information über die tatsächliche räumliche Erstreckung des Zielob¬ jekts verknüpft wird.

3. Verfahren nach mindestens einem der Ansprüche 1 und 2, dadurch gekennzeichnet,

dass der Kamerasensor ein Monokamerasensor ist.

4. Verfahren nach mindestens einem der Ansprüche 1 und 2, dadurch gekennzeichnet,

dass der Kamerasensor ein Stereokamerasensor ist.

5. Verfahren nach mindestens einem der Ansprüche 1 bis 4, dadurch gekennzeichnet,

dass die Kamerainformation die räumliche Erstreckung des vom Zielobjekt auf dem Lichtsensor im Kamerasensor bedeckten Bereichs entlang einer Horizontalen umfasst.

6. Verfahren nach mindestens einem der Ansprüche 1 bis 5, dadurch gekennzeichnet,

dass die Kamerainformation die räumliche Erstreckung des vom Zielobjekt auf dem Lichtsensor im Kamerasensor bedeckten Bereichs entlang einer Vertikalen umfasst

7. Verfahren nach mindestens einem der Ansprüche 1 bis 6, dadurch gekennzeichnet,

dass die Kamerainformation eine Fläche des vom Zielobjekt auf dem Lichtsensor im Kamerasensor bedeckten Bereichs umfasst .

8. Verfahren nach mindestens einem der Ansprüche 1 bis 7, dadurch gekennzeichnet,

dass die Information über die tatsächliche räumliche Er¬ streckung des Zielobjekts die räumliche Erstreckung ent¬ lang der Horizontalen und/oder entlang der Vertikalen und/oder die Querschnittsfläche des Zielobjekts umfasst.

9. Verfahren nach mindestens einem der Ansprüche 1 bis 8, dadurch gekennzeichnet,

dass der Lichtsensor ein CCD-Sensorchip (Charge Coupled Device) oder ein CMOS-Sensorchip (Complementary Metal Oxide Semiconductor) ist.

10. Verfahren nach mindestens einem der Ansprüche 1 bis 9, dadurch gekennzeichnet,

dass aus den räumlichen Erstreckungen des vom Zielobjekt auf dem Lichtsensor bedeckten Bereichs ein Verhältnis der Erstreckungen entlang der Horizontalen und der Vertikalen und/oder der insgesamt bedeckten Fläche gebildet wird.

11. Verfahren nach Anspruch 10,

dadurch gekennzeichnet,

dass mittels des Verhältnisses der Erstreckungen das Ziel¬ objekt einer Objektklasse zugeordnet wird.

12. Verfahren nach Anspruch 11,

dadurch gekennzeichnet,

dass die Objektklasse das Zielobjekt als einer oder mehre¬ ren der folgenden Klassen zugehörig klassifiziert: Fahrzeugmarke, Fahrzeugmodell, Fußgänger oder Fahrradfahrer.

13. Verfahren nach mindestens einem der Ansprüche 1 bis 12,

dadurch gekennzeichnet,

dass eine zusätzliche Information über das Zielobjekt die Bewegungsrichtung des Zielobjekts relativ zum Kamerasensor und/oder eine Positionsinformation des Zielobjekts um- fasst, wobei die Positionsinformation insbesondere auf ei¬ nem globalen Navigationssatellitensystem basiert.

14. Verfahren nach mindestens einem der Ansprüche 1 bis 13,

dadurch gekennzeichnet,

dass die Information über die tatsächliche räumliche Er- streckung des Zielobjekts und/oder die zusätzliche Infor¬ mation über das Zielobjekt mittels Fahrzeug-zu-X- Kommunikation erfasst wird.

15. Verfahren nach Anspruch 8,

dadurch gekennzeichnet, dass die Fahrzeug-zu-X-Kommunikation auf Basis mindestens einer der folgenden Verbindungsarten Informationen austauscht :

- WLAN-Verbindung, insbesondere nach IEEE

802.11,

ISM-Verbindung (Industrial, Scientific, Medical Band) ,

Infrarotverbindung und

- Mobilfunkverbindung.

16. Verfahren nach mindestens einem der Ansprüche 1 bis 15,

dadurch gekennzeichnet,

dass der mittels der Kamerainformation zu einem Zielobjekt bestimmte Abstand mindestens einem Fahrerassistenzsystem zur Verfügung gestellt wird.

17. Verfahren nach mindestens einem der Ansprüche 1 bis 16,

dadurch gekennzeichnet,

dass die Information über die tatsächliche räumliche Er- streckung des Zielobjekts und/oder die zusätzliche Infor¬ mation über das Zielobjekt mittels eines Vergleichs mit der Kamerainformation und/oder der zusätzlichen Kamerainformation validiert wird.

18. Verfahren nach mindestens einem der Ansprüche 1 bis 17,

dadurch gekennzeichnet,

dass ein Zielobj ekterkennungsalgorithmus des Kamerasensors eine Erkennungsschwelle herabsetzt, wenn das Zielobjekt bereits mittels der Information über die tatsächliche räumliche Erstreckung des Zielobjekts einer Objektklasse zugeordnet wurde.

19. Abstandsbestimmungssystem, welches einen Abstand eines Kamerasensors zu einem Zielobjekt bestimmt, in welchem insbesondere ein Verfahren nach mindestens einem der Ansprüche 1 bis 18 durchgeführt wird, umfassend einen Kame¬ rasensor und eine Fahrzeug-zu-X-Kommunikationseinrichtung und/oder eine elektronische Speichereinrichtung,

dadurch gekennzeichnet,

dass der Kamerasensor eine Kamerainformation erfasst, welche eine räumliche Erstreckung des vom Zielobjekt auf ei¬ nem Lichtsensor im Kamerasensor bedeckten Bereichs um- fasst .

20. System nach Anspruch 19,

dadurch gekennzeichnet,

dass auf der elektronischen Speichereinrichtung eine Objektklassenmatrix gespeichert ist, welche Verhältnisse von Erstreckungen entlang der Horizontalen und der Vertikalen und/oder der insgesamt bedeckten Fläche einer Vielzahl unterschiedlicher Objektklassen enthält.

Description:
Abstandsbestimmung mittels eines Kamerasensors

Die Erfindung betrifft ein Abstandsbestimmungsverfahren mittels eines Kamerasensors gemäß Oberbegriff von Anspruch 1 und ein Abstandsbestimmungssystem gemäß Oberbegriff von Anspruch 19.

Im Stand der Technik sind bereits unterschiedliche Sensor ¬ systeme zur Umfelderfassung und insbesondere zur Entfernungsmessung zu einem Zielobjekt bekannt. Die WO 2008/080951 offenbart in diesem Zusammenhang ein Fahrerassistenzsystem, welches z.B. mittels eines Radar- oder Lidarsensors eine Entfernung zu einem vorausfahrenden Fahrzeug ermittelt. Um trotz Fahrbahnunebenheiten und dadurch verursachten Neigungswinkeln des Eigenfahrzeugs eine Ausrichtung der Entfernungssensoren in Richtung des Vorausfahrzeugs zu gewährleis ¬ ten, ist eine Kamera vorgesehen, welche das Vorausfahrzeug erkennt und die Ausrichtung der Entfernungssensoren an die jeweilige Situation anpasst. Eine exakte Ausrichtung der Entfernungssensoren ist jedoch nur dann möglich, wenn die Kamera und der Entfernungssensor entweder auf gleicher Höhe im Fahrzeug angebracht sind oder aber mittels Triangulation, sofern der Abstand der Kamera zum Vorausfahrzeug bekannt ist. Aus diesem Grund wird gemäß der WO 2008/080951 die Ent ¬ fernung der Kamera zum Vorausfahrzeug anhand des Kamerabilds geschätzt. Die Anforderung an die Genauigkeit der Entfer ¬ nungsbestimmung darf dabei allerdings nur gering sein.

Die DE 10 2007 048 809 AI beschreibt ein Verfahren und eine Vorrichtung zur Erkennung von verdeckten Objekten im Stra- ßenverkehr. Dabei ermittelt ein Positionsbestimmungssystem mittels verschiedener Sensoren, wie beipielsweise GPS-Modul, Radarsensor, Lidarsensor oder Stereokamera, die Position des eigenen Fahrzeugs und die Positionen benachbarter Fahrzeuge. Durch die Verwendung einer Stereokamera ist sowohl eine Objekterkennung als auch eine vergleichsweise exakte Entfer ¬ nungsmessung ohne die Verwendung von zusätzlichen Entfernungssensoren möglich. Weiterhin wird ein Fahrzeug-zuFahrzeug-Kommunikationssystem offenbart, welches die vom eigenen Fahrzeug erfassten Umgebungsdaten an benachbarte Fahrzeuge übermittelt, so dass diese für sie selbst nicht sicht ¬ bare Objekte erfassen können. Zu jedem übermittelten Objekt gibt es eine Anzahl von Attributen, die entweder mittels der Sensorik bestimmt werden oder aus einer Look-Up-Tabelle ab ¬ gerufen werden. Das Fahrzeug-zu-Fahrzeug-

Kommunikationssystem übermittelt außerdem Fahrzeugparameter des eigenen Fahrzeugs wie z.B. die Fahrzeuglänge, die Fahr ¬ zeugbreite und den Fahrzeugtyp.

Der Nachteil dieser aus dem Stand der Technik bekannten Vorrichtungen und Verfahren besteht darin, dass zur präzisen Entfernungsmessung stets eigene Sensoren wie Radarsensoren, Lidarsensoren oder eine Stereokamera benötigt werden. Diese Sensoren sind jedoch mit zusätzlichem Kostenaufwand verbunden. Sofern eine Entfernungsbestimmung gemäß dem Stand der Technik mittels des Vergleichs von GPS-Positionsdaten vorgenommen wird, ist die ermittelte Entfernung nur sehr ungenau, da die zur Positionsbestimmung verwendeten globalen Navigationssatellitensysteme stets einer gewissen Ortstoleranz unterliegen. Auch die Verwendung einer Monokamera zum Schätzen einer Entfernung liefert nur sehr ungenaue Daten, welche für sicherheitsrelevante Anwendungen wie z.B. Bremseneingriffe nicht geeignet sind.

Die Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren und ein System vorzuschlagen, welche ohne die Verwendung gesonderter Entfernungssensoren eine zuverlässige und im Wesentlichen exakte Entfernungsmessung zu einem Zielobjekt ermöglichen.

Diese Aufgabe wird erfindungsgemäß durch das Abstandsbestim ¬ mungsverfahren gemäß Anspruch 1 und das Abstandsbestimmungs- system gemäß Anspruch 19 gelöst.

Das erfindungsgemäße Abstandsbestimmungsverfahren mittels eines Kamerasensors, demgemäß auf Basis einer Kamerainforma ¬ tion ein Abstand des Kamerasensors zu einem Zielobjekt be ¬ stimmt wird, zeichnet sich dadurch aus, dass die Kamerain ¬ formation eine räumliche Erstreckung des vom Zielobjekt auf einem Lichtsensor im Kamerasensor bedeckten Bereichs um- fasst. Der Vorteil dieses Verfahrens ist, dass zur Abstands ¬ bestimmung auf eine direkt von der Kamera erfasste Informa ¬ tion, nämlich die räumliche Erstreckung des Objekts auf dem Lichtsensor zurückgegriffen wird. Somit wird kein gesonderter Abstandsensor wie beispielsweise ein Radar- oder

Lidarsensor benötigt. Da eine Vielzahl von aktuellen Fahrzeugen ohnehin mit einem Kamerasensor ausgerüstet ist, kann durch das erfindungsgemäße Verfahren zur Abstandsbestimmung ohne zusätzlichen Kosten- und Herstellungsaufwand eine Viel ¬ zahl von Fahrerassistenzsystemen, wie z.B. eine intelligente Geschwindigkeits- und Abstandskontrolle, implementiert wer ¬ den . Bevorzugt ist es vorgesehen, dass die Kamerainformation, welche die räumliche Erstreckung des vom Zielobjekt auf ei ¬ nem Lichtsensor im Kamerasensor bedeckten Bereichs umfasst, mit einer Information über die tatsächliche räumliche Er ¬ streckung des Zielobjekts verknüpft wird. Durch die Verknüp ¬ fung der Erstreckung auf dem Lichtsensor mit einer Information über die tatsächliche Erstreckung kann auf einfache Weise mittels geometrischer Zusammenhänge der Abstand des Kamerasensors zum Zielobjekt berechnet werden.

Weiterhin ist es bevorzugt, dass der Kamerasensor ein Mono- kamerasensor ist. Da zur erfindungsgemäßen Abstandsbestimmung ausschließlich eine Kamerainformation über die räumliche Erstreckung auf dem Lichtsensor benötigt wird, ist keine zweite Kamera, wie in einem Stereokamerasensor, notwendig. Eine an sich bekannte, aber vergleichsweise umständliche Ab ¬ standsbestimmung mittels des Abgleichs der Bilder zweier Einzelkameras wie in einem Stereokamerasensor wird somit vermieden. Die Verwendung eines Monokamerasensors anstelle eines Stereokamerasensors reduziert zudem den Herstellungs ¬ aufwand und damit die Produktionskosten.

Gemäß einer weiteren bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass der Kamerasensor ein Stereokamerasensor ist. Das erfindungsgemäße Verfahren kann ohne zu ¬ sätzlichen Aufwand auch in einem Stereokamerasensor durchgeführt werden. So ist es etwa denkbar, dass ein an sich bekanntes Verfahren zur Abstandbestimmung mittels des Stereokamerasensors ausgeführt und mittels des erfindungsgemäßen Verfahrens validiert wird und umgekehrt. Gemäß einer weiteren bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass die Kamerainformation die räumliche Erstreckung des vom Zielobjekt auf dem Lichtsensor im Kamerasensor bedeckten Bereichs entlang einer Horizontalen umfasst. Die Abstandsbestimmung wird somit über die Breite des Zielobjekts durchgeführt, was den Vorteil mit sich bringt, dass in der Regel, sofern das Zielobjekt beispiels ¬ weise ein PKW ist, die in Fahrtrichtung größte erfassbare Ausdehnung zur Abstandsbestimmung genutzt wird. Die zwangsläufig mit jeder Messung einer physikalischen Größe einhergehende relative Ungenauigkeit ist damit besonders gering.

Außerdem ist es vorteilhaft, dass die Kamerainformation die räumliche Erstreckung des vom Zielobjekt auf dem Lichtsensor im Kamerasensor bedeckten Bereichs entlang einer Vertikalen umfasst. In diesem Fall wird die Abstandsbestimmung zusätzlich oder alternativ über die Höhe des Zielobjekts durchge ¬ führt. Sofern es sich beim Zielobjekt um einen LKW handelt, dessen räumliche Höhe in der Regel größer als seine räumli ¬ che Breite ist, kann somit eine noch genauere Abstandsbe ¬ stimmung durchgeführt werden.

Weiterhin ist es bevorzugt, dass die Kamerainformation eine Fläche des vom Zielobjekt auf dem Lichtsensor im Kamerasensor bedeckten Bereichs umfasst. Die auf dem Lichtsensor bedeckte Fläche ist in der Regel leicht bestimmbar, beispiels ¬ weise durch Abzählen der bedeckten Sensorzellen bei einem CCD-Sensor. Die bedeckte Fläche liefert eine zusätzliche In ¬ formation über das Zielobjekt, welche z.B. eine Überprüfung des mittels der Breite des Zielobjekts und/oder der Höhe des Zielobjekts bestimmten Abstands erlaubt. Somit ist eine Er- fassung und Validierung der Abstandsinformation über ein und denselben Sensor möglich.

In einer weiteren bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass die Information über die tatsächliche räumliche Erstreckung des Zielobjekts die räumliche Er- streckung entlang der Horizontalen und/oder entlang der Vertikalen und/oder die Querschnittsfläche des Zielobjekts um- fasst. Wie bereits beschrieben, erlaubt die Verknüpfung der Informationen über die Erstreckungen der im Kamerasensor bedeckten Bereiche mit den tatsächlichen räumlichen

Erstreckungen des Zielobjekts mittels geometrischer Zusammenhänge auf einfache Art und Weise eine Bestimmung des Ab- stands zwischen Kamerasensor und Zielobjekt. Je mehr Daten über tatsächliche räumliche Erstreckungen vorliegen und je mehr räumliche Erstreckungen des bedeckten Bereichs auf dem Lichtsensor zu Abstandsbestimmung genutzt werden, desto genauer und zuverlässiger kann das erfindungsgemäße Verfahren durchgeführt werden.

Weiterhin ist es vorteilhaft, dass der Lichtsensor ein CCD- Sensorchip (Charge Coupled Device) oder ein CMOS-Sensorchip (Complementary Metal Oxide Semiconductor) ist. Somit wird es auf einfache Weise und ohne zusätzlichen Aufwand möglich, den Lichtsensor elektronisch auszulesen. Besonders im Hinblick auf die elektronische Verarbeitung der vom Sensor er- fassten Bildinformationen ist dies von Vorteil.

Insbesondere ist es vorteilhaft, dass die Kamerainformation die Anzahl der vom Zielobjekt auf dem CCD-Sensorchip (Charge Coupled Device) oder dem CMOS-Sensorchip (Complementary Metal Oxide Semiconductor) bedeckten Detektorzeilen und/oder die Anzahl der vom Zielobjekt im Kamerasensor auf dem Lichtsensorchip bedeckten Detektorspalten und/oder die Anzahl der insgesamt bedeckten Detektorzellen umfasst. Bei einem CCD- Sensorchip oder einem CMOS-Sensorchip kann ein Maß für die Breite, die Höhe und die Fläche des bedeckten Bereichs auf einfache Weise durch Abzählen der Detektorspalten, Detektorzeilen bzw. der einzelnen Detektorzellen erfasst werden.

In einer weiteren bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass aus den räumlichen Erstreckungen des vom Zielobjekt auf dem Lichtsensor bedeckten Bereichs ein Verhältnis der Erstreckungen entlang der Horizontalen und der Vertikalen und/oder der insgesamt bedeckten Fläche gebildet wird. Dies erlaubt das Bestimmen von charakteristi ¬ schen Erstreckungsverhältnissen für unterschiedliche Arten von Zielobjekten und somit einen weiteren Zugewinn an Informationen über das Zielobjekt

In einer weiteren besonders bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass mittels des Verhältnisses der Erstreckungen das Zielobjekt einer Objektklasse zugeord ¬ net wird. Die Zuordnung zu einer Objektklasse erlaubt eine nähere Identifizierung des Zielobjekts und damit einherge ¬ hend die Möglichkeit, auf für diese Objektklasse charakte ¬ ristische, tatsächliche räumliche Erstreckungen zur Berech ¬ nung des Abstands zurückzugreifen, sofern diese nicht direkt vom Zielobjekt übermittelt werden.

Vorzugsweise zeichnet sich das Verfahren dadurch aus, dass die Objektklasse das Zielobjekt als einer oder mehreren der folgenden Klassen zugehörig klassifiziert: Fahrzeugmarke, Fahrzeugmodell, Fußgänger oder Fahrradfahrer. Dies erlaubt eine im Wesentlichen exakte Identifizierung bzw. Klassifizierung des Zielobjekts und damit verbunden eine im Wesent ¬ lichen individuelle Zuordnung zu einer Objektklasse. Somit können auf im Wesentlichen individuelle tatsächliche räumli ¬ che Erstreckungen des Zielobjekts zurückgegriffen werden, sofern diese nicht direkt vom Zielobjekt übermittelt werden.

Weiterhin ist es vorteilhaft, dass eine zusätzliche Kamera ¬ information eine Bewegungsrichtung des Zielobjekts relativ zum Kamerasensor umfasst. Die Erfassung der Bewegungsrichtung relativ zum Kamerasensor erlaubt eine Bestimmung der räumlichen Orientierung des Zielobjekts relativ zum Kamerasensor. Die Information über die räumliche Orientierung relativ zum Kamerasensor bietet den Vorteil, dass eine im Lichtsensor detektierte Breite bei nicht identischer Orientierung von Zielobjekt und Kamerasensor zurückgerechnet wer ¬ den kann auf die Breite bei identischer Orientierung. Somit kann etwa auch in einer Kurve, in der das Zielobjekt auf ¬ grund seiner anderen Position in der Kurve eine andere Orientierung als das nachfolgende Fahrzeug mit dem Kamerasensor aufweist, die der tatsächlichen räumlichen Breite entspre ¬ chende Bedeckung im Lichtsensor ermittelt werden.

Weiterhin ist es bevorzugt, dass eine zusätzliche Informati ¬ on über das Zielobjekt die Bewegungsrichtung des Zielobjekts relativ zum Kamerasensor und/oder eine Positionsinformation des Zielobjekts umfasst, wobei die Positionsinformation ins ¬ besondere auf einem globalen Navigationssatellitensystem basiert. Die zusätzliche Information kann dabei beispielsweise direkt vom Zielobjekt an das abstandsbestimmende Fahrzeug übermittelt werden. Somit ergibt sich der Vorteil, dass un ¬ abhängig vom Erkennen der Bewegungsrichtung des Zielobjekts durch den Kamerasensor des abstandsbestimmenden Fahrzeugs die Orientierung des Zielobjekts bekannt ist. Dies führt zu dem bereits beschriebenen Vorteil, dass eine im Lichtsensor detektierte Breite des Zielobjekts bei nicht identischer Orientierung von Zielobjekt und Kamerasensor zurückgerechnet werden kann auf die Breite bei identischer Orientierung. Die Positionsinformation über das Zielobjekt kann ebenfalls vom Zielobjekt übermittelt werden und ermöglicht eine Überprü ¬ fung der mittels des erfindungsgemäßen Verfahrens bestimmten Abstands, wobei eine exakte Überprüfung nicht möglich ist, da die Positionsbestimmung mittels globaler Navigationssatellitensysteme im Vergleich zum erfindungsgemäßen Verfahren mit einer vergleichsweise großen Ungenauigkeit behaftet ist. Das Erkennen eines im Bereich mehrerer Meter und somit sicherheitsrelevant falsch bestimmten Abstands ist dennoch möglich .

Bevorzugt ist es vorgesehen, dass die Information über die tatsächliche räumliche Erstreckung des Zielobjekts und/oder die zusätzliche Information über das Zielobjekt mittels Fahrzeug-zu-X-Kommunikation erfasst wird. Daraus ergibt sich der Vorteil, dass jedes Zielobjekt einen individuellen und daher optimal angepassten Datensatz tatsächlicher räumlicher Erstreckungen an das abstandsbestimmende Fahrzeug übertragen kann, wodurch eine präzise und zuverlässige Abstandsbestimmung möglich wird, da die zur Abstandsbestimmung notwendigen Ausgangsdaten das Zielobjekt exakt beschreiben.

In einer weiteren besonders bevorzugten Ausführungsform der Erfindung ist es vorgesehen, dass die Fahrzeug-zu-X- Kommunikation auf Basis mindestens einer der folgenden Verbindungsarten Informationen austauscht: - WLAN-Verbindung, insbesondere nach IEEE 802.11,

ISM-Verbindung (Industrial, Scientific, Medical Band) ,

Infrarotverbindung und

- Mobilfunkverbindung.

Diese Verbindungsarten bieten dabei unterschiedliche Vor- und Nachteile, je nach Gattung und Wellenlänge. WLAN- Verbindungen ermöglichen z.B. eine hohe Datenübertragungsra ¬ te. Eine Datenübertragung um ein Hindernis herum ist jedoch nur begrenzt möglich. ISM-Verbindungen hingegen bieten zwar eine geringere Datenübertragungsrate, erlauben es aber, auch Daten um ein Sichthindernis herum zu übertragen. Infrarotverbindungen wiederum bieten eine geringe Datenübertragungs ¬ rate, die bei fehlender Sichtverbindung zudem stark eingeschränkt wird. Mobilfunkverbindungen schließlich werden durch Sichthindernisse nicht beeinträchtigt und bieten eine gute Datenübertragungsrate. Dafür ist der Verbindungsaufbau vergleichsweise langsam. Durch die Kombination und gleichzeitige bzw. parallele Nutzung mehrerer dieser Verbindungs ¬ arten ergeben sich weitere Vorteile, da so die Nachteile einzelner Verbindungsarten ausgeglichen werden können.

Außerdem ist es vorteilhaft, dass der mittels der Kamerain ¬ formation zu einem Zielobjekt bestimmte Abstand mindestens einem Fahrerassistenzsystem zur Verfügung gestellt wird. Somit können Fahrerassistenzsysteme, welche beispielsweise Bremseneingriffe durchführen oder mittels Übernahme der Mo ¬ torsteuerung einen Abstand zum Vorausfahrzeug einregeln, ohne zusätzliche Abstandssensoren mit den zu ihrer Ausführung notwendigen Abstandsinformationen versorgt werden. Ebenso ist es auch denkbar, die Abstandsinformation anderen Fahrerassistenzsystemen zur Verfügung zu stellen, welche ggf. bei Unterschreiten eines sicherheitskritischen Mindestabstands eine Warnung an den Fahrer ausgeben. Diese beispielhafte Aufzählung von Fahrerassistenzsystemen ist nicht vollständig und kann beliebig erweitert werden, da der ermittelte Ab ¬ stand jedem Fahrerassistenzsystem und jedem Fahrzeugsystem zur Verfügung gestellt werden kann.

Zweckmäßigerweise ist es vorgesehen, dass die Information über die tatsächliche räumliche Erstreckung des Zielobjekts und/oder die zusätzliche Information über das Zielobjekt mittels eines Vergleichs mit der Kamerainformation und/oder der zusätzlichen Kamerainformation validiert wird. Somit ergibt sich der Vorteil, dass vor der Verarbeitung der beispielsweise mittels Fahrzeug-zu-X-Kommunikation erfassten Informationen bzw. zusätzlichen Informationen eine Validierung mittels des Kamerasensors durchgeführt werden kann. Da der Kamerasensor gemäß dem erfindungsgemäßen Verfahren ohnehin zur Abstandsbestimmung verwendet wird, ist damit eine Validierung ohne das Miteinbeziehen weiterer Sensoren möglich. Da auf dem Lichtsensor keine absoluten tatsächlichen Erstreckungen gemessen werden können, kann beispielsweise das Verhältnis der Erstreckungen auf dem Lichtsensor mit dem Verhältnis der vom Zielobjekt übertragenen tatsächlichen räumlichen Erstreckungen verglichen werden. Bei Übereinstimmung der Verhältnisse der Erstreckungen gilt die Information über die tatsächliche räumliche Erstreckung des Zielobjekts als validiert. Die Bewegungsrichtung des Zielobjekts relativ zum Kamerasensor kann von diesem hingegen direkt erfasst werden. Somit ist vorteilhafterweise auch eine Validierung der zusätzlichen Informationen über das Zielobjekt möglich. Außerdem ist es vorteilhaft, dass ein Zielobj ekterkennungs- algorithmus des Kamerasensors eine Erkennungsschwelle herab ¬ setzt, wenn das Zielobjekt bereits mittels der Information über die tatsächliche räumliche Erstreckung des Zielobjekts einer Objektklasse zugeordnet wurde. Hier zeigt sich ein weiterer Vorteil des erfindungsgemäßen Verfahrens, da die Informationen über das Zielobjekt dazu genutzt werden können, die Objekterkennung durch den Kamerasensor zu beschleunigen. Somit ergibt sich eine insgesamt beschleunigte

Umfelderfassung durch ein entsprechendes Fahrerassistenzsys ¬ tem.

Die vorliegende Erfindung betrifft weiter ein Abstandsbe- stimmungssystem, welches einen Abstand eines Kamerasensors zu einem Zielobjekt bestimmt und welches insbesondere das erfindungsgemäße Verfahren zur Abstandsbestimmung ausführt. Das System umfasst einen Kamerasensor und eine Fahrzeug-zu- X-Kommunikationseinrichtung und/oder eine elektronische Speichereinrichtung und zeichnet sich dadurch aus, dass der Kamerasensor eine Kamerainformation erfasst, welche eine räumliche Erstreckung des vom Zielobjekt auf einem Lichtsensor im Kamerasensor bedeckten Bereichs umfasst.

Es ist bevorzugt, dass auf der elektronischen Speichereinrichtung eine Objektklassenmatrix gespeichert ist, welche Verhältnisse von Erstreckungen entlang der Horizontalen und der Vertikalen und/oder der insgesamt bedeckten Fläche einer Vielzahl unterschiedlicher Objektklassen enthält. Somit verfügt das erfindungsgemäße System über die Möglichkeit, mit ¬ tels eines Abgleichs der Verhältnisse der Erstreckungen der auf dem Lichtsensor bedeckten Bereiche mit den auf der elektronischen Speichereinrichtung gespeicherten Verhältnissen von Erstreckungen ein Zielobjekt einer Objektklasse zuzuordnen. Die Zuordnung zu einer Objektklasse ist damit unabhängig von einer ggf. über Fahrzeug-zu-X-Kommunikation empfangenen Objektklasse oder von über Fahrzeug-zu-X- Kommunikation empfangenen tatsächlichen Erstreckungen. Es ergibt sich der Vorteil, dass die Abstandsbestimmung auch dann durchgeführt werden kann, wenn das Zielobjekt entweder keine zur Abstandsbestimmung notwendigen Informationen überträgt oder das abstandsbestimmende Fahrzeug keine entspre ¬ chenden Informationen empfängt, beispielsweise weil es keine Fahrzeug-zu-X-Kommunikationsmittel besitzt .

Weitere bevorzugte Ausführungsformen ergeben sich aus den Unteransprüchen und den nachfolgenden Beschreibungen von Ausführungsbeispielen anhand von Figuren.

Es zeigen

Fig. 1 eine räumliche Erstreckung des vom Zielobjekt auf dem Lichtsensor bedeckten Bereichs, die tatsächliche Erstreckung des Zielobjekts und den zugehörigen Strahlengang,

Fig. 2 einen Monokamerasensor, der das Zielobjekt anhand des Verhältnisses seiner räumlichen Erstreckungen klassifiziert und

Fig. 3 eine Verkehrssituation, in der das erfindungsgemäße Abstandsbestimmungsverfahren und Abstandsbe- stimmungssystem zum Einsatz kommen. In Fig. la ist eine beispielhafte und schematische Ausfüh ¬ rungsform des erfindungsgemäßen Verfahrens zu sehen. Abgebildet ist Kamerasensor 1, welcher Lichtsensor 2 und optische Linse 3 umfasst. Lichtsensor 2 und optische Linse 3 sind im Abstand 8 voneinander angeordnet. Im Sichtfeld von Kamerasensor 1 befindet sich Fahrzeug 4. Fahrzeug 4 ist der ¬ art orientiert, dass Kamerasensor 1 die Rückansicht von Fahrzeug 4 erfasst. Die Rückansicht von Fahrzeug 4 besitzt in der Horizontalen eine räumliche Erstreckung 5, was der Fahrzeugbreite entspricht. Über Strahlengang 6 wird auf Lichtsensor 2 eine Erstreckung 7 erzeugt, welche die Breite des bedeckten Bereichs auf Lichtsensor 2 angibt. Beispiels ¬ gemäß ist räumliche Erstreckung 5 von Fahrzeug 4 bekannt. Abstand 8 und Erstreckung 7 des von Fahrzeug 4 auf Lichtsen ¬ sor 2 bedeckten Bereichs sind ebenfalls bekannt bzw. erfass ¬ bar. Somit wird beispielsgemäß mittels eines einfachen geo ¬ metrischen Zusammenhangs der Abstand von Fahrzeug 4 zu Kame ¬ rasensor 1 ermittelt. Der beispielsgemäße geometrische Zu ¬ sammenhang ist in Fig. lb dargestellt. Länge 10 entspricht Abstand 8 in Fig. la, Länge 10' entspricht dem Abstand zwi ¬ schen Kamerasensor 1 und Fahrzeug 4. Länge 11 entspricht Er ¬ streckung 7 auf Lichtsensor 2 und Länge 11' entspricht Fahrzeugbreite 5. Längen 12 und 12' entsprechen Strahlengang 6. Mittels des Verhältnisses der Längen 10 zu 10' und 11 zu 11' wird nun beispielsgemäß Abstand 10' von Kamerasensor 1 zu Fahrzeug 4 bestimmt.

Fig. 2 zeigt Kamerasensor 1 mit Lichtsensor 2. In diesem Ausführungsbeispiel erfasst Kamerasensor 1 die Rückansicht von Fahrzeug 13. Räumliche Erstreckungen 14 und 15 längs der Horizontalen und der Vertikalen werden auf Lichtsensor 2 proportional abgebildet. Beispielsgemäß wird das Verhältnis der auf Lichtsensor 2 proportional abgebildeten Erstreckungen 14 und 15 gebildet. Aus einer Objektklassenmatrix auf einem elektronischen Speicher wird nun ein Verhältniswert gesucht, welcher dem aus Erstreckung 14 und Er- streckung 15 gebildeten Verhältniswert entspricht. Es ergibt sich eine Übereinstimmung mit dem Verhältniswert für einen LKW. Fahrzeug 13 wird somit aufgrund des Verhältnisses sei ¬ ner Erstreckungen 14 und 15 von Kamerasensor 1 als LKW erkannt .

Das in Fig. 3 dargestellte Ausführungsbeispiel zeigt Fahr ¬ zeug 16, welches auf Fahrbahnspur 19 beabstandet zu Fahrzeug 17 folgt. Beide Fahrzeuge verfügen beispielsgemäß über Fahr- zeug-zu-x-Kommunikationseinrichtungen . Da Fahrbahnspur 19 eine Kurve aufweist, sind Fahrzeuge 16 und 17 in unter ¬ schiedliche Richtungen orientiert. Kamerasensor 1 erfasst räumliche Erstreckung 18 von Fahrzeug 17. Aufgrund der un ¬ terschiedlichen Orientierungen der Fahrzeuge entspricht Erstreckung 18 jedoch nicht der Breite von Fahrzeug 17, sondern einer Diagonalen von Fahrzeug 17. Mittels der Fahrzeug- zu-x-Kommunikationseinrichtungen empfängt Fahrzeug 16 unter anderem die tatsächliche Länge und Breite von Fahrzeug 17. Eine alleine aufgrund der tatsächlichen Erstreckungen von Fahrzeug 17 und des auf Lichtsensor 2 bedeckten Bereichs durchgeführte Abstandsermittlung würde zu einem falsch ermittelten Abstand führen, da der auf Lichtsensor 2 bedeckte Bereich nicht der Breite von Fahrzeug 17 sondern dessen Diagonale 18 entspricht. Um derartige Fehler bei der erfin ¬ dungsgemäßen Abstandsbestimmung zu vermeiden, übermittelt Fahrzeug 17 beispielsgemäß auch seine Bewegungsrichtung. Durch Vergleich der Bewegungsrichtung von Fahrzeug 17 mit der eigenen Bewegungsrichtung von Fahrzeug 16 wird in diesem Ausführungsbeispiel nun von Fahrzeug 16 zunächst die relati ¬ ve Orientierung beider Fahrzeuge zueinander bestimmt. Mit Kenntnis der relativen Orientierung wird nun von Kamerasensor 1 erfasste Diagonale 18 rückgerechnet auf eine der Fahr ¬ zeugbreite von Fahrzeug 17 entsprechende Erstreckung. Die rückgerechnete Erstreckung erlaubt die Bestimmung des tat ¬ sächlichen Abstands zwischen Fahrzeug 16 und Fahrzeug 17.

In einem ebenfalls in Fig. 3 dargestellten Ausführungsbeispiel wird anhand der relativen Orientierung beider Fahrzeuge und von Kamerasensor 1 erfasster Diagonalen 18 auf die Erstreckung der Fahrzeuglänge auf Lichtsensor 2 rückgerechnet. Somit wird der Abstand beider Fahrzeuge beispielsgemäß über die Länge und nicht über die Breite von Fahrzeug 17 be ¬ stimmt .

Gemäß einem weiteren in Fig. 3 dargestellten Ausführungsbeispiel ist nur Fahrzeuge 16 mit einer Fahrzeug-zu-x- Kommunikationseinrichtung versehen, nicht jedoch Fahrzeug 17. Fahrzeug 16 empfängt somit weder Informationen über die Orientierung von Fahrzeug 17 noch Informationen über die tatsächlichen räumlichen Erstreckungen von Fahrzeug 17. Kamerasensor 1 erkennt jedoch anhand von Fahrspurmarkierungen 20, dass Fahrzeug 17 sich in einer Kurve befindet. Bei ¬ spielsgemäß wird die relative Orientierung von Fahrzeug 17 zu Fahrzeug 16 mittels der Ausrichtung von Fahrbahnmarkie ¬ rungen 20 bestimmt, indem davon ausgegangen wird, dass Fahrzeug 17 Fahrspur 19 folgt. Des Weiteren wird für Fahrzeug 17 ein durchschnittliches Verhältnis von Fahrzeugbreite zu Fahrzeuglänge angenommen, um einen eventuellen Fehler bei der Abstandsbestimmung im Mittel möglichst gering zu halten. Somit liegen in Fahrzeug 16 ausreichend Informationen vor, um mittels des von Diagonaler 18 auf Lichtsensor 2 bedeckten Bereichs den Abstand zu Fahrzeug 17 ermitteln zu können. So ¬ bald beide Fahrzeuge wieder in dieselbe Richtung fahren, al ¬ so identisch orientiert sind, kann Kamerasensor 1 direkt die Fahrzeugbreite von Fahrzeug 17 erfassen. Nachdem die Breite von Fahrzeug 17 einmal erfasst wurde, kann diese Information in späteren Kurven zur exakten Abstandsbestimmung genutzt werden, ohne auf Durchschnittswerte von Verhältnissen von Fahrzeugbreiten zu Fahrzeuglängen zurückgreifen zu müssen.