Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR DETECTING A FUNCTIONALITY OF AN ENVIRONMENT SENSOR, CONTROL DEVICE AND VEHICLE
Document Type and Number:
WIPO Patent Application WO/2020/216559
Kind Code:
A1
Abstract:
The invention relates to a method for detecting a functionality of an environment sensor of a vehicle (100), comprising the following steps: determining (200) current coordinates (X, Y) of the vehicle (100); determining (240) a current orientation (φ) of the vehicle (100); determining (250) at least one object (310) in the environment (190) of the vehicle (100) and a target position (Z1, Z2) of the object (310) in relation to the vehicle (100) according to the determined coordinates (X, Y), the determined orientation (φ), a predetermined position of the environment sensor on the vehicle (100) and a map (300) of the environment (190), wherein the map (300) comprises at least the object (310) and a position of the object (310); detecting (260) the environment (190) of the vehicle (100) by means of the environment sensor; generating (270) environment data according to the detected environment (190); detecting (280) an actual position (W1, W2) of the determined object (310) in the environment (190) of the vehicle (100) according to the environment data; and detecting (290) a functionality of the environment sensor by comparing the actual position (W1, W2) of the object (310) with the target position (Z1, Z2) of the object (310); and/or calibrating (291) the environment sensor according to the actual position (W1, W2) and the target position (Z1, Z2).

Inventors:
EWERT MARLON RAMON (DE)
Application Number:
PCT/EP2020/058292
Publication Date:
October 29, 2020
Filing Date:
March 25, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BOSCH GMBH ROBERT (DE)
International Classes:
G01C25/00; G01C21/36; G01S7/40; G01S7/497; G01S7/52
Foreign References:
DE102018007960A12019-03-28
Download PDF:
Claims:
Ansprüche

1. Verfahren zur Erkennung einer Funktionsfähigkeit eines Umgebungssensors (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) eines Fahrzeugs (100), umfassend folgende Schritte

• Ermittlung (220) von aktuellen Koordinaten (X, Y) des Fahrzeugs (100),

• Ermittlung (240) einer aktuellen Ausrichtung (f) des Fahrzeugs (100),

• Bestimmung (250) mindestens eines Objektes (310) in der Umgebung (190) des Fahrzeugs (100) und einer Soll-Position (ZI, Z2) des Objektes (310) bezüglich des Fahrzeugs (100) in Abhängigkeit der ermittelten Koordinaten (X, Y), der ermittelten Ausrichtung (f), einer vorbestimmten Position des

Umgebungssensors (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) am Fahrzeug (100) und einer Karte (300) der Umgebung (190), wobei die Karte (300) wenigstens das Objekt (310) und eine Lage des Objektes (310) umfasst,

• Erfassung (260) der Umgebung (190) des Fahrzeugs (100) mittels des

Umgebungssensors (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140),

• Erzeugung (270) von Umgebungsdaten in Abhängigkeit der erfassten Umgebung (190),

• Erkennung (280) einer Ist-Position (Wl, W2) des bestimmten Objektes (310) in der Umgebung (190) des Fahrzeugs (100) in Abhängigkeit der Umgebungsdaten, und

• Erkennung (290) einer Funktionsfähigkeit des Umgebungssensors (110, 111,

112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) durch Vergleich der Ist-Position (Wl, W2) des Objektes (310) mit der Soll- Position (ZI, Z2) des Objektes (310), und/oder

• Kalibrierung (291) des Umgebungssensors (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) in Abhängigkeit der Ist-Position (Wl, W2) und der Soll-Position (ZI, Z2).

2. Verfahren nach Anspruch 1, wobei die Ermittlung der Koordinaten (X, Y) des

Fahrzeugs (100)

o in Abhängigkeit erfasster Signale, welche mittels eines Ortssensors für ein

globales Sattelitennavigationssystem empfangen werden, o in Abhängigkeit wenigstens eines Kamerabildes einer Kamera (110, 111, 112, 113, 114, 115, 116),

o in Abhängigkeit von erfassten Abstandsdaten zwischen dem Fahrzeug (100) und Objekten in der Umgebung des Fahrzeugs (100),

o in Abhängigkeit von Odometriedaten des Fahrzeugs (100), und/oder

o in Abhängigkeit wenigstens einer Laufzeit eines Car-to-X Kommunikationssignals zwischen dem Fahrzeug (100) und einer ortsfesten Infrastruktureinrichtung erfolgt.

3. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ermittlung der

Ausrichtung des Fahrzeugs (100)

o in Abhängigkeit von Signalen eines Magnetometers,

o in Abhängigkeit von Signalen wenigstens einer inertialen Messeinheit, und/oder o in Abhängigkeit eines Verlaufs von, insbesondere über eine vorgegebene

Zeitspanne, ermittelten Koordinaten (X, Y) des Fahrzeugs (100)

erfolgt.

4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Ermittlung (220) der Koordinaten (X, Y) des Fahrzeugs (100) und/oder die Ermittlung (240) der Ausrichtung (f) zusätzlich in Abhängigkeit einer empfangenen Positionsinformation erfolgt, wobei die empfangene Positionsinformation von einer ortsfesten Infrastruktur- Überwachungseinrichtung in der Umgebung (190) des Fahrzeugs (100) ausgesendet wird.

5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die in der Karte (300) angegebene Lage des Objektes (310) eine Genauigkeit kleiner als 1 Meter aufweist, insbesondere ist die Genauigkeit der Lage des Objektes (310) in der Karte (300) kleiner als 10 Zentimeter und besonders bevorzugt kleiner als 1 Zentimeter.

6. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Soll-Position (ZI, Z2) des bestimmten Objektes (310) einen vorbestimmten Abstand (A) des Objektes (310) zum Fahrzeug (100) nicht unterschreitet.

7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Erkennung (280) der Ist-Position (Wl, W2) des bestimmten Objektes (310) in der Umgebung (190) des Fahrzeugs (100) in Abhängigkeit der Umgebungsdaten mittels einer angelernten maschinellen Erkennung erfolgt, bevorzugt mittels eines neuronalen Netzes. 8. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach der Erkennung (290) der Funktionsfähigkeit folgender Schritt durchgeführt wird

• Deaktivierung (292) des Umgebungssensors (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) in Abhängigkeit der erkannten Funktionsfähigkeit.

9. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach der Erkennung (290) der Funktionsfähigkeit folgender Schritt durchgeführt wird

• Aktivierung (293) eines Sicherheitssensors und/oder eines alternativen

Umgebungsüberwachungssystems des Fahrzeugs (100) in Abhängigkeit der erkannten Funktionsfähigkeit, wobei der Sicherheitssensor den

Umgebungssensor (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) zumindest teilweise ersetzt.

10. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach der Erkennung (290) der Funktionsfähigkeit folgender Schritt durchgeführt wird

• Anpassung (294) einer Anzeige eines Umgebungsmodells für einen Nutzer des Fahrzeugs (100) in Abhängigkeit der erkannten Funktionsfähigkeit.

11. Verfahren nach einem der vorhergehenden Ansprüche, wobei nach der Erkennung (290) der Funktionsfähigkeit folgender Schritt durchgeführt wird

• Anpassung (295) einer Steuerung einer Lenkung (160) und/oder einer

Geschwindigkeit des Fahrzeugs (100) in Abhängigkeit der erkannten Funktionsfähigkeit.

12. Verfahren nach einem der vorhergehenden Ansprüche, wobei das Verfahren

unmittelbar nach einem erkannten Unfall des Fahrzeugs (100) durchgeführt wird.

13. Steuergerät (150), umfassend eine Recheneinheit, wobei die Recheneinheit dazu eingerichtet ist,

• mit einen Umgebungssensor (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) verbunden zu sein, wobei der Umgebungssensor (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) dazu eingerichtet ist, an einer vorbestimmten Position eines Fahrzeugs (100) angeordnet zu sein, • aktuelle Koordinaten (X, Y) eines Fahrzeugs (100) in Abhängigkeit eines Signals eines Ortssensors des Fahrzeugs (100) zu ermitteln,

• eine aktuelle Ausrichtung (f) des Fahrzeugs (100) zu ermitteln,

• mindestens ein Objekt (310) in der Umgebung (190) des Fahrzeugs (100) und eine Soll-Position (ZI, Z2) des Objektes (310) bezüglich des Fahrzeugs (100) in Abhängigkeit der ermittelten Koordinaten (X,Y), der ermittelten Ausrichtung (f), der vorbestimmten Position des Umgebungssensors (110, 111, 112, 113, 114,

115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) am Fahrzeug (100) und einer Karte (300) der Umgebung (190) zu bestimmen, wobei die Karte (300) das wenigstens eine Objekt (310) und eine Lage des Objektes (310) umfasst,

• Umgebungsdaten in Abhängigkeit einer mittels des Umgebungssensors (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) erfassten Umgebung (190) zu erzeugen,

• eine Ist-Position (Wl, W2) des bestimmten Objektes (310) in der Umgebung (190) des Fahrzeugs (100) in Abhängigkeit der Umgebungsdaten zu ermitteln, und

• eine Funktionsfähigkeit des Umgebungssensors (110, 111, 112, 113, 114, 115,

116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) durch Vergleich der Ist-Position (Wl, W2) des Objektes (310) mit der Soll-Position (ZI, Z2) des Objektes (310) zu erkennen, und/oder

• den Umgebungssensor (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140) in Abhängigkeit der Ist-Position (Wl,

W2) und der Soll-Position (ZI, Z2) zu kalibrieren.

14. Fahrzeug (100), umfassend wenigstens

• einen Ortssensor für ein globales Navigationssatellitensystem,

• einen Umgebungssensor (110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140), welcher an einer vorbestimmten Position des Fahrzeugs (100) angeordnet ist, und

• ein Steuergerät (150) nach Anspruch 13.

15. Fahrzeug (100) nach Anspruch 14, wobei das Fahrzeug zusätzlich wenigstens

folgende Komponente aufweist • einen Odometriesensor, insbesondere einen Drehzahlsensor und/oder einen Beschleunigungssensor und/oder einen Drehratensensor,

• eine Kommunikationseinheit, welche dazu eingerichtet ist, Positionsinformation von einer ortsfesten Infrastruktur-Überwachungseinrichtung zu empfangen, und/oder

• eine Car-to-X Kommunikationseinheit, welche dazu eingerichtet ist, ein

Kommunikationssignal von einer ortsfesten Infrastruktureinrichtung zu empfangen.

Description:
Beschreibung

Titel

Verfahren zur Erkennung einer Funktionsfähigkeit eines Umgebungssensors, Steuergerät und Fahrzeug

Die vorliegende Erfindung betrifft ein Verfahren zur Erkennung einer Funktionsfähigkeit eines Umgebungssensors, ein Steuergerät zur Durchführung des Verfahrens sowie ein Fahrzeug mit dem Steuergerät.

Stand der Technik

Um beim autonomen oder teilautonomen Fahren eines Fahrzeugs basierend auf Sensordaten eine ausreichende Zuverlässigkeit zu erreichen, sollte der Sensor beziehungsweise sollten die Sensoren zur Erzeugung der Sensordaten eine vorbestimmte Genauigkeit aufweisen. Zusätzlich sollte die Einbauposition des Sensors und eine Ausrichtung des Sensors ausreichend genau bekannt sein beziehungsweise eine entsprechende Kalibrierung des Sensors durchgeführt werden. Die Kalibrierung kann aufwendig sein und somit schon in einer Fertigung des Fahrzeugs hohe Kosten verursachen.

Die Aufgabe der vorliegenden Erfindung ist es, eine Funktion eines

Umgebungssensors an einem Fahrzeug verbessert zu erkennen, insbesondere um den Umgebungssensor zu kalibrieren.

Offenbarung der Erfindung

Die vorstehende Aufgabe wird durch ein Verfahren nach Anspruch 1 sowie durch ein Steuergerät nach Anspruch 14 und ein Fahrzeug nach Anspruch 15 gelöst.

Die vorliegende Erfindung betrifft ein Verfahren zur Erkennung einer Funktionsfähigkeit eines Umgebungssensors eines Fahrzeugs. Das Verfahren umfasst eine Ermittlung von aktuellen Koordinaten des Fahrzeugs. Die aktuellen Koordinaten des Fahrzeugs sind beispielsweise Koordinaten eines satellitenbasieren Navigationssystems, welche mittels eines Sensors erfasst werden. Das Verfahren weist ferner eine Ermittlung einer aktuellen Ausrichtung des Fahrzeugs an den aktuellen Koordinaten auf. Diese aktuelle Ausrichtung des Fahrzeugs ist beispielsweise ein Gierwinkel beziehungsweise eine Orientierung des Fahrzeugs im Sinne eines Kompasses. Anschließend wird mindestens ein Objekt in der Umgebung des Fahrzeugs und eine Soll-Position des Objektes bezüglich des Fahrzeugs in Abhängigkeit der ermittelten Koordinaten, der ermittelten Ausrichtung, einer vorbestimmten Position des Umgebungssensors am Fahrzeug und einer Karte der Umgebung bestimmt. Beispielsweise wird für eine am Fahrzeug in Fahrtrichtung rechts angeordnete Kamera, welche als Spiegelersatz verwendet wird, basierend auf der ermittelten Ausrichtung des Fahrzeugs ein für die Kamera sichtbarer Ausschnitt der Karte ermittelt und in diesem Kartenausschnitt das Objekt sowie die Soll-Position des Objektes bezüglich des Fahrzeugs erkannt beziehungsweise bestimmt, wobei das Objekt vorzugsweise leicht erkennbar beziehungsweise identifizierbar und/oder in einen vorbestimmten Abstandsbereich zum Fahrzeug liegt. Die Karte umfasst wenigstens das Objekt und eine Lage des Objektes. Vorzugsweise erfolgt die Bestimmung des Objektes und der Soll-Position des bestimmten Objektes in der Umgebung des Fahrzeugs zumindest teilweise mittels einer angelernten maschinellen Erkennung, bevorzugt mittels eines neuronalen Netzes. Die Karte ist vorteilhafterweise eine hochgenaue Karte, welche eine Auflösung kleiner als 1 Meter aufweist. Des Weiteren wird eine Erfassung der Umgebung des Fahrzeugs mittels des Umgebungssensors des Fahrzeugs durchgeführt,

beispielsweise mittels der am Fahrzeug in Fahrtrichtung rechts angeordneten Kamera. In Abhängigkeit der erfassten Umgebung werden Umgebungsdaten erzeugt. Die Umgebungsdaten können vorzugsweise in Abhängigkeit von mindestens zwei Umgebungssensoren erzeugt werden, wobei die Umgebungssensoren gleich oder alternativ unterschiedliche Sensortypen verwendet werden, beispielsweise werden die Umgebungsdaten in Abhängigkeit einer Kamera und/oder eines Lidarsensors und/oder eines Radarsensors und/oder eines Ultraschallsensors erzeugt. Anschließend wird eine Ist-Position des bestimmten Objektes in der Umgebung des Fahrzeugs in

Abhängigkeit der Umgebungsdaten erkannt beziehungsweise ermittelt. Beispielsweise wird das Objekt in einem Kamerabild durch eine künstliche Intelligenz

beziehungsweise ein angelerntes maschinelles Erkennungsverfahren

beziehungsweise ein neuronales Netz erkannt und ein Abstand des Objektes zum Fahrzeug basierend auf den Umgebungsdaten ermittelt, wobei die Umgebungsdaten bevorzugt Abstandsdaten zwischen Objekten in der Umgebung des Fahrzeugs und dem Fahrzeug umfassen. Anschließend wird eine Funktionsfähigkeit des

Umgebungssensors durch Vergleich der erkannten beziehungsweise ermittelten Ist- Position des Objektes mit der ermittelten Soll-Position des Objektes erkannt beziehungsweise bestimmt. Alternativ zur Erkennung der Funktionsfähigkeit oder zusätzlich zur Erkennung der Funktionsfähigkeit wird der Umgebungssensor in Abhängigkeit der Ist-Position und der Soll-Position kalibriert. Durch das Verfahren resultiert der Vorteil, dass die Funktionsfähigkeit des Umgebungssensors schnell und kostengünstig und/oder eine Kalibrierung des Umgebungssensors im laufenden Betrieb durchgeführt werden kann, wobei keine künstlichen Markierungen an fest definierten Orten montiert werden müssen. Die Kalibrierung des Umgebungssensors des Fahrzeugs, beispielsweise einer Kamera und/oder einer Stereokamera und/oder eines Lidarsensors und/oder eines Radarsensors und/oder eines Ultraschallsensors erfolgt vorteilhafterweise zumindest ausreichend genau um ein Umgebungsmodell anschaulich und ohne Artefakte darzustellen und/oder eine teil- oder vollautomatische Fahrfunktion in Abhängigkeit des Umgebungssensors zumindest ausreichend zuverlässig zu realisieren.

In einer bevorzugten Ausgestaltung erfolgt die Ermittlung der Koordinaten des Fahrzeugs in Abhängigkeit erfasster Signale, welche mittels eines Ortssensors für ein globales Sattelitennavigationssystem empfangen werden, und/oder in Abhängigkeit wenigstens eines Kamerabildes einer Fahrzeugkamera, und/oder in Abhängigkeit von erfassten Abstandsdaten zwischen dem Fahrzeug und Objekten in der Umgebung des Fahrzeugs, und/oder in Abhängigkeit von Odometriedaten des Fahrzeugs. Diese Ausgestaltung, insbesondere bei Kombination der Abhängigkeiten, erlaubt vorteilhafterweise eine hochgenaue Ermittlung der Koordinaten des Fahrzeuges. Alternativ oder zusätzlich erfolgt die Ermittlung der Koordinaten des Fahrzeugs in Abhängigkeit wenigstens einer bestimmten Laufzeit eines erfassten Car-to-X

Kommunikationssignals zwischen dem Fahrzeug und einer ortsfesten

Infrastruktureinrichtung.

In einer weiteren bevorzugten Ausführung erfolgt die Ermittlung der Ausrichtung des Fahrzeugs in Abhängigkeit von Signalen eines Magnetometers, und/oder in

Abhängigkeit von Signalen wenigstens einer inertialen Messeinheit, und/oder in Abhängigkeit eines Verlaufs von, insbesondere über eine vorgegebene Zeitspanne, ermittelten Koordinaten des Fahrzeugs. Diese Ausführung, insbesondere bei Kombination der Abhängigkeiten, erlaubt vorteilhafterweise eine hochgenaue

Ermittlung der Ausrichtung des Fahrzeuges.

In einer Weiterführung erfolgt die Ermittlung der Koordinaten und/oder die Ermittlung der Ausrichtung des Fahrzeugs zusätzlich in Abhängigkeit einer empfangenen

Positionsinformation, wobei die empfangene Positionsinformation von einer

Infrastruktur-Überwachungseinrichtung in der Umgebung des Fahrzeugs ausgesendet beziehungsweise übermittelt wird. Beispielsweise wird die Positionsinformation mittels einer Abstandssensorik der Infrastruktur-Überwachungseinrichtung erfasst, wobei die Positionsinformationen in einer optionalen Ausgestaltung zusätzlich eine Information über die Ausrichtung des Fahrzeugs umfasst. Die Infrastruktur-

Überwachungseinrichtung ist ortsfest angeordnet beziehungsweise ist der Standort der Infrastruktur-Überwachungseinrichtung genau bekannt. Die mittels der

Abstandssensorik erfassten Daten beziehungsweise erfasste Infrastrukturinformation beziehungsweise erfasste Positionsinformation wird an das Fahrzeug gesendet beziehungsweise übermittelt. Beispielsweise weist die Infrastruktur- Überwachungseinrichtung als Abstandssensorik einen Lidarsensor und/oder eine Stereo- Kamera mit entsprechender Auswerteelektronik auf. Folglich sind in dieser Weiterführung die Ermittlung der Koordinaten und/oder die Ermittlung der Ausrichtung in Abhängigkeit der übermittelten Positionsinformation vorteilhafterweise besonders genau.

In einer Ausgestaltung weist die in der Karte angegebene Lage des Objektes eine Genauigkeit kleiner als 1 Meter auf. Vorzugsweise ist die Genauigkeit der Lage des Objektes in der Karte kleiner als 10 Zentimeter und besonders bevorzugt kleiner oder gleich 1 Zentimeter. Durch die hohe Genauigkeit der Karte beziehungsweise der Lage des Objekts, kann die Funktionsfähigkeit des Umgebungssensors vorteilhafterweise genau und schnell sowie zuverlässig erkannt werden.

In einer bevorzugten Weiterführung unterschreitet die Soll-Position des bestimmten Objektes nicht einen vorbestimmten Abstand des Objektes zum Fahrzeug. Die

Genauigkeit der Karte beziehungsweise der Lage des Objekts ist dadurch

vorteilhafterweise weniger relevant zur Erkennung beziehungsweise Ermittlung der Funktionsfähigkeit des Umgebungssensors. Das Verfahren wird in dieser

Weiterführung folglich wesentlich robuster. Dadurch resultiert ferner vorteilhafterweise der technische Effekt, dass die Funktionsfähigkeit des Umgebungssensors sehr genau erkannt werden kann.

Vorzugsweise erfolgt die Erkennung der Ist-Position des bestimmten Objektes in der Umgebung des Fahrzeugs in Abhängigkeit der Umgebungsdaten zumindest teilweise mittels einer angelernten maschinellen Erkennung, bevorzugt mittels eines neuronalen Netzes. Durch die angelernte maschinelle Erkennung beziehungsweise eine künstliche Intelligenz können Objekte schnell und zuverlässig erkannt werden. Die Ist-Position des erkannten Objektes ist dann vorteilhafterweise einfach aus den Umgebungsdaten auslesbar.

In einer anderen Ausgestaltung wird nach der Erkennung der Funktionsfähigkeit des Umgebungssensors der Umgebungssensor in Abhängigkeit der erkannten

Funktionsfähigkeit deaktiviert. Dadurch wird vorteilhafterweise beispielsweise eine ungenaue Anzeige eines Umgebungsmodells mit Bildartefakten und/oder eine unzuverlässige teil- oder vollautomatische Fahrfunktion in Abhängigkeit eines fehlerhaften Betriebs des Umgebungssensors vermieden.

In einer weiteren Ausführung erfolgt eine Aktivierung eines Sicherheitssensors und/oder eines alternativen Umgebungsüberwachungssystems des Fahrzeugs in Abhängigkeit der erkannten Funktionsfähigkeit, insbesondere fehlerhaften

Funktionsfähigkeit, wobei der Sicherheitssensor den Umgebungssensor zumindest teilweise ersetzt. Dadurch wird vorteilhafterweise eine ungenaue Anzeige eines Umgebungsmodells mit Bildartefakten und/oder eine unzuverlässige teil- oder vollautomatische Fahrfunktion in Abhängigkeit eines fehlerhaften Betriebs des

Umgebungssensors vermieden, wobei das Umgebungsmodell in Abhängigkeit einer mittels des Sicherheitssensors und/oder des alternativen

Umgebungsüberwachungssystems erfassten Umgebung des Fahrzeugs angezeigt und/oder eine teil- oder vollautomatische Fahrfunktion in Abhängigkeit der mittels des Sicherheitssensors und/oder des alternativen Umgebungsüberwachungssystems erfassten Umgebung des Fahrzeugs zumindest ausreichend zufriedenstellend durchgeführt wird.

Des Weiteren erfolgt optional nach der Erkennung der Funktionsfähigkeit des

Umgebungssensors eine Anpassung einer Anzeige eines Umgebungsmodells für einen Nutzer des Fahrzeugs in Abhängigkeit der erkannten Funktionsfähigkeit. Dadurch wird die Anzeige des Umgebungsmodells vorteilhafterweise an die erkannte Funktionsfähigkeit angepasst. Beispielsweise wird durch diesen Schritt bei einer erkannten Fehlfunktion vorteilhafterweise ein angezeigter Abstraktionsgrad des Umgebungsmodells erhöht.

Es kann ferner vorgesehen sein, dass nach der Erkennung der Funktionsfähigkeit des Umgebungssensors eine Steuerung einer Lenkung des Fahrzeugs und/oder eines Antriebsmotors des Fahrzeugs beziehungsweise einer Geschwindigkeit des Fahrzeugs in Abhängigkeit der erkannten Funktionsfähigkeit angepasst wird. Dadurch resultiert beispielsweise der Vorteil, dass eine vollautomatische Steuerung des Fahrzeugs in eine teilautomatische Steuerung geändert wird, wobei beispielsweise bestimmte Fahrmanöver, wie ein Einparken des Fahrzeugs, welches insbesondere von der Funktionsfähigkeit des Umgebungssensors betroffen ist, manuell durchgeführt werden muss.

In einer optionalen Ausgestaltung des Verfahrens wird das Verfahren unmittelbar nach einem erkannten Unfall des Fahrzeugs durchgeführt. Die Erkennung eines Unfalls erfolgt bevorzugt mittels Beschleunigungssensoren und/oder Drucksensoren, welche am Fahrzeug angeordnet sind. Dadurch wird vorteilhafterweise nach einem Unfall jeder Umgebungssensor durch das Verfahren auf eine vollständige Funktionsfähigkeit überprüft und/oder kalibriert.

Die Erfindung betrifft des Weiteren ein Steuergerät, umfassend eine Recheneinheit.

Das Steuergerät beziehungsweise die Recheneinheit ist dazu eingerichtet, mit dem Umgebungssensor verbunden zu sein, wobei der Umgebungssensor dazu eingerichtet ist, an der vorbestimmten Position des Fahrzeugs angeordnet zu sein. Der

Umgebungssensor ist insbesondere eine Kamera (Mono- Kamera oder Stereo- Kamera), ein Ultraschallsensor, ein Radarsensor oder ein Lidar-Sensor. Die

Recheneinheit ist dazu eingerichtet, die aktuellen Koordinaten des Fahrzeugs in Abhängigkeit eines Signals eines Ortssensors des Fahrzeugs und die aktuelle

Ausrichtung des Fahrzeugs zu ermitteln. Darüber hinaus ist die Recheneinheit dazu eingerichtet, mindestens das Objekt in der Umgebung des Fahrzeugs und die Soll- Position des Objektes bezüglich des Fahrzeugs in Abhängigkeit der ermittelten

Koordinaten, der ermittelten Ausrichtung, der vorbestimmten Position des

Umgebungssensors am Fahrzeug und der Karte der Umgebung zu bestimmen. Die Recheneinheit ist ferner eingerichtet, Umgebungsdaten in Abhängigkeit der mittels des Umgebungssensors erfassten Umgebung zu erzeugen und die Ist-Position des bestimmten Objektes in der Umgebung des Fahrzeugs in Abhängigkeit der

Umgebungsdaten zu ermitteln. Die Recheneinheit ist auch dazu eingerichtet, eine Funktionsfähigkeit des Umgebungssensors durch Vergleich der Ist-Position des Objektes mit der Soll-Position des Objektes zu erkennen.

Die Erfindung betrifft auch ein Fahrzeug umfassend wenigstens einen Ortssensor für ein globales Navigationssatellitensystem und einen Umgebungssensor, welcher an einer vorbestimmten Position des Fahrzeugs angeordnet ist. Das Fahrzeug umfasst ferner das erfindungsgemäße Steuergerät.

Das Fahrzeug ist vorteilhafterweise dazu eingerichtet, eine Karte von einer

Servereinrichtung zu empfangen, wobei der Empfang insbesondere in Abhängigkeit aktueller Koordinaten des Fahrzeugs erfolgt und eine in der Karte angegebene Lage des Objektes eine Genauigkeit kleiner als 1 Meter aufweist, insbesondere ist die Genauigkeit der Lage des Objektes in der Karte kleiner als 10 Zentimeter und besonders bevorzugt kleiner als 1 Zentimeter.

In einer Weiterbildung der Erfindung umfasst das Fahrzeug einen Odometriesensor, insbesondere einen Drehzahlsensor und/oder einen Beschleunigungssensor und/oder einen Drehratensensor. Alternativ oder zusätzlich umfasst das Fahrzeug eine

Kommunikationseinheit, welche dazu eingerichtet ist, Daten mit einer Infrastruktur- Überwachungseinrichtung per Funk auszutauschen beziehungsweise eine

Positionsinformation von der Infrastruktur-Überwachungseinrichtung zu empfangen, und/oder eine Car-to-X Kommunikationseinheit, welche dazu eingerichtet ist, ein Car- to-X - Kommunikationssignal beziehungsweise Daten von einer ortsfesten

Infrastruktureinrichtung zu empfangen. Dadurch ist das Fahrzeug vorteilhafterweise dazu eingerichtet die aktuellen Koordinaten des Fahrzeugs und/oder die aktuelle Ausrichtung des Fahrzeugs sehr genau zu ermitteln.

Weitere Vorteile ergeben sich aus der nachfolgenden Beschreibung von

Ausführungsbeispielen mit Bezug zu den Figuren.

Figur la: Fahrzeug

Figur lb: Fahrzeug in Aufsicht Figur 2: Verfahren zur Erkennung einer Funktionsfähigkeit eines Umgebungssensors Figur 3a: Visualisierung zur Bestimmung mindestens eines Objektes in der Umgebung Figur 3b: Visualisierung der Umgebungsdaten mit semantischer Information Ausführungsbeispiele

In Figur la und Figur lb ist ein Fahrzeug 100 mit mehreren Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und 140 und einem Steuergerät 150 schematisch dargestellt. Figur la betrifft eine Seitenansicht des Fahrzeugs 100 und Figur lb betrifft eine Aufsicht des Fahrzeugs 100. Die Umgebungssensoren 110, 111, 112, 113, 114, 115 und 116 sind in diesem Ausführungsbeispiel als Mono-Kameras ausgeführt, wobei die Umgebungssensoren 111, 112, 113, 114, 115, 116 als Weitwinkelkameras ausgeführt sind. Die

Umgebungssensoren 120, 121, 122, 123, 124, 125, 126, 127, 128, 129 und 130 sind als Ultraschallsensoren ausgeführt. Der Umgebungssensor 140 ist als ein Radarsensor ausgeführt. Die Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121,

122, 123, 124, 125, 126, 127, 128, 129, 130 und 140 erfassen jeweils einen

Erfassungsbereich beziehungsweise einen Teilbereich der Umgebung 190 des

Fahrzeugs 100. Zum Teil überlappt der Erfassungsbereich des jeweiligen

Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und 140 mit einem Erfassungsbereich eines der anderen Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 beziehungsweise 140. Die überlappenden Erfassungsbereiche der Umgebung erzeugen eine Redundanz und/oder eine erhöhte Sicherheit und/oder dienen unterschiedlichen technischen Zwecken, beispielsweise der Anzeige eines Umgebungsmodells oder dem teilautonomen Fahren des Fahrzeugs 100. Das

Steuergerät 150 ist dazu eingerichtet ein Verfahren zur Erkennung einer

Funktionsfähigkeit wenigstens eines Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140

durchzuführen. Zusätzlich kann das Steuergerät 150 dazu eingerichtet sein, das Fahrzeug zum teilautonomen oder vollständig autonomen Fahren des Fahrzeugs 100 zu steuern. Insbesondere ist das Steuergerät 150 dazu eingerichtet eine Lenkung 160 des Fahrzeugs und/oder eine Antriebseinheit 170 des Fahrzeugs, beispielsweise einen Elektromotor, in Abhängigkeit der Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140 zu steuern. Aufgrund der Vielzahl von Umgebungssensoren ist eine Kalibrierung beziehungsweise Bestimmung einer Position und/oder einer Ausrichtung der Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140 nach einer Montage der Umgebungssensoren am Fahrzeug aufwendig, insbesondere, weil die Anforderung an eine Genauigkeit der Bestimmung einer Position und Ausrichtung der Umgebungssensoren teilweise hoch ist. Ferner kann es Vorkommen, dass beispielsweise nach einem Unfall, beispielsweise die Ausrichtung eines der Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140 verändert ist. Dadurch kann es Vorkommen, dass eine erzeugte Darstellung des Umgebungsmodells der Umgebung 190 auf einer Anzeigevorrichtung fehlerhaft ist, d.h. nicht mehr der Umgebung entspricht, und/oder die teilautonome oder vollständig autonome Steuerung des Fahrzeugs 100 mittels des Steuergeräts 150 unzuverlässig wird. Folglich ist eine Überprüfung der Funktionsfähigkeit und/oder eine leichte Kalibrierung der

Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140, insbesondere während des Fährbetriebs, vorteilhaft.

In Figur 2 ist ein Ablaufdiagramm zum Verfahren zur Erkennung einer

Funktionsfähigkeit wenigstens eines Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140 als

Blockdiagramm dargestellt. Das Verfahren beginnt mit einer optionalen Erfassung 210 von Sensordaten mittels eines Sensorsystems für die Ermittlung 220 von aktuellen Koordinaten des Fahrzeugs. Das Sensorsystem kann mit einem oder mehreren der Umgebungssensoren 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140 verbunden sein beziehungsweise diese umfassen. Das Sensorsystem weist vorteilhafterweise einen Ortssensor auf (in Fig. 1 nicht dargestellt), welcher dazu eingerichtet ist, Signale von wenigstens einem globalen Sattelitennavigationssystem zu empfangen. Das Sensorsystem kann alternativ oder zusätzlich mindestens eine der Kameras 110, 111, 112, 113, 114, 115 und/oder 116 umfassen, welche eingerichtet ist, ein Kamerabild der Umgebung zu erfassen, beispielsweise die nach vorne gerichtete Frontkamera 110. Das

Sensorsystem kann alternativ oder zusätzlich wenigstens einen Abstandssensor umfassen, insbesondere den Radarsensor 140 und/oder die Ultraschallsensoren 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, welche jeweils dazu eingerichtet sind, Abstände zwischen dem Fahrzeug 100 und Objekten 310 in der Umgebung des Fahrzeugs 100 zu erfassen. Das Sensorsystem umfasst bevorzugt alternativ oder zusätzlich wenigstens einen Odometriesensor, wobei der Odometriesensor

insbesondere einen Drehzahlsensor, welcher vorteilhafterweise am Antriebsstrang oder an einer der Radachsen des Fahrzeugs 100 angeordnet ist, und/oder einen Beschleunigungssensor und/oder einen Drehratensensor des Fahrzeugs 100 aufweist (in Fig. 1 nicht dargestellt). Der wenigstens eine Odometriesensor ist dazu eingerichtet, Odometriedaten des Fahrzeugs zu erfassen, das heißt beispielsweise eine Bewegung des Fahrzeug 100 direkt und/oder indirekt zu erfassen, vorzugsweise eine

Geschwindigkeit des Fahrzeugs 100 und/oder eine Drehzahl des Antriebsstrangs des Fahrzeugs 100 und/oder eine Drehzahl eines Rads des Fahrzeug 100 und/oder einen Lenkwinkel des Fahrzeugs 100. Im optionalen Schritt 210 wird alternativ oder zusätzlich eine Infrastrukturinformation beziehungsweise eine Positionsinformation von einer Infrastruktur-Überwachungseinrichtung in der Umgebung 190 des Fahrzeugs 100 empfangen. Diese optional empfangene Positionsinformation repräsentiert die Position des Fahrzeugs 100, welche von der Infrastruktur-Überwachungseinrichtung ermittelt wurde. Zum Empfang der Positionsinformation umfasst das Sensorsystem optional eine Kommunikationseinheit (in Fig. 1 nicht dargestellt). Alternativ oder zusätzlich wird im Schritt 210 ein Car-to-X Kommunikationssignal zwischen dem Fahrzeug und einer ortsfesten Infrastruktureinrichtung erfasst, wobei das Car-to-X Kommunikationssignal insbesondere einen Zeitpunkt der Aussendung des Signals durch eine ortsfest

Infrastruktureinrichtung umfasst. Im Schritt 220 erfolgt eine Ermittlung 220 von aktuellen Koordinaten des Fahrzeugs 100. Die Ermittlung 220 erfolgt insbesondere in Abhängigkeit der erfassten Größen des Sensorsystems. Vorzugsweise erfolgt die Ermittlung 220 in Abhängigkeit der im optionalen Schritt 210 erfassten Daten des Ortssensors des Fahrzeug 100 für ein globales Sattelitennavigationssystem und/oder in Abhängigkeit des im optionalen Schritt 210 erfassten wenigstens einen

Kamerabildes der mindestens einen Kamera 110, 111, 112, 113, 114, 115, 116 des Fahrzeugs 100. Alternativ oder zusätzlich erfolgt die Ermittlung 220 der aktuellen Koordinaten des Fahrzeugs 100 in Abhängigkeit der im optionalen Schritt 210 erfassten Abstandsdaten zwischen dem Fahrzeug 100 und Objekten in der Umgebung des Fahrzeugs 100 und/oder in Abhängigkeit der im optionalen Schritt 210 erfassten Odometriedaten des Fahrzeugs 100, welche beispielsweise Beschleunigungs und/oder Drehratensignale des Fahrzeugs 100 umfassen. Mit anderen Worten erfolgt die Ermittlung 220 der aktuellen Koordinaten des Fahrzeugs 100 basierend auf erfassten Daten des Sensorsystems des Fahrzeugs 100, wobei mindestens ein Sensor des Sensorsystems verwendet wird, bevorzugt werden die aktuellen Koordinaten des Fahrzeugs 100 basierend auf einer Kombination unterschiedlicher Sensortypen des Sensorsystems ermittelt, so dass die aktuellen Koordinaten vorteilhafterweise genauer ermittelt werden. Alternativ oder zusätzlich erfolgt die Ermittlung der Koordinaten des Fahrzeugs in Abhängigkeit einer Laufzeit wenigstens eines erfassten Car-to-X

Kommunikationssignals zwischen dem Fahrzeug und einer ortsfesten

Infrastruktureinrichtung. Werden beispielsweise jeweils Laufzeiten von mindestens drei erfassten unterschiedlichen Car-to-X Kommunikationssignalen zwischen dem

Fahrzeug und mindestens einer ortsfesten Infrastruktureinrichtung erfasst, so kann die Ermittlung der aktuellen Koordinaten des Fahrzeugs durch eine trigonometrische Gleichung in Abhängigkeit der drei erfassten Laufzeiten erfolgen. Die Ermittlung der aktuellen Koordinaten erfolgt alternativ oder zusätzlich in Abhängigkeit der

empfangenen Infrastrukturinformation. Die optional empfangene

Infrastrukturinformation wird von einer Infrastruktur-Überwachungseinrichtung in der Umgebung 190 des Fahrzeugs 100 ausgesendet und von dem Sensorsystem im optionalen Schritt 210 erfasst beziehungsweise empfangen. Die optional empfangene Infrastrukturinformation umfasst vorzugsweise sehr genaue aktuelle Koordinaten des Fahrzeugs 100. Im optionalen Schritt 230 werden Daten für eine Ermittlung 240 einer Ausrichtung des Fahrzeugs 100 erfasst. Im optionalen Schritt 230 erfolgt bevorzugt eine Erfassung 230 von Signalen wenigstens einer inertialen Messeinheit und/oder eines Magnetometers, wobei vorteilhafterweise das Sensorsystem des Fahrzeugs 100 die inertiale Messeinheit und/oder das Magnetometer umfasst. Alternativ oder zusätzlich erfolgt im Schritt 230 eine Erfassung eines Verlaufs von, insbesondere über eine vorgegebene Zeitspanne, ermittelten Koordinaten des Fahrzeugs 100, welche im Schritt 210 beziehungsweise in der Vergangenheit ermittelt und in einem Speicher des Fahrzeugs oder einer Cloud beziehungsweise auf einem Serversystem abgespeichert sind. Die vorgegebene Zeitspanne ist beispielsweise kleiner als 10 Sekunden bezüglich eines aktuellen Zeitpunktes. Alternativ oder zusätzlich erfolgt im Schritt 230 ein Empfang einer Infrastrukturinformation, wobei die empfangene

Infrastrukturinformation von einer Infrastruktur-Überwachungseinrichtung in der Umgebung des Fahrzeugs 100 ausgesendet wird. Die Infrastrukturinformation repräsentiert in dieser optionalen Ausgestaltung alternativ oder zusätzlich zur Position des Fahrzeugs 100 die Ausrichtung des Fahrzeugs 100, welche von der Infrastruktur- Überwachungseinrichtung ermittelt wurde. Im nachfolgenden Schritt erfolgt eine Ermittlung 240 der aktuellen Ausrichtung des Fahrzeugs 100 an den aktuellen Koordinaten des Fahrzeugs 100. Die Ermittlung 240 der Ausrichtung des Fahrzeugs 100 erfolgt in Abhängigkeit von Signalen des Magnetometers und/oder in Abhängigkeit von Signalen der inertialen Messeinheit und/oder in Abhängigkeit des erfassten Verlaufs von ermittelten Koordinaten des Fahrzeugs 100 und/oder in Abhängigkeit der empfangenen Infrastrukturinformation. Anschließend wird eine Bestimmung 250 mindestens eines Objektes 310 in der Umgebung des Fahrzeugs 100 und einer Soll- Position des Objektes bezüglich des Fahrzeugs 100 durchgeführt. Die Bestimmung 250 des Objektes 310 und der Soll-Position des Objektes 310 erfolgt in Abhängigkeit der ermittelten Koordinaten, der ermittelten Ausrichtung, einer vorbestimmten Position des Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130, 140 am Fahrzeug 100 und einer Karte der Umgebung. Die Karte der Umgebung umfasst wenigstens das Objekt 310 und eine Lage des Objektes 310. Beispielsweise wird als Zwischenschritt für den jeweiligen zur

Funktionsermittlung vorgesehenen Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 ein erfasster Teilbereich der Karte in Abhängigkeit des Erfassungsbereichs des jeweiligen

Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 beziehungsweise 140 in Abhängigkeit der ermittelten

Koordinaten des Fahrzeugs 100 und in Abhängigkeit der ermittelten Ausrichtung des Fahrzeugs 100 sowie in Abhängigkeit der Karte identifiziert beziehungsweise ermittelt. In diesem erfassten Teilbereich der Karte werden ein beziehungsweise das Objekt 310 und die Soll-Position des Objektes 310 gesucht beziehungsweise bestimmt. Die Bestimmung des Objektes 310 erfolgt bevorzugt in Abhängigkeit vorgegebener Kriterien. Die Bestimmung des Objektes 310 erfolgt vorzugsweise in Abhängigkeit einer Art des Objektes 310, einer Größe des Objektes 310 und/oder eines

vorbestimmten Abstands des Objektes 310 zum Fahrzeug 100, so dass beispielsweise die Soll-Position des bestimmten Objektes 310 den vorbestimmten Abstand des Objektes 310 zum Fahrzeug 100 nicht unterschreitet. Anschließend erfolgt eine Erfassung 260 der Umgebung des Fahrzeugs 100 mittels des wenigstens einen Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder 140. Im Schritt 260 werden insbesondere

Kamerabilder und/oder Abstände zwischen dem Fahrzeug 100 und Objekten in der Umgebung des Fahrzeugs 100 erfasst, wobei Abstände beispielsweise mittels der Ultraschallsensoren 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 und/oder des Radarsensors 140 und/oder in Abhängigkeit von einer Abfolge von Kamerabildern mittels der Kameras 110, 111, 112, 113, 114, 115, 116 und/oder mittels einer Stereokamera erfasst werden können. Danach werden im Schritt 270

Umgebungsdaten in Abhängigkeit der im Schritt 260 erfassten Umgebung erzeugt. Die Umgebungsdaten repräsentieren beispielsweise die im Schritt 260 erfassten Abstände zwischen Objekten in der Umgebung 190 des Fahrzeugs 100 und dem Fahrzeug 100 sowie die in der Umgebung des Fahrzeugs 100 erkannten Objekte, welche

vorzugsweise in Abhängigkeit erfasster Kamerabilder der Kameras 110, 111, 112, 113, 114, 115 und/oder 116 erkannt wurden, wobei die erkannten Objekte den Abständen insbesondere zugeordnet werden. In Abhängigkeit der erzeugten Umgebungsdaten wird im Schritt 280 eine Ist-Position des im Schritt 240 bestimmten Objektes 310 in der Umgebung 190 des Fahrzeugs 100 in Abhängigkeit der Umgebungsdaten erkannt beziehungsweise ermittelt. Anschließend erfolgt eine Erkennung 290 einer

Funktionsfähigkeit des Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 durch Vergleich der erkannten beziehungsweise ermittelten Ist-Position des Objektes 310 mit der kartenbasiert bestimmten Soll-Position des Objektes 310. Alternativ zur Erkennung 290 der Funktionsfähigkeit oder nach der Erkennung 290 der Funktionsfähigkeit des Umgebungssensors wird eine Kalibrierung 291 des Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 in Abhängigkeit der Ist-Position und der Soll-Position durchgeführt. In einem optionalen Schritt 292 kann nach der Erkennung der Funktionsfähigkeit des Umgebungssensors eine Deaktivierung 292 des Umgebungssensors 110, 111, 112, 113, 114, 115, 116,

120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 in Abhängigkeit der erkannten Funktionsfähigkeit durchgeführt werden. In einem anderen optionalen Schritt 293 kann nach der Erkennung der Funktionsfähigkeit des Umgebungssensors eine Aktivierung 293 eines Sicherheitssensors und/oder eines alternativen

Umgebungsüberwachungssystems des Fahrzeugs 100 in Abhängigkeit der erkannten Funktionsfähigkeit vorgesehen sein, wobei der Sicherheitssensor den

Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 zumindest teilweise ersetzt. In einem weiteren optionalen Schritt 294 kann nach der Erkennung der Funktionsfähigkeit des

Umgebungssensors eine Anpassung 294 einer Anzeige eines Umgebungsmodells für einen Nutzer des Fahrzeugs 100 in Abhängigkeit der erkannten Funktionsfähigkeit durchgeführt werden. In einem weiteren optionalen Schritt 295 kann nach der

Erkennung der Funktionsfähigkeit des Umgebungssensors eine Steuerung einer Lenkung und/oder eine Steuerung einer Geschwindigkeit des Fahrzeugs 100 in Abhängigkeit der erkannten Funktionsfähigkeit angepasst werden. In Figur 3a ist eine Visualisierung der wesentlichen Schritte des Verfahrens bis zur Bestimmung 250 des mindestens einen Objektes 310 in der Umgebung 190 und dessen Soll-Position in Abhängigkeit der Karte 300 der Umgebung 190 schematisch dargestellt. Figur 3a zeigt die Karte 300 der Umgebung 190 in Aufsicht. Nach der Ermittlung 220 der aktuellen Koordinaten X, Y des Fahrzeugs 100 ist die Position des Fahrzeugs auf der Karte 300 bekannt, siehe in Figur 3a vereinfachte Darstellung des Fahrzeugs 100 auf der Karte 300. Nach der Ermittlung 220 der aktuellen Ausrichtung f des Fahrzeugs 100, beispielsweise des Gierwinkels des Fahrzeugs 100, ist die Orientierung des Fahrzeugs 100 auf der Karte 300 bekannt, siehe in Figur 3a vereinfachte Darstellung des Fahrzeugs 100 auf der Karte 300. Folglich ist für einen vorbestimmten beziehungsweise zu überprüfenden beziehungsweise zu kalibrierenden Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140, dessen vorbestimmte Position am Fahrzeug 100 bekannt ist, auch dessen Erfassungsbereich beziehungsweise der Teilbereich 320 der Karte 300, welcher von dem Umgebungssensor 110, 111, 112, 113, 114, 115, 116,

120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 erfasst werden kann, bekannt. Der Erfassungsbereich der Umgebung 190 des Umgebungssensors 110,

111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 wird durch den Teilbereich 320 der Karte 300 repräsentiert. In diesem Teilbereich der Karte 300, den der Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 erfasst, wird ein passendes Objekt zur Überprüfung der Funktionsfähigkeit beziehungsweise zum Erkennen der Funktionsfähigkeit und/oder zur Kalibrierung des jeweiligen

Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 gesucht beziehungsweise bestimmt. Die

Bestimmung des Objektes 310 erfolgt vorzugsweise in Abhängigkeit vorbestimmter Kriterien. Wurde ein Objekt 310 gefunden beziehungsweise identifiziert

beziehungsweise bestimmt, kann die Soll-Position beziehungsweise die Soll- Koordinaten ZI, Z2 bezüglich des Fahrzeugs in Abhängigkeit der aktuellen

Koordinaten X, Y des Fahrzeugs 100 ermittelt werden.

In Figur 3b ist ein Erfassungsbereich des vorbestimmten beziehungsweise zu überprüfenden beziehungsweise zu kalibrierenden Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 beziehungsweise eine Visualisierung der erzeugten Umgebungsdaten schematisch dargestellt, wobei die Umgebungsdaten semantische Informationen umfassen. Mit anderen Worten wird beispielsweise in einem Kamerabild einer Kamera 110, 111, 112, 113, 114, 115, 116 das bestimmte Objekt 310 und optional weitere Objekte 330 erkannt und den Abstandsdaten als semantische Information zugeordnet. In Figur 3b sind diese semantische Informationen umfassenden Umgebungsdaten dargestellt. In den Abstandsdaten zwischen dem Fahrzeug und Objekten in der Umgebung des Fahrzeugs 190 ist das Objekt 310 teilweise erfasst, siehe Figur 3b. Nach einer

Erkennung des Objektes 310, bevorzugt durch ein angelerntes maschinelles

Erkennungsverfahren beziehungsweise eine künstliche Intelligenz, beispielsweise ein neuronales Netz, in Abhängigkeit eines Kamerabildes, welches mittels einer Kamera

110, 111, 112, 113, 114, 115, 116 erfasst wurde, wird den in den Umgebungsdaten vorliegenden Abstandsdaten eine Objektinformation zugeordnet. In Abhängigkeit der Umgebungsdaten kann folglich die Ist-Position Wl, W2 des Objektes 310 bezüglich des Fahrzeugs 100 ermittelt beziehungsweise erkannt werden. Im Schritt 290 wird durch einen Vergleich der Ist-Position Wl, W2 mit der Soll-Position ZI, Z2 die

Funktionsfähigkeit des Umgebungssensors 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 ermittelt beziehungsweise erkannt. Alternativ oder zusätzlich wird im Schritt 291 durch den Vergleich der Ist- Position Wl, W2 mit der Soll-Position ZI, Z2 der Umgebungssensor 110, 111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 kalibriert. Andere Objekte 330 außer das bestimmte Objekt 310 werden zur Erkennung 290 der Funktionsfähigkeit und/oder der Kalibrierung 291 des Umgebungssensors 110,

111, 112, 113, 114, 115, 116, 120, 121, 122, 123, 124, 125, 126, 127, 128, 129, 130 oder 140 nicht berücksichtigt. Das bestimmte Objekt 310 ist vorzugsweise groß und ortsfest, beispielsweise eine Ampel, eine Litfaßsäule oder ein Gebäude.




 
Previous Patent: WINDSHIELD WIPER DEVICE

Next Patent: WIPER STRIP UNIT