Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR MONITORING AND CONTROLLING A REMOTELY-CONTROLLED PARKING OR MANEUVERING OPERATION OF A VEHICLE
Document Type and Number:
WIPO Patent Application WO/2019/185097
Kind Code:
A1
Abstract:
The invention relates to a method for monitoring and controlling a remotely-controlled parking or maneuvering operation of a vehicle (1), comprising the following steps: capturing image information in the region surrounding the vehicle (1) by means of at least two cameras of the vehicle (1); creating spatially perspective surroundings information on the basis of the image information from the at least two cameras; displaying the spatially perspective surroundings information on a mobile remote-control device (2); controlling the parking or maneuvering operation by means of the mobile remote-control device (2) on the basis of the spatially perspective surroundings information.

Inventors:
FRIEBE, Markus (DE)
EDLING, Frank (DE)
Application Number:
DE2019/200020
Publication Date:
October 03, 2019
Filing Date:
February 27, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CONTI TEMIC MICROELECTRONIC GMBH (Sieboldstraße 19, Nürnberg, 90411, DE)
CONTINENTAL TEVES AG & CO. OHG (Guerickestr. 7, Frankfurt am Main, 60488, DE)
International Classes:
B62D15/02; G05D1/02; G06T11/00; G06T15/20; G08G1/00
Foreign References:
DE102012007984A12013-03-14
DE102009048492A12011-03-31
DE102015215918A12017-02-23
EP1179958A12002-02-13
US20100134519A12010-06-03
Other References:
None
Attorney, Agent or Firm:
CONTI TEMIC MICROELECTRONIC GMBH (Intellectual Property, Sieboldstraße 19, Nuernberg, 90411, DE)
Download PDF:
Claims:
Patentansprüche

1 ) Verfahren zur Überwachung und Steuerung eines fernbedienten Park- oder Manövriervorgangs eines Fahrzeugs (1 ), umfassend folgende Schritte:

- Erfassen von Bildinformationen im Umgebungsbereichs des Fahrzeugs (1 ) durch zumindest zwei Kameras des Fahrzeugs (1 );

- Erstellen von räumlich perspektivischen Umgebungsinformationen ba- sierend auf den Bildinformationen der zumindest zwei Kameras;

- Darstellen der räumlich perspektivischen Umgebungsinformationen an einem mobilen Fernbediengerät (2);

- Steuern des Park- oder Manövriervorgangs mittels des mobilen Fern- bediengeräts (2) basierend auf den räumlich perspektivischen Umge- bungsinformationen.

2) Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass in den räumlich perspektivischen Umgebungsinformationen zumindest ein Teil der Außenkon- turen des Fahrzeugs (1 ) erkennbar sind.

3) Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Dar- stellung der räumlich perspektivischen Umgebungsinformationen eine zumin- dest teilweise transparente Darstellung des Fahrzeugs (1 ) oder dessen Au- ßenkontur umfasst, so dass ein Umgebungsbereich, der sich bezogen auf den Bezugspunkt der perspektivischen Ansicht der Umgebungsinformationen ver- deckt hinter dem Fahrzeug (1 ) befindet, zumindest teilweise sichtbar wird.

4) Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass der Bezugspunkt der dargestellten räumlich perspektivischen Umgebungsinformationen basierend auf der örtlichen Lage des mobilen Fernbediengeräts (2) und dessen Ausrichtung gewählt wird.

5) Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass der Zoomfaktor der räumlich perspektivischen Umgebungsin- formationen an dem mobilen Fernbediengerät (2) veränderbar ist. 6) Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass der Bezugspunkt der dargestellten räumlich perspektivischen Umgebungsinformationen durch eine Benutzereingabe am mobilen Fernbe- diengerät (2) veränderbar ist.

7) Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die Darstellung der räumlich perspektivischen Umgebungsin- formationen mit Informationen überlagert werden, die von einer weiteren Sen- sorik, insbesondere einer Abstandssensorik erfasst wurden.

8) Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekenn- zeichnet, dass die am mobilen Fernbediengerät (2) dargestellten, räumlich perspektivischen Umgebungsinformationen durch eine fahrzeugseitige Steu- ereinheit bereitgestellt und über einen drahtlosen Kommunikationskanal (3) an das mobile Fernbediengerät (2) übertragen werden.

9) Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die von den Kameras des Fahrzeugs (1 ) ermittelten Bildinformationen über einen drahtlosen Kommunikationskanal (3) an das mobile Fernbediengerät (2) übertragen werden und eine Rechnereinheit (2.1 ) des mobile Fernbediengeräts (2) die räumlich perspektivischen Umgebungsinformationen basierend auf den Bildinformationen erzeugt.

10) Fahrassistenzsystem für ein Fahrzeug (1 ) mit einer Steuereinheit (10.1 ), die zur Kommunikation mit einer Antriebseinheit und einer Lenkeinheit des Fahrzeugs (1 ) ausgebildet ist, um die Antriebseinheit und Lenkeinheit mittels Steuerin- formationen bei der Durchführung eines fahrerlosen Fahrmanövers zu steuern, wobei das Fahrassistenzsystem (10) ein Kommunikationsmodul (1 1 ) aufweist, das zur Kommunikation mit einem mobilen Fernbediengerät (2) ausgebildet ist, wobei das Fahrassistenzsystem (10) zudem aufweist:

- eine fahrzeugseitige Schnittstelle (12) zum Versenden von Bildinforma- tionen oder davon abgeleiteter räumlich perspektivischer Umgebungs- Informationen vom Umgebungsbereich des Fahrzeugs (1 ) an ein mobiles Fernbediengerät (2);

- ein mobiles Fernbediengerät (2) mit einer Anzeigeeinheit (2.2), die zur Anzeige von räumlich perspektivischen Umgebungsinformationen des Umgebungsbereichs des Fahrzeugs (1 ) ausgebildet ist, wobei das mobile

Fernbediengerät (2) entweder zur Erzeugung der räumlich perspektivi- schen Umgebungsinformationen aus den empfangenen Bildinformatio- nen oder zum Empfang dieser räumlich perspektivischen Umgebungs- Informationen von der fahrzeugseitigen Schnittstelle (12) ausgebildet ist; wobei das mobile Fernbediengerät (2) Steuermittel aufweist, über die die das fahrerlose Fahrmanöver basierend auf den angezeigten räumlich perspekti- vischen Umgebungsinformationen steuerbar ist.

11 ) Fahrzeug umfassend ein Fahrassistenzsystem (10) gemäß Anspruch 10.

Description:
Verfahren zur Überwachung und Steuerung eines fernbedienten Park- oder

Manövriervorgangs eines Fahrzeugs

Die Erfindung betrifft ein Verfahren zur Überwachung und Steuerung eines fern- bedienten Park- oder Manövriervorgangs eines Fahrzeugs.

Aus dem Stand der Technik sind Parkassistenzsysteme für Fahrzeuge bekannt, mittels denen Parkvorgänge automatisiert bzw. teilautomatisiert vollzogen werden können. Derartige Parkvorgänge können beispielsweise Einpark- oder Auspark- vorgänge sein. Hierbei können unterschiedliche Parksituationen auftreten, bei- spielsweise Parallel-Parksituationen, in denen das Fahrzeug parallel oder im We- sentlichen parallel zur Fahrbahn in eine bzw. aus einer Parklücke manövriert wird oder Senkrecht- bzw. Schräg-Parksituationen, in denen das Fahrzeug in eine quer zur Fahrbahn ausgerichtete Parklücke ein- bzw. ausgeparkt wird.

Ferner ist bekannt, derartige Parkvorgänge fernbedient durchzuführen, d.h. der Fahrzeugnutzer befindet sich nicht innerhalb des Fahrzeugs sondern außerhalb dessen und beabstandet zu diesem.

Nachteilig bei der Durchführung von fernbedienten Parkvorgängen ist, dass der Fahrzeugnutzer Bereiche in der Umgebung des Fahrzeugs, die durch das Fahrzeug verdeckt sind, nicht einsehen kann. Steht der Fahrzeugnutzer beispielsweise bei einem Rückwärts-Einparkvorgang vor der Front des Fahrzeugs, kann er bei spielsweise den Umgebungsbereich hinter dem Fahrzeug nicht einsehen. Dadurch kann es zu unerwünschten Abbrüchen des automatischen Parkvorgangs oder aber im ungünstigsten Fall zu Kollisionen kommen.

Ausgehend hiervon ist es Aufgabe der Erfindung, ein Verfahren zur Steuerung eines fernbedienten Parkvorgangs anzugeben, das eine sicherere Steuerung des Parkvorgangs mit verbesserten Überwachungsmöglichkeiten für den Fahrzeug- nutzer ermöglicht. Die Aufgabe wird durch ein Verfahren mit den Merkmalen des unabhängigen Pa- tentanspruchs 1 gelöst. Bevorzugte Ausführungsformen sind Gegenstand der Un- teransprüche. Ein Fahrassistenzsystem ist Gegenstand des nebengeordneten Patentanspruchs 10 und ein Fahrzeug mit einem solchen Fahrassistenzsystem ist Gegenstand des Patentanspruchs 11.

Gemäß einem ersten Aspekt bezieht sich die Erfindung auf ein Verfahren zur Überwachung und Steuerung eines fernbedienten Park- oder Manövriervorgangs eines Fahrzeugs. Das Verfahren umfasst dabei die folgenden Schritte:

Zunächst werden Bildinformationen im Umgebungsbereich des Fahrzeugs durch zumindest zwei Kameras des Fahrzeugs erfasst. Die Kameras sind vorzugsweise derart verteilt an dem Fahrzeug vorgesehen, dass durch diese zumindest ab- schnittsweise unterschiedliche Raumbereiche in der Umgebung des Fahrzeugs erfassbar sind. Die Kameras sind vorzugsweise Kameras eines Rund- um-Sicht-Systems des Fahrzeugs.

Aus diesen erfassten Bildinformationen werden anschließend dreidimensionale Umgebungsinformationen erzeugt, die als räumlich perspektivische Umgebungs- informationen auf einer Anzeigeeinheit darstellbar sind. Die räumlich perspektivi- schen Umgebungsinformationen stellen dabei einen Ausschnitt aus den dreidi- mensionalen Umgebungsinformationen dar und beziehen sich auf einen Bezugs- bzw. Betrachtungspunkt, von dem aus die Umgebung im Bereich des Fahrzeugs betrachtet wird. Die dreidimensionalen Umgebungsinformationen werden durch Zusammenfügen der von unterschiedlichen Kameras bereitgestellten Bildinforma- tionen und ggf. durch ein Anpassen dieser Bildinformationen erhalten.

Die räumlich perspektivischen Umgebungsinformationen werden anschließend an einem mobilen Fernbediengerät angezeigt. Dadurch kann der außerhalb des Fahrzeugs befindliche Fahrzeugnutzer, der das Fernbediengerät hält, die auf der Anzeigeeinheit des mobilen Fernbediengeräts dargestellten räumlich perspektivi- schen Umgebungsinformationen optisch wahrnehmen. Unterstützt durch die räumlich perspektivischen Umgebungsinformationen kann der Fahrzeugnutzer anschließend den Park- oder Manövriervorgang mittels des mo- bilen Fernbediengeräts steuern.

Der wesentliche Vorteil des erfindungsgemäßen Verfahrens besteht darin, dass dem Fahrzeugnutzer eine verbesserte optische Überwachung des Park- oder Manövriervorgangs ermöglicht wird und dieser damit den Park- oder Manövrier- vorgang mit einer höheren Sicherheit steuern kann.

Gemäß einem Ausführungsbeispiel ist in den räumlich perspektivischen Umge- bungsinformationen zumindest ein Teil der Außenkonturen des Fahrzeugs er- kennbar. Anders ausgedrückt ist in den räumlich perspektivischen Umgebungsin- formationen damit auch die Lage zumindest eines Abschnitts des Fahrzeugs relativ zu dessen Umgebungsbereich erkennbar. Dadurch lässt sich eine sicherere Steu- erung des Park- oder Manövriervorgangs erreichen, da beispielsweise erkennbar wird, wie nahe ein Fahrzeug beispielsweise einem Objekt in dessen Umgebung kommt.

Gemäß einem Ausführungsbeispiel umfasst die Darstellung der räumlich perspek- tivischen Umgebungsinformationen eine zumindest teilweise transparente Dar- stellung des Fahrzeugs oder dessen Außenkontur, so dass ein Umgebungsbereich, der sich bezogen auf den Bezugspunkt der perspektivischen Ansicht der Umge- bungsinformationen verdeckt hinter dem Fahrzeug befindet, zumindest teilweise sichtbar wird. In anderen Worten wird ein„virtuelles Hindurchschauen“ durch das Fahrzeug ermöglicht. Dies kann beispielsweise dadurch erreicht werden, dass die perspektivische Silhouette des Fahrzeugs zumindest teilweise transparent darge- stellt wird und der Umgebungsbereich, der eigentlich verdeckt hinter dem Fahrzeug liegt, im Bereich dieser transparenten Fahrzeugsilhouette angezeigt wird. Dadurch kann dem Fahrzeugnutzer ein wesentlich höheres Sicherheitsgefühl bei der Steu- erung des Park- oder Manövriervorgangs vermittelt werden, da dieser auch durch das Fahrzeug eigentlich verdeckte Bereiche wahrnehmen kann, ohne seinen Standort wechseln zu müssen. Gemäß einem Ausführungsbeispiel wird der Bezugspunkt der dargestellten räum- lich perspektivischen Umgebungsinformationen basierend auf der örtlichen Lage des mobilen Fernbediengeräts und dessen Ausrichtung gewählt. Vorzugsweise werden die Raumkoordinaten (z.B. x-, y-, z-Koordinaten), an denen sich das Fernbediengerät befindet, verwendet, um den Standort des Fahrzeugnutzers und damit seinen perspektivischen Betrachtungspunkt, von dem aus er die Umgebung um das Fahrzeug herum wahrnimmt, zu bestimmen. Vorzugsweise werden auch Winkelinformationen anhand einer im Fernbediengerät vorhandenen Sensorik be- stimmt, um die Neigungs- bzw. Schwenkwinkel des Fernbediengeräts feststellen zu können. Dies können insbesondere zumindest zwei Neigungs- bzw. Schwenkwin- kel sein, und zwar Winkel bezogen auf zwei Raumachsen, die eine vertikale Ebene im Raum aufspannen. Weiterhin kann auch ein dritter Neigungs- bzw. Schwenk- winkel bestimmt werden, beispielsweise ein Winkel in Bezug auf eine Raumachse, die senkrecht zu der vertikalen Ebene im Raum verläuft. Durch die Wahl des Be- zugspunkts unter Berücksichtigung der der örtlichen Lage und Ausrichtung des Fernbediengeräts kann auf der Anzeigeeinheit des Fernbediengeräts der Umge- bungsbereich dargestellt werden, der der Lage und Ausrichtung des Fernbedien- geräts entspricht. Anders ausgedrückt bildet damit die Anzeigeeinheit des Fernbe- diengeräts eine Art virtuellen Bilderrahmen, in dem der der Lage und Ausrichtung des Fernbediengeräts entsprechende Ausschnitt des Umgebungsbereichs darge- stellt wird.

Gemäß einem Ausführungsbeispiel ist der Zoomfaktor der räumlich perspektivi- schen Umgebungsinformationen an dem mobilen Fernbediengerät veränderbar. Dadurch kann der Fahrzeugnutzer beispielsweise einen bestimmten Umge- bungsbereich des Fahrzeugs durch eine entsprechende Eingabe an dem Fernbe- diengerät vergrößert darstellen lassen, um beispielsweise ein bestimmtes Detail besser erkennen zu können.

Gemäß einem Ausführungsbeispiel ist der Bezugspunkt der dargestellten räumlich perspektivischen Umgebungsinformationen durch eine Benutzereingabe am mo- bilen Fernbediengerät veränderbar. In anderen Worten kann durch eine entspre- chende Eingabe der Bezugspunkt bzw. Betrachtungspunkt, der zunächst bei- spielsweise anhand der örtlichen Lage und Ausrichtung des Fernbediengeräts gewählt wurde, aktiv verändert werden, und zwar ohne räumliche Veränderung des Standorts des Fahrzeugnutzers selbst. Dadurch kann der Fahrzeugnutzer sich den Umgebungsbereich aus einem anderen Blickwinkel darstellen lassen, um bei- spielsweise Bereiche in der Umgebung des Fahrzeugs aus einer anderen Blick- richtung betrachten zu können.

Gemäß einem Ausführungsbeispiel werden die Darstellung der räumlich perspek- tivischen Umgebungsinformationen mit Informationen überlagert werden, die von einer weiteren Sensorik, insbesondere einer Abstandssensorik erfasst wurden. So können beispielsweise optische Indikatoren in Form von Balken o.ä. in die räumlich perspektivischen Umgebungsinformationen eingefügt werden, wenn der Abstand des Fahrzeugs zu einem Objekt einen Mindestabstand unterschreitet. Je nach Abstand können die optischen Indikatoren auch unterschiedliche Farben aufwei- sen. Die Lage der eingefügten optischen Indikatoren wird vorzugsweise derart gewählt, dass diese der Lage des Objekts entspricht, zu dem der Mindestabstand unterschritten wurde. Dadurch lässt sich die Steuerungssicherheit weiter erhöhen.

Gemäß einem Ausführungsbeispiel werden die am mobilen Fernbediengerät dar- gestellten, räumlich perspektivischen Umgebungsinformationen durch eine fahr- zeugseitige Steuereinheit bereitgestellt und über einen drahtlosen Kommunikati- onskanal an das mobile Fernbediengerät übertragen. Vorzugsweise werden zu- nächst Informationen hinsichtlich der örtlichen Lage und Ausrichtung des Fernbe- diengeräts vom Fernbediengerät an das Fahrzeug übertragen. Dieses ermittelt daraus den Bezug- bzw. Betrachtungspunkt, von dem aus die Umgebung des Fahrzeugs auf der Anzeigeeinheit des Fernbediengeräts dargestellt werden soll. Die daraus resultierenden räumlich perspektivischen Umgebungsinformationen (die ein Ausschnitt der gesamten dreidimensionalen Umgebungsinformationen sind) werden vom Fahrzeug über einen drahtlosen Kommunikationskanal an das Fern- bediengerät übertragen, um diese räumlich perspektivischen Umgebungsinforma- tionen auf dessen Anzeigeeinheit darstellen zu können. In einem alternativen Ausführungsbeispiel werden die von den Kameras des Fahrzeugs ermittelten Bildinformationen über einen drahtlosen Kommunikations- kanal an das mobile Fernbediengerät übertragen und eine Rechnereinheit des mobile Fernbediengeräts erzeugt die räumlich perspektivischen Umgebungsin- formationen basierend auf den Bildinformationen. In anderen Worten werden über den zwischen dem Fernbediengerät und dem Fahrzeug vorhandenen drahtlosen Kommunikationskanal Bildformationen, die von den einzelnen Kameras des Fahr- zeugs bereitgestellt werden, direkt an das Fernbediengerät übertragen und erst dort werden die dreidimensionalen Umgebungsinformationen erzeugt und die auf der Anzeigeeinheit darzustellenden räumlich perspektivischen Umgebungsinformatio- nen bestimmt.

Gemäß einem weiteren Aspekt betrifft die Erfindung ein Fahrassistenzsystem für ein Fahrzeug. Das Fahrassistenzsystem umfasst eine Steuereinheit, die zur Kommunikation mit einer Antriebseinheit und einer Lenkeinheit des Fahrzeugs ausgebildet ist, um die Antriebseinheit und Lenkeinheit mittels Steuerinformationen bei der Durchführung eines fahrerlosen Fahrmanövers zu steuern. Das Fahras- sistenzsystem weist ein Kommunikationsmodul auf, das zur Kommunikation mit einem mobilen Fernbediengerät ausgebildet ist. Zudem umfasst das Fahrassis- tenzsystem folgendes:

- eine fahrzeugseitige Schnittstelle zum Versenden von Bildinformationen oder davon abgeleiteter räumlich perspektivischer Umgebungsinforma- tionen vom Umgebungsbereich des Fahrzeugs an ein mobiles Fernbe- diengerät;

- ein mobiles Fernbediengerät mit einer Anzeigeeinheit, die zur Anzeige von räumlich perspektivischen Umgebungsinformationen des Umge- bungsbereichs des Fahrzeugs ausgebildet ist, wobei das mobile Fern- bediengerät entweder zur Erzeugung der räumlich perspektivischen Umgebungsinformationen aus den empfangenen Bildinformationen oder zum Empfang dieser räumlich perspektivischen Umgebungsinformatio- nen von der fahrzeugseitigen Schnittstelle ausgebildet ist; Das mobile Fernbediengerät weist zudem Steuermittel auf, über die das fahrerlose Fahrmanöver basierend auf den angezeigten räumlich perspektivischen Umge- bungsinformationen steuerbar ist.

Zuletzt umfasst die Erfindung ein Fahrzeug mit einem vorbeschriebenen Fahras- sistenzsystem.

Unter„Parkvorgang“ im Sinne der vorliegenden Erfindung werden jegliche Bewe- gungen des Fahrzeugs zum Einnehmen einer Parkstellung oder zum Flerausbe- wegen aus einer Parkstellung verstanden, also insbesondere Ein- und Auspark- vorgänge.

Unter„Fernbediengerät“ im Sinne der vorliegenden Erfindung wird jegliche Einheit verstanden, die dem Fahrzeugnutzer zugeordnet werden kann, insbesondere das dieser mit sich führen kann. Derartige Geräte können beispielsweise Fahrzeug- schlüssel, Fahrzeugkarten, Flandys, Smartphones, Tablet-PCs, Laptops oder an- dere tragbare Einheiten, insbesondere Telekommunikationsgeräte sein.

Unter„räumlich perspektivischen Umgebungsinformationen“ wird ein Ausschnitt aus dreidimensionalen Umgebungsinformationen verstanden, der angibt, wie die Umgebung von einem bestimmten Bezugspunkt aus betrachtet von einem Be- trachter wahrgenommen wird. Die räumlich perspektivischen Umgebungsinforma- tionen lassen sich auf einer herkömmlichen Anzeigeeinheit, beispielsweise einem Display eines mobilen Telekommunikationsgeräts, anzeigen.

Die Ausdrücke„näherungsweise“,„im Wesentlichen“ oder„etwa“ bedeuten im Sinne der Erfindung Abweichungen vom jeweils exakten Wert um +/- 10%, bevor- zugt um +/- 5% und/oder Abweichungen in Form von für die Funktion unbedeu- tenden Änderungen.

Weiterbildungen, Vorteile und Anwendungsmöglichkeiten der Erfindung ergeben sich auch aus der nachfolgenden Beschreibung von Ausführungsbeispielen und aus den Figuren. Dabei sind alle beschriebenen und/oder bildlich dargestellten Merkmale für sich oder in beliebiger Kombination grundsätzlich Gegenstand der

Erfindung, unabhängig von ihrer Zusammenfassung in den Ansprüchen oder deren

Rückbeziehung. Auch wird der Inhalt der Ansprüche zu einem Bestandteil der Be- schreibung gemacht.

Die Erfindung wird im Folgenden anhand der Figuren an Ausführungsbeispielen näher erläutert. Es zeigen:

Fig. 1 beispielhaft und schematisch eine Einparksituation in eine Parklücke, wobei sich der Fahrzeugnutzer außerhalb des Fahrzeugs befindet;

Fig. 2 beispielhaft und schematisch ein Blockdiagramm eines ein Fahrassis- tenzsystem aufweisenden Fahrzeugs;

Fig. 3 beispielhaft und schematisch eine perspektivische Darstellung von drei- dimensionalen Umgebungsinformationen im Umgebungsbereich des Fahrzeugs;

Fig. 4 beispielhaft und schematisch eine perspektivische Darstellung der Ein- parksituation gemäß Fig. 1 , wie sie der Fahrzeugnutzer direkt (ohne An- zeige am Fernbediengerät) optisch wahrnimmt;

Fig. 5 schematisch eine beispielhafte erste Darstellung der Einparksituation ge- mäß Fig. 1 mit einer teilweise transparenten Fahrzeugsilhouette, wie sie auf dem Fernbediengerät dargestellt wird;

Fig. 6 schematisch eine beispielhafte zweite Darstellung der Einparksituation gemäß Fig. 1 , wie sie auf dem Fernbediengerät dargestellt wird;

Fig. 7 beispielhaft die Darstellung der Einparksituation auf dem Fernbediengerät gemäß Fig. 5 mit einem Steuermittel zur Veränderung des Bezugspunkts der räumlich perspektivischen Darstellung; und Fig. 8 beispielhaft eine schematische Funktionsdarstellung eines Fahrzeugs und eines mit dem Fahrzeug gekoppelten Fernbediengeräts.

Figur 1 zeigt beispielhaft und schematisch ein Parkszenario, bei dem ein Fahr- manöver eines Fahrzeugs 1 durch ein Fahrassistenzsystem, insbesondere ein Parkassistenzsystem gesteuert wird. Dieses Parkszenario bezieht sich beispiels- weise auf eine Einpark-Situation, in der das Fahrzeug 1 in eine senkrecht zur Fahrbahn FB ausgerichtete Parklücke bewegt wird. Es versteht sich, dass die Er- findung auch auf andere Fahrmanöver bzw. Parkszenarios anwendbar ist, in denen das Fahrzeug 1 beispielsweise parallel oder im Wesentlichen parallel bzw. schräg zur Fahrbahn FB in einer Parklücke steht.

Unabhängig vom jeweiligen Parkszenario ist es durch das Parkassistenzsystem des Fahrzeugs 1 möglich, dass ein Einparkvorgang bzw. Ausparkvorgang durch einen Fahrzeugnutzer 4 unter Verwendung eines mobilen Fernbediengeräts 2 ferngesteuert wird. Dabei befindet sich der Fahrzeugnutzer 4 und das ihm zuge- ordnete mobile Fernbediengerät 2 nicht im Inneren des Fahrzeugs 1 sondern der Fahrzeugnutzer 4 und das mobile Fernbediengerät 2 befinden sich außerhalb des Fahrzeugs 1 in räumlicher Nähe zu diesem, beispielsweise in einem Abstand kleiner als 10 m insbesondere kleiner als 6 m.

Das mobile Fernbediengerät 2 kann dabei durch gängige Drahtloskommunikati- onsverbindungen mit dem Fahrzeug 1 gekoppelt sein, so dass zwischen dem Fernbediengerät 2 und dem Fahrzeug 1 zumindest eine unidirektionale, vorzugs- weise eine bidirektionale Datenübertragung erfolgen kann. Die Drahtloskommuni- kationsverbindung kann beispielsweise folgende Übertragungsverfahren benutzen: Bluetooth, WLAN, ZigBee, NFC, Wibree oder WiMAX. Alternativ ist grundsätzlich auch eine optische Kommunikationsverbindung oder eine Kommunikationsver- bindung über das Mobilfunknetz denkbar.

Das Fernbediengerät 2 kann beispielsweise durch einen Fahrzeugschlüssel, ein Telekommunikationsgerät, beispielsweise ein Flandy, Smartphone, Tablet, Laptop etc. gebildet werden. Im Falle der Verwendung von Telekommunikationsgeräten weisen diese vorzugsweise eine Applikation (APP) auf, über die der Datenaus- tausch mit dem Fahrzeug 1 , insbesondere dem Parkassistenzsystem des Fahr- zeugs 1 erfolgt.

Figur 2 zeigt ein schematisches Blockschaltbild eines Fahrzeugs 1 mit einem Fahrassistenzsystem 10. Das Fahrassistenzsystem 10 weist in an sich bekannter Weise eine Steuereinheit 10.1 auf, mittels der beispielsweise Parkassistenzfunk- tionen gesteuert werden. Zudem ist eine Umgebungserfassungssensorik 5 vorge- sehen, mittels der in der räumlichen Umgebung des Fahrzeugs 1 befindliche Ob- jekte erfassbar sind. Derartige Objekte können beispielsweise weitere parkende Fahrzeuge, Gebäude, Randsteine etc. sein. Die Umgebungserfassungssensorik 5 umfasst mehrere Kameras. Zudem kann die Umgebungserfassungssensorik 5 weitere Sensoren umfassen, beispielsweise Abstandssensoren in Form von Ult- raschallsensoren. Des Weiteren können auch andere Sensortypen vorgesehen sein, beispielsweise zumindest ein Radarsensor.

Die Umgebungserfassungssensorik 5 ist mit der Steuereinheit 10.1 gekoppelt. Dadurch können die von der Umgebungserfassungssensorik 5 erfassten Informa- tionen an die Steuereinheit 10.1 übertragen werden, so dass diese daraus bei spielsweise freie Parklücken detektieren kann.

Das Fahrassistenzsystem 10 umfasst ferner ein Kommunikationsmodul 1 1 mit einer Schnittstelle 12. Über dieses Kommunikationsmodul 1 1 bzw. die Schnittstelle 12 können Informationen mit dem mobilen Fernbediengerät 2 ausgetauscht werden. Insbesondere können von der Umgebungserfassungssensorik 5 erfasste Umge- bungsinformationen von dem Fahrzeug 1 an das mobile Fernbediengerät 2 über- tragen werden.

Das Fahrzeug 1 oder das mobile Fernbediengerät 2 sind vorzugsweise dazu aus- gebildet, aus den von den zumindest zwei Kameras bereitgestellten Bildinformati- onen dreidimensionale Umgebungsinformationen zu erzeugen. Fig. 3 zeigt beispielhaft eine perspektivische Darstellung des dreidimensionalen Raums im Umgebungsbereich des Fahrzeugs 1 . Eine solche Darstellung wird beispielsweise als 3D-bowl bezeichnet. Aus den von den Kameras bereitgestellten Bildinformationen können entweder durch eine fahrzeugseitig vorgesehene Steu- ereinheit oder eine Rechnereinheit des mobilen Fernbediengeräts 2 räumlich per- spektivische Umgebungsinformationen berechnet werden. Bei diesen räumlich perspektivischen Umgebungsinformationen ist vorzugsweise das Fahrzeug selbst bzw. dessen Kontur erkennbar. Diese Art der seitlich perspektivischen

Rund-um-Sicht-Darstellung ermöglicht, im Gegensatz zu einer Drauf- sicht-Darstellung (Vogelperspektive), die perspektivische Betrachtung des Umge- bungsbereichs des Fahrzeugs 1 von einem bestimmten Bezugspunkt bzw. Be- trachtungspunkt aus. Dabei kann der Bezugspunkt bzw. Betrachtungspunkt variiert werden, d.h. es kann die virtuelle Position, von der aus das Fahrzeug und dessen Umgebung betrachtet werden, geändert werden (virtuelle Bewegung in der

3D-bowl). Dadurch wird eine realistischere Darstellung des Umgebungsbereichs des Fahrzeugs 1 erreicht.

In Figur 4 ist schematisch ein Umgebungsbereich um ein Fahrzeug 1 gezeigt, wobei das Fahrzeug 1 einen Rückwärts-Einparkvorgang in eine Parklücke vollzieht (siehe Pfeil für die Fahrtrichtung). Das Parkszenario entspricht dem in Fig. 1 in einer Draufsichtdarstellung gezeigten Szenario, und zwar von dem Standpunkt des Fahrzeugnutzers 4 aus, der den Parkvorgang von seiner Position außerhalb des Fahrzeugs 1 steuert. Wie in Fig. 4 erkennbar, wird das in Fig. 1 erkennbare Objekt 6 in der Darstellung gemäß Fig. 4 vom Fahrzeug 1 verdeckt, so dass der Fahr- zeugnutzer 4 dieses Objekt 6 von seiner Betrachtungsposition aus nicht erkennen kann.

Vorteilhafterweise weist das mobile Fernbediengerät 2 eine Anzeigeeinheit 2.2 auf, auf der die räumlich perspektivischen Umgebungsinformationen darstellbar sind.

Der Bezugspunkt für die räumlich perspektivische Darstellung der Umgebungsin- formationen, d.h. der Punkt, von dem aus der Umgebungsbereich perspektivisch dargestellt wird, wird vorzugsweise derart gewählt, dass der Bezugspunkt dem Standpunkt des Fahrzeugnutzers 4 entspricht. Dazu können Lageinformationen bzw. Ausrichtinformationen, d.h. beispielsweise x-, y- und z-Koordinaten und Winkelinformationen, die eine Verschwenkung des Fernbediengerätes 2 um zu- mindest eine Raumachse, vorzugsweise zwei oder drei Raumachsen angeben, von dem Fernbediengerät 2 an das Fahrzeug 1 übertragen werden. Alternativ oder zusätzlich können die Lageinformationen des Fernbediengerätes 2 durch geeignete Ortungsverfahren auch vom Fahrzeug 1 aus bestimmt werden. Anhand dieser Lageinformationen und vorzugsweise auch Ausrichtinformationen kann bestimmt werden, welcher Ausschnitt des Umgebungsbereichs durch die räumlich perspek- tivischen Umgebungsinformationen an der Anzeigeeinheit 2.2 des Fernbedienge- rätes 2 angezeigt werden sollen. Bevorzugt ist das genau der Bereich, den der Fahrzeugnutzer 4 selbst sieht, wenn er ohne das Fernbediengerät 2 frei nach vorne blickt. Dieser Umgebungsbereich, wie ihn der Fahrzeugnutzer 4 ohne Fernbe- diengerät 2 selbst wahrnimmt, ist beispielhaft in Fig. 4 gezeigt.

Fig. 5 zeigt eine Darstellung eines Fernbediengeräts 2 (z.B. in Form eines Smart- phones), auf dessen Anzeigeeinheit 2.2 der Umgebungsbereich um das Fahrzeug 1 dargestellt ist, und zwar als räumlich perspektivische Umgebungsinformationen, wie sie durch den Fahrzeugnutzer 4 von dessen Betrachtungsposition aus wahr- nehmbar sind.

Der wesentliche Unterschied der auf der Anzeigeeinheit 2.2 dargestellten räumlich perspektivischen Umgebungsinformationen zu den real vom Fahrzeugnutzer 4 wahrnehmbaren Umgebungsinformationen (s. Fig. 4) besteht darin, dass das Fahrzeug 1 bzw. dessen Außenkontur zumindest teilweise transparent dargestellt ist, so dass auch der Bereich, der durch das Fahrzeug 1 verdeckt wird (rechts hinter dem Fahrzeug), sichtbar ist. Dies ist im gezeigten Ausführungsbeispiel insbeson- dere das Objekt 6, das sich hinter dem rechten, hinteren Eck des Fahrzeugs 1 befindet. In anderen Worten wird damit bei der Darstellung der räumlich perspekti- vischen Umgebungsinformationen ein virtuelles Hindurchsehen durch das Fahr- zeug 1 ermöglicht. Die auf der Anzeigeeinheit 2.2 dargestellten Informationen können auf unter- schiedliche Weise gewonnen werden. Zum einen können die auf der Anzeige der Anzeigeeinheit 2.2 darzustellenden Informationen in einer fahrzeugseitigen Steu- ereinheit des Fahrassistenzsystems 10 erzeugt und drahtlos, beispielsweise über einen Mobilfunkkanal, an das Fernbediengerät 2 übertragen werden. Vorab können dem Fahrassistenzsystem 10 von dem Fernbediengerät 2 Lageinformationen bzw. Ausrichtinformationen übermittelt werden, damit das Fahrassistenzsystem 10 ge- zielt den Bezugspunkt bzw. den Betrachtungspunkt für die räumlich perspektivi- schen Umgebungsinformationen wählen kann.

Alternativ hierzu können von dem Fahrzeug 1 mehrere, von unterschiedlichen Kameras des Fahrzeugs 1 erfasste Bildinformationen an das Fernbediengerät 2 übertragen werden. Die empfangenen Bildinformationen werden dann durch eine Rechnereinheit 2.1 des Fernbediengeräts 2 zu dreidimensionalen Umgebungsin- formationen (s. Fig. 3) zusammengesetzt. Um die räumlich perspektivischen Um- gebungsinformationen zu erhalten, wird anschließend der Bezugspunkt basierend auf den Lageinformationen bzw. Ausrichtinformationen des Fernbediengeräts 2 gewählt und damit der Ausschnitt der dreidimensionalen Umgebungsinformationen festgelegt, der die räumlich perspektivischen Umgebungsinformationen bestimmt.

Das Fernbediengerät 2 kann eine Zoomfunktion bieten, um den Zoomfaktor der räumlich perspektivischen Umgebungsinformationen verändern zu können, bei- spielsweise um einen bestimmten Umgebungsbereich besser sichtbar zu machen.

Fig. 6 zeigt eine weitere Darstellung analog zu der gemäß Fig. 5, wobei der we- sentliche Unterschied darin besteht, dass die Kontur des Fahrzeugs als transpa- rentes quaderförmiges Objekt dargestellt wird. Auch andere Objektkonturformen sind grundsätzlich denkbar. Der wesentliche Vorteil dieser Darstellung besteht darin, dass durch die Darstellung der Kanten für den Fahrzeugnutzer der Abstand des Fahrzeugs 1 zu einem hinter dem Fahrzeug befindlichen Objekt, insbesondere dem Objekt 6, optisch erkennbar ist. Zur Verdeutlichung des Abstand des Fahrzeugs 1 zu einem in der Nähe befindli chen Objekt können zudem weitere optische Informationen in den räumlich per- spektivischen Umgebungsinformationen dargestellt werden, beispielsweise bal- kenartige Informationen, die durch eine Abstandssensorik, beispielsweise Ultra- schallsensoren bereitgestellt werden.

Fig. 7 zeigt eine Darstellung des mobilen Fernbediengeräts 2 mit darauf darge- stellten räumlich perspektivischen Umgebungsinformationen vergleichbar mit der Darstellung gemäß Fig. 5.

Im Unterschied zu der Darstellung gemäß Fig. 5 weist das Fernbediengerät 2 Steuermittel 7 auf, über die der Bezugspunkt bzw. Betrachtungspunkt der räumlich perspektivischen Umgebungsinformationen änderbar ist. Die Steuermittel 7 werden im gezeigten Ausführungsbeispiel durch eine auf der Anzeigeeinheit 2.2 darge- stellte Steuermarkierung (im gezeigten Beispiel cursorartig ausgebildet) gebildet.

Vorzugsweise kann durch ein Einwirken des Fahrzeugnutzers 4 auf die Steuer- mittel 7, wie in der Figur 7 durch das Pfeilpaar dargestellt, der Bezugspunkt bzw. Betrachtungspunkt der räumlich perspektivischen Umgebungsinformationen ver- lagert werden. Beispielsweise kann der Fahrzeugnutzer 4 durch Antippen bzw. Verschieben der Steuermittel 7 den Bezugspunkt bzw. Betrachtungspunkt, der aktuell vor dem linken vorderen Eck des Fahrzeugs 1 liegt, auf die rechte Seite verlagern, so dass der rechte Umgebungsbereich des Fahrzeugs 1 , der in den aktuell dargestellten räumlich perspektivischen Umgebungsinformationen lediglich durch das Fahrzeug 1 bzw. dessen Außenkontur hindurch erkennbar ist, direkt sichtbar wird. In anderen Worten kann damit durch Einwirken auf die Steuermittel 7 der Betrachtungswinkel, aus dem der Umgebungsbereich um das Fahrzeug herum betrachtet wird, geändert werden. Vorzugsweise erfolgt dies ohne physische La- geänderung des Standpunkts des Fahrzeugnutzers 4 sondern lediglich durch eine Änderung des virtuellen Betrachtungspunkts in der räumlich perspektivischen Ge- samtdarstellung des Umgebungsbereichs des Fahrzeugs 1 . Dies bietet den Vorteil, dass der Fahrzeugnutzer quasi virtuell über das Einwirken auf die Steuermittel 7 um das Fahrzeug 1 herumgehen kann und den Umgebungsbereich des Fahrzeugs von unterschiedlichen Positionen aus betrachten kann, ohne seine Position selbst verändern zu müssen.

Fig. 8 zeigt eine schematische Funktionsdarstellung eines Fahrzeugs 1 , das über einen drahtlosen Kommunikationskanal 3 mit einem mobilen Fernbediengerät 2 gekoppelt ist. Das Fahrassistenzsystem 10 des Fahrzeugs 1 weist eine Steuer- einheit 10.1 auf, das mit einem Kommunikationsmodul 11 mit einer Schnittstelle 12 gekoppelt ist. Über die Schnittstelle 12 ist das Fahrassistenzsystem 10 mit dem mobilen Fernbediengerät 2 über einen drahtlosen Kommunikationskanal 3 ge- koppelt. Der drahtlose Kommunikationskanal 3 kann insbesondere ein Mobilfunk- kanal sein. Über den drahtlosen Kommunikationskanal 3 können von der Umge- bungserfassungssensorik 5 bereitgestellte Umgebungsinformationen (Bilddaten einzelner Kameras oder davon abgeleitete räumlich perspektivische Bildinforma- tionen) an das Fernbediengerät 2 übertragen werden. Das Fernbediengerät 2 weist eine Rechnereinheit 2.1 und eine Anzeigeeinheit 2.2 auf, um die räumlich per- spektivischen Bildinformationen anzeigen zu können. Dabei können die räumlich perspektivischen Bildinformationen entweder direkt von dem Fahrassistenzsystem 10 empfangen werden, oder das Fahrassistenzsystem 10 liefert mehrere Bildin formationen von unterschiedlichen fahrzeugseitigen Kameras und die Rech- nereinheit 2.1 des Fernbediengeräts 2 berechnet daraus die räumlich perspektivi- schen Bildinformationen.

Die Erfindung wurde voranstehend an Ausführungsbeispielen beschrieben. Es versteht sich, dass zahlreiche Änderungen sowie Abwandlungen möglich sind, ohne dass dadurch der durch die Patentansprüche definierte Schutzbereich ver- lassen wird. Bezugszeichenliste

1 Fahrzeug

2 mobile Fernbediengerät

2.1 Rechnereinheit

2.2 Anzeigeeinheit

3 drahtloser Kommunikationskanal

4 Fahrzeugnutzer

5 Umgebungserfassungssensorik

6 Objekt

7 Steuermittel 10 Fahrassistenzsystem

10.1 Steuereinheit

11 Kommunikationsmodul

12 Schnittstelle (fahrzeugseitig)

FB Fahrbahn