Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
OVERLAYING ADDITIONAL INFORMATION ON A DISPLAY UNIT
Document Type and Number:
WIPO Patent Application WO/2019/170387
Kind Code:
A1
Abstract:
The invention relates to a method for calculating an overlay of additional information for a display on a display unit (20), in particular a head-up display (HUD) of a vehicle (10) or data glasses. The overlay of additional information serves the purpose of supporting the driver in the longitudinal control of a vehicle (10). The position of an upcoming waypoint is detected, which is specified by the navigation system. When the observer vehicle (10) approaches the waypoint, an animation graphic is calculated, wherein the animation graphic has a grid shape. The animation graphic is calculated such that, distance markers (24) are inserted from the observer vehicle (10) to the waypoint, which permit an improved estimation of the distance to the waypoint.

Inventors:
KLEEN, Andro (Kirchenbrink 4, Braunschweig, 38124, DE)
WITTKÄMPER, Michael (Grabenstraße 2, Braunschweig, 38106, DE)
WYSZKA, Robert Jan (Oeltzenstr. 20, Hannover, 30169, DE)
HAAR, Adrian (Duisburger Str. 6, Hannover, 30173, DE)
Application Number:
EP2019/053743
Publication Date:
September 12, 2019
Filing Date:
February 14, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
VOLKSWAGEN AKTIENGESELLSCHAFT (Berliner Ring 2, Wolfsburg, 38440, DE)
International Classes:
G01C21/36; G02B27/01
Domestic Patent References:
WO2017061035A12017-04-13
WO2013046424A12013-04-04
Foreign References:
US20110102303A12011-05-05
JPH08190696A1996-07-23
JP2011185951A2011-09-22
US20120268351A12012-10-25
JP2005265573A2005-09-29
US20160153801A12016-06-02
US20140267400A12014-09-18
US20140203923A12014-07-24
DE102014200407A12015-07-16
DE102015117381A12016-04-21
DE102016223179A12017-05-24
DE102011112943A12013-03-14
DE102011121763A12013-06-27
Other References:
ROCKWELL COLLINS: "Rockwell Collins Head-up Guidance (HGS) Demo - It's Intuitive and Easy to Fly", 9 July 2012 (2012-07-09), pages 1 - 2, XP054979383, Retrieved from the Internet [retrieved on 20190510]
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur Berechnung einer AR-Einblendung, entsprechend„augmented reality“- Einblendung, von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit (20), insbesondere ein Head-Up Display (HUD) eines Beobachterfahrzeuges (10) oder eine Datenbrille, wobei die Einblendung von Zusatzinformationen dem Zweck der Unterstützung des Fahrers bei der Längsführung eines Beobachterfahrzeuges (10) dient, wobei die

Einblendung nach Art der erweiterten Realität entsprechend„augmented reality“

kontaktanalog zu einem oder mehreren Objekten in der Umwelt des Beobachterfahrzeuges (10) berechnet wird, dadurch gekennzeichnet, dass die Lage eines Wegpunktes entlang einer Navigationsroute erfasst wird, dass bei Annäherung an den Wegpunkt eine

Animationsgrafik berechnet wird, die entlang der Navigationsroute führt, und die

Animationsgrafik so berechnet wird, das ausgehend vom Beobachterfahrzeug (10) bis zu dem Wegpunkt Entfernungsmarken (24) entlang der Navigationsroute eingeblendet werden.

2. Verfahren nach Anspruch 1 , wobei die Animationsgrafik in Rasterform bestehend aus einer Vielzahl von Rasterpunkten (23) berechnet wird und die Entfernungsmarken (24) durch farbliche oder formenmäßige Hervorhebung von Rasterpunkten (23) in der Animationsgrafik dargestellt werden.

3. Verfahren nach Anspruch 2, wobei die Entfernungsmarken (24) in äquidistanten Abständen, wie 10 m, 25 m, 50 m, 75 m, 80 m, 100 m, 160 m, 200 m, 240 m, oder 300 m vor dem Wegpunkt eingeblendet werden.

4. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Entfernungsmarken (24) in Abhängigkeit von der Momentangeschwindigkeit des Beobachterfahrzeuges (10) und / oder von dem Fahrszenario zu dem das Beobachterfahrzeug (10) unterwegs ist und / oder von dem Umfeld in dem das Fahrzeug sich bewegt in der Animationsgrafik positioniert werden.

5. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Entfernungsmarken (24) jeweils aus mehreren Rasterpunkten (23) zusammengesetzt werden wird.

6. Verfahren nach Anspruch 5, wobei die Entfernungsmarken aus drei Rasterpunkten (23) zusammengesetzt werden und einen Pfeil in Fahrtrichtung symbolisieren.

7. Verfahren nach einem der vorhergehenden Ansprüche, wobei die Rasterpunkte (23) durch nicht ausgefüllte Rastersymbole dargestellt werden, die insbesondere die Form einer Raute aufweisen.

8. Vorrichtung zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche, aufweisend eine Anzeigeeinheit (20), mit der virtuelle Zusatzinformationen in das Sichtfeld des Fahrers oder der Bedienperson des Objektes eingeblendet werden können, und eine Recheneinheit (40), wobei die Recheneinheit (40) ausgelegt ist, die Entfernung des Beobachterfahrzeuges (10) relativ zu einem Wegpunkt zu berechnen, dadurch

gekennzeichnet, dass das Fahrzeug (10) Erfassungsmittel (1 10, 150) aufweist, die die Lage des vorausliegenden Wegpunktes entlang einer Navigationsroute erfassen, dass die

Recheneinheit (40) ausgelegt ist bei Annäherung an den Wegpunkt eine Animationsgrafik zu berechnen, die entlang der Navigationsroute wenigstens bis zu dem Wegpunkt führt, wobei die Animationsgrafik eine Rasterform bestehend aus einer Vielzahl von Rasterpunkten (22) aufweist und die Recheneinheit (40) die Animationsgrafik so berechnet, dass sie ausgehend vom Beobachterfahrzeug (10) bis zu dem Wegpunkt eine Anzahl von Entfernungsmarken (24) aufweist.

9. Vorrichtung nach Anspruch 8, wobei die Recheneinheit (40) weiterhin so ausgelegt ist die Berechnungen nach einem der Ansprüche 2 bis 7 durchzuführen.

10. Vorrichtung nach Anspruch 8 oder 9, wobei die Anzeigeeinheit (20) ein Head-Up Display (HUD) oder eine Datenbrille ist.

11. Kraftfahrzeug, dadurch gekennzeichnet, dass das Kraftfahrzeug (10) eine Vorrichtung nach einem der Ansprüche 8 bis 10 aufweist.

12. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm ausgelegt ist, bei Abarbeitung in einer Recheneinheit (40) die Schritte des Verfahrens zur Berechnung einer AR-Einblendung von Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit (20) nach einem der Ansprüche 1 bis 7 durchzuführen.

Description:
Beschreibung

EINBLENDUNG VON ZUSATZINFORMATIONEN AUF EINER ANZEIGEEINHEIT

Der Vorschlag betrifft das technische Gebiet von Fahrerinformationssystemen, die auch unter dem Begriff Infotainmentsystem bekannt sind. Solche Systeme werden vor allem in Fahrzeugen eingesetzt. Es besteht aber auch die Möglichkeit des Einsatzes der Erfindung bei Fußgängern, Radfahrern, etc. mit Datenbrille. Der Vorschlag betrifft weiterhin eine entsprechend ausgelegte Vorrichtung zur Durchführung des Verfahrens sowie ein

Kraftfahrzeug und ein Computerprogramm.

Eine Zukunftsvision in der Automobilbranche ist es, die Windschutzscheibe des eigenen Fahrzeugs mit virtuellen Elementen bespielen zu können, um dem Fahrer einige Vorteile zu ermöglichen. Genutzt wird die sogenannte„Augmented Reality“ -Technologie (AR). Weniger geläufig ist der entsprechende deutschsprachige Begriff der„erweiterten Realität“. Dabei wird die reale Umgebung mit virtuellen Elementen angereichert. Das hat mehrere Vorteile: Der Blick nach unten auf andere Displays als der Windschutzscheibe entfällt, da viele relevante Informationen auf der Windschutzscheibe abgebildet werden. So muss der Fahrer seinen Blick nicht von der Fahrbahn abwenden. Das Besondere an den AR-Darstellungen ist, dass eine positionsgenaue Verortung der virtuellen Elemente in der realen Umwelt möglich ist. An dem Ort, wo der Fahrer den Blick in der realen Umwelt hinwendet wird auch das virtuelle Element eingeblendet. Mit diesen Einblendungen kann die Real-Umwelt aus Sicht des Nutzers„überlagert“ und mit zusätzlichen Informationen versehen werden, z.B. kann ein Navigationspfad eingeblendet werden. Dadurch ist ein geringerer kognitiver Aufwand seitens des Fahrers erreicht, da keine Interpretation einer abstrahierenden Grafik erfolgen muss, sondern ein intuitives Verständnis im Sinne der normalen

Wahrnehmungsgewohnheiten stattfinden kann.

Zurzeit werden Head-Up Displays (HUD) in den Fahrzeugen eingesetzt. Diese haben auch den Vorteil, dass das Bild des HUD näher an der realen Umwelt erscheint. Bei diesen Displays handelt es sich eigentlich um Projektionseinheiten, die ein Bild auf die

Windschutzscheibe projizieren. Dieses Bild befindet sich jedoch aus der Sicht des Fahrers je nach Bauart des Moduls wenige Meter bis 15 Meter vor dem Fahrzeug. Dies hat den Vorteil, dass die eingeblendeten Informationen so präsentiert werden, dass die Augen des Fahrer selbst von Akkommodationstätigkeit entlastet werden. Das„BNd“ setzt sich dabei folgendermaßen zusammen: Es handelt sich weniger um ein virtuelles Display, sondern eher um eine Art„Schlüsselloch“ in die virtuelle Welt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Die begrenzte Anzeigefläche des HUD hat zur Folge, dass davon ein Ausschnitt gesehen werden kann. Man schaut also durch die Anzeigefläche des HUD auf den Ausschnitt der virtuellen Welt. Da diese virtuelle

Umgebung die reale Umgebung ergänzt, spricht man in diesem Fall auch von einer„Mixed Reality“.

Zur Zeit wird ebenfalls intensiv an Technologien gearbeitet, die später ein autonomes Fahren ermöglichen sollen. Ein erster Ansatz ist dabei, den Fahrer nicht komplett von seinen Aufgaben zu entlasten, sondern dafür Sorge zu tragen, dass der Fahrer jederzeit die

Steuerung des Fahrzeuges übernehmen kann. Der Fahrer nimmt außerdem

Überwachungsfunktionen wahr. Durch neuere Technologien im Bereich der

Fahrerinformationssysteme wie Head-Up Display (HUD) ist es möglich, den Fahrer besser über das Geschehen im Umfeld seines Fahrzeuges zu informieren.

Um dies zu erreichen ist auch der Einsatz neuerer Technologien (Fahrzeug-zu-Fahrzeug- Kommunikation, Einsatz von Datenbanken, Fahrzeugsensorik, etc.) nötig, damit umfassende Informationen über Objekte (insb. Fahrzeuge) im direkten Umfeld des eigenen Fahrzeugs verfügbar sein werden. Im Bereich Fahrzeugsensorik werden insbesondere die folgenden Komponenten genannt, die eine Umfeldbeobachtung ermöglichen: RADAR-Geräte entsprechend Radio Detection and Ranging, LIDAR-Geräte, entsprechend Light Detection and Ranging, hauptsächlich für den Bereich Abstandserfassung / -Warnung, und Kameras mit entsprechender Bildverarbeitung für den Bereich der Objekterkennung. Diese Daten über die Umwelt können als Basis für systemseitige Fahrempfehlungen, Warnungen, etc.

herangezogen werden. Beispielsweise sind so Anzeigen / Warnungen darüber denkbar, in welche Richtung (möglicherweise in die eigene Trajektorie) ein anderes, umgebendes Fahrzeug abbiegen will.

Die Fahrzeug-zu-Fahrzeug-Kommunikation ist mittlerweile auch mittels Mobilkommunikation mit Systemen wie LTE entsprechend Long Term Evolution möglich. Hier wurde von der Organisation 3GPP eine Spezifikation mit Namen LTE V2X verabschiedet. Als Alternative stehen auf WLAN-Technologie beruhende Systeme für die Fahrzeug-Direktkommunikation zur Verfügung, insbesondere das System nach WLAN p. Aufgrund der derzeitigen Entwicklung hin zu höheren Autonomiestufen, wo aber viele Fahrzeuge nach wie vor noch vom Fahrer gesteuert werden, ist davon auszugehen, dass entsprechende zusätzliche Informationen mittelfristig bereits für manuell geführte Fahrzeuge und nicht erst langfristig für hochautomatisierte Systeme genutzt werden können. Dabei kann die im Folgenden noch näher beschriebene Lösung sowohl für manuell gesteuerte als auch für automatisch gesteuerte Fahrzeuge eingesetzt werden.

Für die Fahrer-Fahrzeug-Interaktion stellt sich hierbei die Frage, wie diese Informationen so dargestellt werden können, dass ein echter Mehrwert für den menschlichen Fahrer entsteht und er die bereitgestellten Informationen auch schnell, respektive intuitiv, verorten kann. Folgende Lösungen in diesem Bereich sind dabei schon aus dem Stand der Technik bekannt.

Aus der DE 10 2014 200 407 A1 ist ein Verfahren zum Betreiben eines

Sichtfeldanzeigegeräts (Head-Up Display) für ein Fahrzeug bekannt. Bei dem Verfahren werden Bilder von Navigationsinformationen so in ein Sichtfeld eines Fahrers eines

Fahrzeugs eingeblendet, dass die Bilder Objekten in dem Sichtfeld überlagert sind. Dabei können die Bilder dynamisch nachgeführt werden, damit die Bilder wie an den Objekten fixiert erscheinen. Dazu wird eine Distanz zwischen dem Fahrzeug und einem Ort zum Darstellen einer Navigationsinformation in einem Umfeld des Fahrzeuges ermittelt. Dem Fahrer können mithilfe dieser Technik z. B. Navigationshinweise gegeben werden, in dem die vor ihm liegende Straße bis zum Horizont farbig markiert wird oder Navigationshinweise, die als Pfeile, die direkt auf der Fahrbahn liegen, angezeigt werden.

Aus der DE 10 2015 117 381 A1 ist ein Verfahren und eine Vorrichtung bekannt, bei dem ebenfalls Informationen wie Navigationsinformationen auf einer HUD-Anzeigeeinheit eingeblendet werden. Eine Navigationsinformation, die durch die HUD-Anzeigeeinheit dargestellt wird, kann beispielsweise das Projizieren einer Distanz zu einem nächsten Abbiegen und der aktuellen Geschwindigkeit des Fahrzeugs im Vergleich zu einer

Geschwindigkeitsbegrenzung einschließlich eines Alarms bei Überschreiten der

Geschwindigkeitsbegrenzung umfassen.

Die meisten Fahrzeuge weisen heute ein Navigationssystem auf, um eine Ziel- und

Straßenführung für einen Fahrer vorzusehen. Weiterhin werden Fahrzeuge mit einem darin montierten HUD auf dem Markt angeboten, wobei das HUD gewünschte Informationen auf die Windschutzscheibe eines Fahrzeugs projiziert und dem Fahrer ermöglicht, die projizierten Informationen zu betrachten, während der Fahrer nach vorne blickt. Aus der DE 10 2016 223 179 A1 ist eine Koordinaten-Abgleichvorrichtung und ein entsprechendes Verfahren für ein Head-up-Display (HUD) bekannt, die nicht nur eine Koordinate einer Umgebungsinformationen-Messeinrichtung mit einer Koordinate des HUD abgleichen, sondern auch die Position eines Objekts derart wandeln, dass die Sichtwinkel abgeglichen werden, um durch die Umgebungsinformationen-Messeinrichtung gemessene Informationen anzuzeigen.

Aus der DE 10 201 1 112 943 A1 ist ein Verfahren zum Bereitstellen eines

Fahrerassistenzsystems mit automatischer Längsregelung für ein Fahrzeug bekannt, bei dem der vorausliegende Streckenabschnitt auf einer Anzeigefläche visualisiert wird, wobei wenigstens ein graphisches Objekt, welches einer Funktion der automatischen

Längsregelung zugeordnet ist, in dem visualisierten Streckenabschnitt dargestellt wird. Das Verfahren zum Bereitstellen eines Fahrerassistenzsystems mit automatischer Längsregelung ist dadurch gekennzeichnet, dass zu dem vorausliegenden Streckenabschnitt eine

Videobildfolge aufgenommen und in Echtzeit auf der Anzeigefläche wiedergegeben wird und das wenigstens ein graphisches Objekt der Videobildfolge überlagert wird. Als Objekt kann ein Distanzbalken eingeblendet werden, der einen Sicherheitsabstand visualisiert.

Aus der DE 10 201 1 121 763 A1 ist ein Verfahren zur Darstellung einer Abstandsinformation auf einer Anzeigevorrichtung eines Fahrzeuges bekannt. Das Verfahren zeichnet sich dadurch aus, dass mit Kamera ein Echtbild der vor dem Fahrzeug liegenden Fahrspur aufgenommen wird, und in Abhängigkeit wenigstens einer fahrdynamischen Größe des Fahrzeuges ein Sicherheitsabstand zu dem vorausfahrenden Fahrzeug ermittelt wird. Das Echtbild wird um einen virtuellen Bildanteil in Form eines Querbalkens erweitert, der den Sicherheitsabstand lagerichtig zum vorausfahrenden Fahrzeug anzeigt.

Ein großer Vorteil der bisher bekannten„Augmented Reality“-Anzeigen (AR-Anzeigen) besteht darin, die entsprechenden Anzeigen direkt innerhalb bzw. als Teil der Umwelt darzustellen. Relativ naheliegende Beispiele beziehen sich meist auf den Bereich der Navigation. Während klassische Navigationsanzeigen (in herkömmlichen HUD) in der Regel schematische Darstellungen anzeigen (z.B. einen rechtwinklig verlaufenden Pfeil nach rechts als Zeichen dafür, dass bei nächster Gelegenheit rechts abgebogen werden soll), bieten AR- Anzeigen wesentlich effektivere Möglichkeiten. Da die Anzeigen als„Teil der Umwelt“ dargestellt werden können, sind äußerst schnelle und intuitive Interpretationen für den Nutzer möglich. Dennoch weisen die bisher bekannten Ansätze auch verschiedene

Probleme auf, für die zum jetzigen Zeitpunkt keine Lösungen bekannt sind. Dies wurde im Rahmen der Erfindung erkannt. Bei den aktuellen Navigationssytemen werden zwar Navigationshinweise ausgegeben aber nicht richtig mit der Umwelt in Einklang gebracht, so dass sie nicht intuitiv verstanden werden können. Soll zum Beispiel eine Autobahn an einer bestimmten Ausfahrt verlassen werden, erfolgt in aktuellen Systemen eine Sprachansage mit eben jener Aufforderung und einer zugehörigen Entfernungsangabe (z.B.„in 500 Metern die Autobahn an der zweiten Ausfahrt verlassen“). Darüber hinaus werden die gängigen Abbiege-Piktogramme und geometrische Formen angezeigt, die das Erreichen der richtigen Ausfahrt durch einen„ablaufenden Ladebalken“ visualisieren. Das Problem besteht hierbei darin, dass diese Informationen nur schwer auf die tatsächlichen Gegebenheiten der Straße bezogen werden können. Existieren keine metrischen Orientierungspunkte in der Umwelt, kann nur sehr schwer nachvollzogen werden, ob z.B. erst 250 m oder schon 400 m vergangen sind. Dieser Umstand ist besonders in indifferenten bzw. mehrdeutigen Kontexten, also z.B. bei mehreren

Autobahnausfahrten, die unmittelbar hintereinanderliegen, sehr problematisch.

Es besteht also der Bedarf für weitere Verbesserungen bei der Längsführung eines

Fahrzeuges und der diesbezüglichen Rückmeldung zum Fahrer über das Infotainment- System.

Die Erfindung setzt sich zur Aufgabe, einen solchen Ansatz zu finden.

Diese Aufgabe wird durch ein Verfahren zur Berechnung einer Einblendung von

Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit, insbesondere ein Head-Up Display (HUD) eines Fahrzeuges oder eine Datenbrille gemäß Anspruch 1 , eine Vorrichtung zur Durchführung des Verfahrens gemäß Anspruch 8 sowie ein Kraftfahrzeug gemäß Anspruch 11 und ein Computerprogramm gemäß Anspruch 12 gelöst. Dabei dient die Einblendung von Zusatzinformationen dem Zweck der Unterstützung des Fahrers bei der Längsführung des Fahrzeuges.

Die abhängigen Ansprüche beinhalten vorteilhafte Weiterbildungen und Verbesserungen der Erfindung entsprechend der nachfolgenden Beschreibung dieser Maßnahmen.

Die Lösung gemäß der Erfindung beruht darauf, dass mit eingeblendeten

Entfernungsmarken die Entfernung bis zum genannten Wegpunkt angezeigt wird. Der Wegpunkt kann dabei vom Navigationssystem vorgegeben sein. Die Lösung hat den Vorteil, dass so die Sprachansagen bzw. numerischen Entfernungsangaben besser für den Fahrer nachvollziehbar gemacht werden und besser der tatsächlichen Umwelt zugeordnet werden können, und zwar auch dort wo keine realen Entfernungsbaken am Straßenrand installiert worden sind.

Vom Navigationssystem wird ein Navigationspfad geliefert, der auch als AR-Einblendung über die reale Umwelt eingeblendet werden kann. Die Einblendung des Navigationspfades kann vorteilhafterweise in Rasterform geschehen. Das Raster besteht aus einzelnen

Rasterelementen, die vom dem Fahrer als durchgehender Navigationspfad interpretiert werden, ohne die reale Umwelt mehr als notwendig zu überdecken.

Wird z.B. wie in dem oben beschriebenen Beispiel von dem Navigationssystem empfohlen, die Autobahn in 500 m zu verlassen, können Einzelelemente innerhalb des

„Navigationsrasters“ in regelmäßigen Abständen (z.B. alle 100 m) grafisch hervorgehoben werden z.B. durch farbliche Kennzeichnung, oder durch andersartige Animationen, wie durch eine einmalige Veränderung der Form oder durch eine Veränderung der Lage, wie z.B. das Aufstellen eines zuvor auf dem Boden liegenden Elements. Es können auch klassische Entfernungsbaken eingeblendet werden, die aber gar nicht real existieren. Durch diese Herangehensweise können Distanzangaben durch bordeigene Systeme als„Meilensteine“ aufbereitet werden und so ein verbessertes räumliches Verständnis erzeugen.

Die Entfernungsmarken können in vorteilhafter Weise in äquidistanten Abständen, wie 10 m, 25 m, 50 m, 75 m, 80 m, 100 m, 160 m, 200 m, 240 m, oder 300 m vor dem Wegpunkt eingeblendet werden.

In einer anderen Variante werden die Entfernungsmarken jeweils aus mehreren

Rasterpunkten der Animationsgrafik zusammengesetzt. Dies hat den Vorteil, dass die Entfernungsmarken wie auf der Fahrbahn integriert erscheinen, der Fahrer seinen Blick nicht abwenden muss und dennoch eine genaue Entfernungsangabe bis zum angekündigten Wegpunkt bekommt.

Zum Beispiel können die Entfernungsmarken aus drei oder fünf Rasterpunkten

zusammengesetzt werden und einen Pfeil in Fahrtrichtung symbolisieren. Der Blick des Fahrers wird dadurch intuitiv in die Richtung zu dem angekündigten Wegpunkt gelenkt. An dem Wegpunkt selber kann ein anderes Symbol aus Rasterpunkten zusammengesetzt werden, wie ein Abbiegepfeil.

Vorteilhaft ist auch, wenn die Rasterpunkte durch Symbole dargestellt werden. Hier eignet sich z.B. die Form einer Raute, da sie in Fahrtrichtung ausgerichtet sein kann. Wenn die Rauten-Symbole nicht ausgefüllt dargestellt werden, fügen sie sich ablenkungssicher in die Umwelt ein, ohne wesentliche Teile der Umwelt zu verdecken.

In einer weiteren vorteilhaften Ausführungsform findet die Berechnung der

Entfernungsmarken abhängig vom Umfeld, der eigenen Geschwindigkeit des

Beobachterfahrzeuges und/oder einem Fahrszenario statt. So kann z.B. in einem urbanem Raum, mit niedrigen zulässigen Höchstgeschwindigkeiten, die Berechnung von

Entfernungsmarken in kleineren Zyklen (z.B. alle 10 m) erfolgen, während auf Autobahnen Entfernungsmarken, wie dort üblich, in 100 Meter-Abständen eingeblendet werden.

Fahrszenario und Geschwindigkeit werden als getrennte Determinanten betrachtet, denn z.B. könnten die Raster-Symbole auf der Autobahn im Stau eine andere Farbe haben als bei „flüssigem“ Autobahnverkehr. Das Fahrszenario umfasst wenigstens zum Teil die

Verkehrsbedingungen.

Um dieses Vorgehen technisch zu realisieren, bedarf es neben der exakten Lokalisation eines Fahrzeugs und der Erkennung der Umwelt auch eines computergestützten Vorgehens, welches die AR-Anzeigen so skaliert bzw. dimensioniert, dass sie für den jeweiligen Fahrer und dessen Wahrnehmungsapparat exakt den zu vermittelnden physischen Gegebenheiten entspricht. Auf der einen Seite müssen die entsprechenden Algorithmen also eine von dem Lokalisierungssystem ermittelte Position mit der Position eines durchzuführenden Manövers in Einklang bringen und auf Grundlage dieser Berechnung die AR-Darstellungen so anpassen, dass die Entfernungsmarken den realen Distanzen tatsächlich entsprechen.

Deshalb ist es für eine Vorrichtung zur Durchführung des Verfahrens vorteilhaft, dass sie den vom Navigationssystem vorgegebenen Wegpunkt in der von den Erfassungsmitteln aufgenommenen Umgebung verorten kann. Eine Variante besteht darin hochgenaue Karten zu verwenden und die Lokalisierung auf dieser Karte z.B. mittels GPS oder einem

verbesserten Lokalisierungssystemen zu ermitteln. Dafür wären dann keine weiteren

Sensoren am Fahrzeug erforderlich. In einer anderen Variante werden im Fahrzeug verbaute bildgebende Sensoren zusätzlich eingesetzt. Hierfür sind entsprechend angepasste

Bildauswerteverfahren einsetzbar, die die von einer oder mehreren Front-Kameras gelieferten Bilder auswerten. Besonders geeignet, für diese Anwendung ist eine

Stereokamera, die in der Lage ist, 3D-Bildfolgen zu liefern. Auch käme ein LIDAR oder RADAR-Sensor in Betracht. Die Bildauswerteverfahren können entweder darauf

programmiert werden anhand der Krümmung des Fahrbahnrandes einen Wegpunkt zu erkennen (Abbiegung oder Einbiegung einer Fahrbahn) oder durch Erkennung von ortsfesten Verkehrsschildern oder anderen Infrastrukturobjekten oder -punkten, wie Ampeln, Bahnübergänge, Zebrastreifen, usw. den Wegpunkt zu bestimmen. Ein andere Möglichkeit besteht darin, festinstallierte Funkbaken einzusetzen, die die genaue Entfernung zum Wegpunkt aussenden und die so gestaltet sind, dass sie durch Bildauswertung leicht zu erkennen sind. Die Vorrichtung wird dann das Signal der Funkbaken empfangen und auswerten, um die entsprechende Entfernungsbake lagerichtig bei der Höhe der Funkbake in der Navigationsroute einzublenden.

Auf der anderen Seite können zudem die Charakteristika des Fahrers, wie Sitzposition, Augenposition und Abstand der Augen und zudem die genauen HUD-Einstellungen („Look- down-Winkel“, etc.) berücksichtigt werden, um die Anzeige der„Entfernungsbaken“ zu optimieren. Dafür bedarf es eines HUD-Anzeigesystems, bei dem diese Parameter eingegeben oder erfasst werden.

Im Übrigen gelten für die Vorrichtung zur Durchführung des Verfahrens mit der entsprechend programmierten Recheneinheit die gleichen Vorteile, wie bei den Ansprüchen mit den entsprechenden Verfahrensschritten erwähnt.

Besonders vorteilhaft ist, wenn die Anzeigeeinheit der Vorrichtung als Head-Up Display ausgeführt ist. Statt eines Head-Up Displays kann in der Vorrichtung als Anzeigeeinheit eine Datenbrille oder ein Monitor eingesetzt werden, auf dem ein Kamerabild angezeigt wird, in das das Raster eingeblendet wird.

In vorteilhafter Weise kann die erfindungsgemäße Vorrichtung in einem Kraftfahrzeug eingesetzt werden. Im Fahrzeug wird die Erfindung vorzugsweise so realisiert, dass die Anzeigeeinheit im Fahrzeug fest installiert ist, z.B. in Form eines Head-Up Displays.

Trotzdem wäre eine mögliche Realisierungsform auch mit Hilfe einer Datenbrille möglich, wenn der Einsatz der Datenbrille beim Fahrer in Zukunft erlaubt wäre.

Wie erwähnt, kann die Erfindung in vorteilhafter Weise auch eingesetzt werden, wenn die Anzeigeeinheit einer Datenbrille entspricht. Dann lässt sich das erfindungsgemäße

Verfahren selbst bei Fußgängern, Radfahrern, Kradfahrern usw. einsetzen.

Für ein Computerprogramm, das in der Recheneinheit der Vorrichtung zur Abarbeitung kommt, um das erfindungsgemäße Verfahren durchzuführen, gelten die entsprechenden Vorteile wie zu dem erfindungsgemäßen Verfahren beschrieben. Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren näher erläutert.

Es zeigen:

Fig. 1 das Prinzip der Einblendung von Informationen in das Sichtfeld des Fahrers eines Fahrzeuges während der Fahrt mit Hilfe eines Head-Up Displays;

Fig. 2 das typische Cockpit eines Fahrzeuges;

Fig. 3 das Blockschaltbild des Infotainment-Systems des Fahrzeuges;

Fig. 4 eine Darstellung einer Rastereinblendung mit farblich hervorgehobenen

Entfernungsmarken für die bessere Orientierung des Fahrers an besonderen Wegpunkten bei der Navigation des Fahrzeuges;

Fig. 5 ein Beispiel einer Visualisierung einer Entfernungsmarke durch Zusammensetzung und Hervorhebung von Rastersymbolen; und

Fig. 6 ein Flussdiagramm für ein Programm zur Berechnung von AR-Einblendungen für die Anzeige der Navigationsroute mit eingeschachtelten Entfernungsmarken.

Die vorliegende Beschreibung veranschaulicht die Prinzipien der erfindungsgemäßen Offenbarung. Es versteht sich somit, dass Fachleute in der Lage sein werden, verschiedene Anordnungen zu konzipieren, die zwar hier nicht explizit beschrieben werden, die aber Prinzipien der erfindungsgemäßen Offenbarung verkörpern und in ihrem Umfang ebenfalls geschützt sein sollen.

Fig. 1 veranschaulicht die prinzipielle Funktionsweise eines Head-Up Displays. Das Head-Up Display 20 ist im Fahrzeug 10 unterhalb/hinter dem Kombiinstrument im

Armaturenbrettbereich angebracht. Durch Projektion auf die Windschutzscheibe werden Zusatzinformationen in das Sichtfeld des Fahrers eingeblendet. Diese Zusatzinformationen erscheinen so, als seien sie auf eine Projektionsfläche 21 im Abstand von 7 - 15 m vor dem Fahrzeug 10 projiziert. Durch diese Projektionsfläche 21 hindurch bleibt aber die reale Welt sichtbar. Mit den eingeblendeten Zusatzinformationen wird quasi eine virtuelle Umgebung erzeugt. Die virtuelle Umgebung wird theoretisch über die reale Welt gelegt und enthält die virtuellen Objekte, die den Fahrer bei der Fahrt unterstützen und informieren. Es wird aber nur auf einen Teil der Windschutzscheibe projiziert, so dass die Zusatzinformationen nicht beliebig im Sichtfeld des Fahrers angeordnet werden können.

Fig. 2 zeigt das Cockpit des Fahrzeuges 10. Dargestellt ist ein Personenkraftwagen Pkw. Als Fahrzeug 10 kämen allerdings beliebige andere Fahrzeuge ebenfalls in Betracht. Beispiele von weiteren Fahrzeugen sind: Busse, Nutzfahrzeuge, insbesondere Lastkraftwagen Lkw, Landmaschinen, Baumaschinen, Schienenfahrzeuge usw. Der Einsatz der Erfindung wäre allgemein bei Landfahrzeugen, Schienenfahrzeugen, Wasserfahrzeugen und Luftfahrzeugen möglich.

In dem Cockpit sind drei Anzeigeeinheiten eines Infotainment-Systems dargestellt. Es handelt sich um das Head-Up-Display 20 und einen berührungsempfindlichen Bildschirm 30, der in der Mittelkonsole angebracht ist. Bei der Fahrt liegt die Mittelkonsole nicht im Sichtfeld des Fahrers. Deshalb werden die Zusatzinformationen während der Fahrt nicht auf der Anzeigeeinheit 30 eingeblendet.

Der berührungsempfindliche Bildschirm 30 dient dabei insbesondere zur Bedienung von Funktionen des Fahrzeugs 10. Beispielsweise können darüber ein Radio, ein

Navigationssystem, eine Wiedergabe von gespeicherten Musikstücken und/oder eine Klimaanlage, andere elektronische Einrichtungen oder andere Komfortfunktionen oder Applikationen des Fahrzeugs 10 gesteuert werden. Zusammengefasst wird häufig von einem „Infotainment-System“ gesprochen. Ein Infotainment-System bezeichnet bei Kraftfahrzeugen, speziell Pkw, die Zusammenführung von Autoradio, Navigationssystem,

Freisprecheinrichtung, Fahrerassistenzsystemen und weiterer Funktionen in einer zentralen Bedieneinheit. Der Begriff Infotainment ist ein Kofferwort, zusammengesetzt aus den Worten Information und Entertainment (Unterhaltung). Zur Bedienung des Infotainment-Systems wird hauptsächlich der berührungsempfindliche Bildschirm 30 („Touchscreen“) benutzt, wobei dieser Bildschirm 30 insbesondere von einem Fahrer des Fahrzeugs 10, aber auch von einem Beifahrer des Fahrzeugs 10 gut eingesehen und bedient werden kann. Unterhalb des Bildschirms 30 können zudem mechanische Bedienelemente, beispielsweise Tasten, Drehregler oder Kombinationen hiervon, wie beispielsweise Drückdrehregler, in einer Eingabeeinheit 50 angeordnet sein. Typischerweise ist auch eine Lenkradbedienung von Teilen des Infotainmentsystems möglich. Diese Einheit ist nicht separat dargestellt, sondern wird als Teil der Eingabeeinheit 50 betrachtet.

Fig. 3 zeigt schematisch ein Blockschaltbild des Infotainment-Systems 200 sowie beispielhaft einige Teilsysteme oder Applikationen des Infotainment-Systems. Die Bedienungs- Vorrichtung umfasst die berührungsempfindliche Anzeigeeinheit 30, eine Recheneinrichtung 40, eine Eingabeeinheit 50 und einen Speicher 60. Die Anzeigeeinheit 30 umfasst sowohl eine Anzeigefläche zum Anzeigen veränderlicher grafischer Informationen als auch eine über der Anzeigefläche angeordnete Bedienoberfläche (berührungssensitive Schicht) zum

Eingeben von Befehlen durch einen Benutzer. Die Anzeigeeinheit 30 ist über eine Datenleitung 70 mit der Recheneinrichtung 40 verbunden. Die Datenleitung kann nach dem LVDS-Standard ausgelegt sein, entsprechend Low Voltage Differential Signalling. Über die Datenleitung 70 empfängt die Anzeigeeinheit 30 Steuerdaten zum Ansteuern der Anzeigefläche des Touchscreens 30 von der

Recheneinrichtung 40. Über die Datenleitung 70 werden auch Steuerdaten der

eingegebenen Befehle von dem Touchscreen 30 zu der Recheneinrichtung 40 übertragen. Mit der Bezugszahl 50 ist die Eingabeeinheit bezeichnet. Ihr zugehörig sind die schon erwähnten Bedienelemente wie Tasten, Drehregler, Schieberegler, oder Drehdrückregler, mit deren Hilfe die Bedienperson über die Menüführung Eingaben machen kann. Unter Eingabe wird allgemein das Anwählen einer ausgewählten Menüoption verstanden, wie auch das Ändern eines Parameters, das Ein- und Ausschalten einer Funktion usw.

Die Speichereinrichtung 60 ist über eine Datenleitung 80 mit der Recheneinrichtung 40 verbunden. In dem Speicher 60 ist ein Piktogrammverzeichnis und/oder Symbolverzeichnis hinterlegt mit den Piktogrammen und/oder Symbolen für die möglichen Einblendungen von Zusatzinformationen. Hier können auch die Punkte / Symbole abgelegt sein, die für die Berechnung der Raster-Einblendung als Grundlage dienen.

Die weiteren Teile des Infotainment-Systems Kamera 150, Radio 140, Navigationsgerät 130, Telefon 120 und Kombiinstrument 110 sind über den Datenbus 100 mit der Vorrichtung zur Bedienung des Infotainment-Systems verbunden. Als Datenbus 100 kommt die Highspeed- Variante des CAN-Bus nach ISO Standard 11898-2 in Betracht. Alternativ käme z.B. auch der Einsatz eines auf Ethernet-Technologie beruhenden Bussystems wie BroadR-Reach in Frage. Auch Bussysteme, bei denen die Datenübertragung über Lichtwellenleiter geschieht, sind einsetzbar. Als Beispiele werden genannt der MOST Bus (Media Oriented System Transport) oder der D2B Bus (Domestic Digital Bus). Hier wird noch erwähnt, dass die Kamera 150 als konventionelle Videokamera ausgelegt sein kann. In diesem Fall nimmt sie 25 Vollbilder/s auf, was bei dem Interlace-Aufnahmemodus 50 Halbbilder/s entspricht.

Alternativ kann eine Spezialkamera eingesetzt werden, die mehr Bilder/s aufnimmt, um die Genauigkeit der Objekterkennung bei sich schneller bewegenden Objekten zu erhöhen. Es können mehrere Kameras zur Umfeldbeobachtung eingesetzt werden. Daneben könnten auch die schon erwähnten RADAR- oder LIDAR-Systeme ergänzend oder alternativ eingesetzt werden, um die Umfeldbeobachtung durchzuführen oder zu erweitern. Für die drahtlose Kommunikation nach innen und außen ist das Fahrzeug 10 mit einem

Kommunikationsmodul 160 ausgestattet. Dieses Modul wird oft auch als On-Board Unit bezeichnet. Es kann für die Mobilfunk-Kommunikation, z.B. nach LTE Standard,

entsprechend Long Term Evolution, ausgelegt sein. Ebenfalls kann es für WLAN- Kommunikation, entsprechend Wireless LAN, ausgelegt sein, sei es für die Kommunikation zu Geräten der Insassen im Fahrzeug oder für die Fahrzeug-zu-Fahrzeug Kommunikation etc.

Das erfindungsgemäße Verfahren zur Berechnung einer Einblendung von

Zusatzinformationen für eine Anzeige auf einer Anzeigeeinheit 20 wird im Folgenden anhand eines Ausführungsbeispiels erläutert.

Für die weiteren Figuren gilt, dass gleiche Bezugszahlen die gleichen Felder und Symbole bezeichnen wie bei der Beschreibung der Figuren 1 bis 3 erläutert.

Grundlage der erfindungsgemäßen Anzeige der Längsführungsfunktion des Fahrzeuges 10 auf dem HUD 20 ist die Anzeige eines virtuellen Rasters, das in einem Abstand über der tatsächlichen Straße oder ohne Abstand zur Straße dargestellt wird. Dabei liegt die Straße als realer Fahrbahnverlauf im Sichtfeld des Fahrers. Die AR-Einblendung mittels des HUD 20 geschieht so, wie in Fig. 4 gezeigt. Das Raster 22 wird so projiziert, dass es auf der Straße liegt oder mit einem Abstand zur Straße„im Raum schwebt“. Das Raster setzt sich aus einer Vielzahl von Rautensymbolen 23 zusammen, die durchlässig dargestellt sind, von denen also nur der Rand erkennbar ist, um eine Verdeckung von großen Flächen zu vermeiden. Es ist dargestellt, dass entlang des Fahrbahnverlaufs ein Raster 22 eingeblendet wird. Dieses erstreckt sich entlang der vom Navigationssystem 130 vorausberechneten Navigationsroute. Wie dargestellt, führt die Navigationsroute auf eine Querstraße zu, wo sie nach links abbiegt. Die Entfernung bis zum Abbiegepunkt beträgt 50 m und ist im unteren Bildrand in Form der Entfernungsangabe 26 eingeblendet, neben dem Abbiegepfeil 25 nach links. Vom Navigationssystem 130 kam die akustische Durchsage, dass die Abbiegung in 50 m erfolgen soll. Da vor dem Abbiegepunkt noch ein weiterer Kreuzungspunkt liegt, ist es für den Fahrer schwer zu erkennen an welcher Stelle er abbiegen soll. Auch ist die

Abbiegestelle durch einen von Links kommenden Lkw schwer einsehbar. Zur Unterstützung des Fahrers werden Entfernungsmarken 24 im Abstand von 10 m entlang des durch das Raster 22 dargestellten Navigationspfades eingeblendet. Die Entfernungsmarken setzen sich aus jeweils fünf Rautensymbolen 23 des Rasters 22 zusammen und sind durch eine blaue Farbe hervorgehoben. Die anderen Rastersymbole 23 sind in weißer Farbe dargestellt. Der Fahrer erkennt die Entfernungsmarken 24 intuitiv. Die Rastersymbole 23 für die

Entfernungsmarken 24 werden so ausgewählt, dass sich die Form eines nach vorne gerichteten Pfeiles ergibt, also in Fahrtrichtung. Diese Form entsteht dadurch, dass die Entfernungsmarke 24 aus einem Raster- Mittensymbol und jeweils zwei linken und rechten Raster-Seitensymbolen zusammengesetzt wird. Dabei sind die Seitensymbole nach hinten versetzt, wodurch sich die Form eines nach vorne gerichteten Pfeils ergibt. Diese Zusammensetzung der Entfernungsmarke 24 aus Rastersymbolen 23 ist in der Fig. 5 nochmals näher gezeigt.

Anhand von Fig. 6 wird noch ein Computerprogramm für die Berechnung der AR- Einblendungen für die Entfernungsmarken 24 erläutert. Das Programm wird in der

Recheneinheit 40 abgearbeitet. Der Programmstart ist mit der Bezugszahl 405 bezeichnet. Im Programmschritt 410 erfolgt die Erfassung der Umgebung des Beobachter-Fahrzeuges 10. Dazu werden die von der Front-Kamera 150 gelieferten Bilder mit den zu diesem Zweck vorgesehenen Objekterkennungsalgorithmen ausgewertet.

Anschließend erfolgt im Programmschritt 415 die Übernahme des vom Navigationssystem 130 vorgegebenen Wegpunktes, der vom Navigationssystem 130 angesagten

Entfernungsangabe 26 und auch des Navigationspfades.

Im Programmschritt 420 erfolgt die Bildauswertung. Die Bildauswertung kann mit einem Algorithmus erfolgen, der darauf programmiert ist, anhand der Krümmung des

Fahrbahnrandes einen Wegpunkt zu erkennen (Abbiegung oder Einbiegung einer

Fahrbahn). Es gibt leistungsfähige Algorithmen zur Kantenerkennung oder Kantenextraktion, die auch den Fahrbahnrand erkennen können. Eine andere Variante besteht darin durch Erkennung von ortsfesten Verkehrsschildern oder anderen Infrastrukturobjekten oder - punkten, wie Ampeln, Bahnübergängen, Zebrastreifen, usw. den angesagten Wegpunkt zu erkennen. Ein weitere Möglichkeit besteht darin, festinstallierte Funkbaken einzusetzen, die die genaue Entfernung zum Wegpunkt aussenden und die so gestaltet sind, dass sie durch Bildauswertung leicht zu erkennen sind. Die Vorrichtung wird dann über die On-Board- Einheit 160 das Signal der Funkbake empfangen und auswerten, um die entsprechende Entfernungsmarke 24 lagerichtig bei der Höhe der Funkbake in der Navigationsroute einzublenden.

Nachdem der Wegpunkt erkannt worden ist, erfolgt im Programmschritt 425 die Berechnung des Rasters 22 für die Darstellung des Navigationspfades und die Berechnung der Lage der Entfernungsmarken im Raster 22. Wie in Fig. 4 dargestellt, wird in diesem Schritt festgelegt, welche Rastersymbole 23 in der Farbe Blau dargestellt werden müssen, um eine

Entfernungsmarke 24 zu bilden. Vorzugsweise wird das Raster 22 perspektivisch berechnet. Im Programmschritt 430 werden die AR-Daten für die Rasterdarstellung des Navigationspfades mit den eingeschachtelten Entfernungsmarken 24 berechnet. Die

Berechnung erfolgt unter Berücksichtigung der Momentangeschwindigkeit des

Beobachterfahrzeuges 10. Die Momentangeschwindigkeit des Beobachterfahrzeuges 10 wird durch bordeigene Sensorik erfasst oder ebenfalls im Schritt 415 vom Navigationssystem 130 übernommen.

Im Schritt 435 erfolgt die Übermittlung der für die AR-Einblendung des Navigationspfades berechneten AR-Daten an das HUD 20. Über die Schritte 420 bis 435 wird im Programm eine Schleife gebildet, die so oft durchlaufen wird, bis in Abfrage 440 erkannt wird, dass der angesagte Wegpunkt bereits erreicht oder überschritten wurde. Wenn das der Fall ist, wird das Programm im Programmschritt 445 beendet. Wenn der Fahrer eingreift und die

Komfortfunktion verlässt, kann das Programm zu jederzeit beendet werden.

Alle hierin erwähnten Beispiele wie auch bedingte Formulierungen sind ohne Einschränkung auf solche speziell angeführten Beispiele zu verstehen. So wird es zum Beispiel von

Fachleuten anerkannt, dass das hier dargestellte Blockdiagramm eine konzeptionelle Ansicht einer beispielhaften Schaltungsanordnung darstellt. In ähnlicher Weise ist zu erkennen, dass ein dargestelltes Flussdiagramm, Zustandsübergangsdiagramm, Pseudocode und dergleichen verschiedene Varianten zur Darstellung von Prozessen darstellen, die im

Wesentlichen in computerlesbaren Medien gespeichert und somit von einem Computer oder Prozessor ausgeführt werden können. Das in den Patentansprüchen genannte Objekt kann ausdrücklich auch eine Person sein.

Es sollte verstanden werden, dass das vorgeschlagene Verfahren und die zugehörigen Vorrichtungen in verschiedenen Formen von Hardware, Software, Firmware,

Spezialprozessoren oder einer Kombination davon implementiert werden können.

Spezialprozessoren können anwendungsspezifische integrierte Schaltungen (ASICs), Reduced Instruction Set Computer (RISC) und / oder Field Programmable Gate Arrays (FPGAs) umfassen. Vorzugsweise wird das vorgeschlagene Verfahren und die Vorrichtung als eine Kombination von Hardware und Software implementiert. Die Software wird vorzugsweise als ein Anwendungsprogramm auf einer Programmspeichervorrichtung installiert. Typischerweise handelt es sich um eine Maschine auf Basis einer

Computerplattform, die Hardware aufweist, wie beispielsweise eine oder mehrere

Zentraleinheiten (CPU), einen Direktzugriffsspeicher (RAM) und eine oder mehrere

Eingabe/Ausgabe (I/O) Schnittstelle(n). Auf der Computerplattform wird typischerweise außerdem ein Betriebssystem installiert. Die verschiedenen Prozesse und Funktionen, die hier beschrieben wurden, können Teil des Anwendungsprogramms sein oder ein Teil, der über das Betriebssystem ausgeführt wird.

Die Offenbarung ist nicht auf die hier beschriebenen Ausführungsbeispiele beschränkt. Es gibt Raum für verschiedene Anpassungen und Modifikationen, die der Fachmann aufgrund seines Fachwissens als auch zu der Offenbarung zugehörend in Betracht ziehen würde.

Die Erfindung wird in den Ausführungsbeispielen am Beispiel des Einsatzes in Fahrzeugen genauer erläutert. Hier wird auch auf die Einsatzmöglichkeit bei Flugzeugen und Helikoptern zum Beispiel bei Landemanövern oder Sucheinsätzen etc. hingewiesen.

Es wird aber darauf hingewiesen, dass der Einsatz nicht darauf beschränkt ist. Die Erfindung kann immer dann eingesetzt werden, wenn mit AR-Einblendungen das Sichtfeld eines Fahrers, einer Bedienperson oder auch einfach nur einer Person mit Datenbrille angereichert werden kann.

Auch bei ferngesteuerten Geräten wie Robotern, bei denen die Fernsteuerung über einen Monitor erfolgt, auf dem ein Kamerabild wiedergegeben wird, können AR Einblendungen die Bedienung erleichtern. Also besteht hier auch eine Einsatzmöglichkeit.

Bezugszeichenliste

10 Fahrzeug

20 Head-Up Display HUD

21 virtuelle Projektionsfläche

22 Raster

23 Rastersymbol

24 Entfernungsmarke

25 Abbiegepfeil

26 Entfernungsangabe

30 berührungsempfindliche Anzeigeeinheit

40 Recheneinheit

50 Eingabeeinheit

60 Speichereinheit

70 Datenleitung zur Anzeigeeinheit

80 Datenleitung zur Speichereinheit

90 Datenleitung zur Eingabeeinheit

100 Datenbus

110 Kombiinstrument

120 Telefon

130 Navigationsgerät

140 Radio

150 Kamera

160 Kommunikationsmodul

200 Infotainment-System

405- verschiedene

445 Programmschritte