Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
OPERATING SYSTEM AND METHOD FOR OPERATING THE OPERATING SYSTEM
Document Type and Number:
WIPO Patent Application WO/2021/028274
Kind Code:
A1
Abstract:
The operating system comprises a control unit (2), which is designed to generate output data for a graphic user interface, an output unit (3) for outputting the output data and an input unit (4; 34) for detecting an actuation action. At least one first and one second operating state can be activated for the user interface. The control unit (2) is designed to generate a shape control signal according to the activated first or second operating state of the user interface and to transfer same to the input unit (4; 34), wherein the input unit (4; 34) has a deformation element (6; 36a, 36b) which is designed to form a first shape of the input unit (4; 34) based on the shape control signal if the first operating state is activated, and to form a second geometrical shape of the input unit (4; 34) if the second operating state is activated. The invention also relates to a method for operating an operating system.

Inventors:
BRAUNS SARAH (DE)
BERNER EVA (DE)
TEMMING CARSTEN (DE)
Application Number:
PCT/EP2020/071934
Publication Date:
February 18, 2021
Filing Date:
August 04, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
VOLKSWAGEN AG (DE)
International Classes:
G06F3/01
Domestic Patent References:
WO2011075390A12011-06-23
WO2013173624A22013-11-21
Foreign References:
EP3217269A12017-09-13
US20130002570A12013-01-03
Download PDF:
Claims:
Patentansprüche

1. Bediensystem, umfassend eine Steuereinheit (2), die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen; eine Ausgabeeinheit (3) zum Ausgeben der Ausgabedaten; und eine Eingabeeinheit (4; 34) zum Erfassen einer Betätigungshandlung; wobei für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar ist; wobei die Steuereinheit (2) dazu eingerichtet ist, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal zu erzeugen und an die Eingabeeinheit (4; 34) zu übertragen; wobei die Eingabeeinheit (4; 34) ein Verformungselement (6; 36a, 36b) aufweist, das dazu eingerichtet ist, anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) auszubilden, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit (4; 34) auszubilden, wenn der zweite Bedienzustand aktiviert ist.

2. Bediensystem gemäß Anspruch 1, dadurch gekennzeichnet, dass das Verformungselement (6; 36a, 36b) der Eingabeeinheit eine Lage relativ zu weiteren Elementen der Eingabeeinheit aufweist und zum Ausbilden der ersten oder zweien geometrischen Form die relative Lage einstellbar ist

3. Bediensystem gemäß Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Form der Eingabeeinheit (4; 34) mittels der Betätigungshandlung veränderbar ist und in Abhängigkeit von der veränderten Form der erste oder zweite Bedienzustand der Eingabeeinheit (4; 34) aktivierbar ist.

4. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Betätigungshandlung eine Bewegung der Eingabeeinheit (4; 34) entlang einer bestimmten Trajektorie, eine Beschleunigung, eine Lageänderung, eine Berührung oder eine Wischgeste entlang einer Oberfläche der Eingabeeinheit (4; 34) umfasst.

5. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein bestimmter Oberflächenbereich der Eingabeeinheit als Interaktionsfläche (35a, 35b, 35c) ausgebildet ist, wobei in dem bestimmten Oberflächenbereich eine Berührung mittels eines Betätigungsobjekts erfassbar ist.

6. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Eingabeeinheit (4; 34) drahtlos mit der Steuereinheit (2) gekoppelt und durch einen Nutzer bewegbar ausgebildet ist.

7. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (3) so gebildet ist, dass die Ausgabedaten beabstandet von der Eingabeeinheit (4; 34) ausgebbar sind.

8. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (3) ein Head-up-Display oder eine am Körper eines Nutzers getragene Anzeigeeinheit (3) umfasst.

9. Bediensystem gemäß einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Blickrichtung eines Nutzers erfassbar ist; wobei in Abhängigkeit von der erfassten Blickrichtung eine echte Teilmenge von Bedienobjekten der Bedienoberfläche auswählbar ist.

10. Verfahren zum Betreiben eines Bediensystems, bei dem

Ausgabedaten für eine grafische Bedienoberfläche erzeugt und ausgegeben werden; und eine Betätigungshandlung mittels einer Eingabeeinheit (4; 34) erfasst wird; wobei für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar ist; wobei in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form-Steuerungssignal erzeugt und an die Eingabeeinheit (4; 34) übertragen wird; wobei ein Verformungselement (6; 36a, 36b) der Eingabeeinheit (4; 34) anhand des Form- Steuerungssignals eine erste Form der Eingabeeinheit (4; 34) ausbildet, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit (4; 34) ausbildet, wenn der zweite Bedienzustand aktiviert ist.

Description:
Beschreibung

Bediensystem und Verfahren zum Betreiben des Bediensystems

Die vorliegende Erfindung betrifft ein Bediensystem, insbesondere für ein Fahrzeug, und ein Verfahren zum Betreiben des Bediensystems.

In zunehmendem Maße halten Techniken der Erweiterten Realität (englisch Augmented Reality, AR) beziehungsweise der Virtuellen Realität (englisch: Virtual Reality, VR) Einzug in den Alltag, insbesondere auch in der Automobilindustrie. Bei Verfahren der Erweiterten Realität wird beispielsweise eine Wahrnehmung der Realität in einer Umgebung eines Nutzers um mittels eines Computers erzeugte, virtuelle Objekte ergänzt, die etwa zusätzliche Informationen ausgeben oder Interaktionsmöglichkeiten bereitstellen. Nachfolgend werden die Begriffe Erweiterte Realität und Virtuelle Realität als im Wesentlichen analog verwendet, da auch im üblichen Sprachgebrauch häufig keine klare Unterscheidung getroffen wird.

Es wird davon ausgegangen, dass AR-Anzeigegeräte wie Brillen, Kontaktlinsen oder Projektionslösungen flächendeckend verfügbar sein werden. So wird beispielsweise bereits der Einsatz von AR in fahrenden Fahrzeugen sowie darüber hinaus in anderen Situationen im Straßenverkehr erprobt, etwa bei der Fußgängernavigation. Allerdings fehlt derzeit noch ein geeignetes Bedienkonzept für die virtuellen Inhalte, die den Raum des Nutzers umgeben.

Beispielsweise ist es während einer manuellen Fahrt für den Fahrer schwierig, mithilfe eines Touchscreens oder ähnlicher Eingabemethoden AR-Inhalte zu steuern. Dies ist zudem mit Ablenkung verbunden. Im Falle der autonomen Fahrt ist jedoch ein manuell bedienbares Steuerelement, insbesondere ein Lenkrad oder eine Mittelkonsole, nicht mehr zwingend erforderlich, wodurch es eines alternativen Interaktionswegs bedarf, etwa mittels eines Handheld-Device.

Es werden daher intuitiv zugängliche und innovative Bedienkonzepte für diese Technologie benötigt, die gleichzeitig sozial akzeptiert sind. Diese müssen einfach und schnell bedienbar sein sowie multifunktionelle Anwendungsfälle hinsichtlich der Interaktion mit verschiedensten AR-Inhalten abdecken können. Insbesondere im Kontext von eigener und geteilter Mobilität sollen diese Interaktionsgeräte darüber hinaus bestenfalls überall und beispielsweise von jedem beliebigen Platz im Fahrzeug verwendbar sein. Auf diese Weise wird ein eigener persönlicher Bereich eines Nutzers hergestellt.

Bei bekannten Eingabemöglichkeiten, etwa mittels Gesten oder Sprachbefehlen wird als nachteilig empfunden, dass diese für die Umwelt oft deutlich sicht- oder hörbar sind und störend wirken können.

Aus der US 2013/0144482 A1 ist eine Vorrichtung zum Ergänzen einer Instrumententafel mittels Erweiterter Realität bekannt. Anhand der Blickrichtung eines Fahrers eines Fahrzeugs können Funktionen aktiviert und bestimmte Informationen angezeigt werden. Eingaben können beispielsweise mittels eines Touchscreens oder eine Sprachbedienung erfasst werden.

Die DE 10349673 A1 schlägt eine Vorrichtung zur Dateneingabe in einem Kraftfahrzeug vor, bei der die eingegebenen Daten in einem Sichtfeld des Fahrers angezeigt werden. Die Eingabe erfolgt beispielsweise mittels eines Touch-Panels zur handschriftlichen Eingabe.

In der KR 10-2013-0036934 wird ein Head-up-Display beschrieben, bei dem die Anzeige eines Mobiltelefons ins Sichtfeld des Fahrers projiziert wird.

Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Bediensystem und ein Verfahren zu dessen Betrieb bereitzustellen, die eine besonders einfache und sozial akzeptierte Bedienung erlauben.

Erfindungsgemäß wird diese Aufgabe durch ein Bediensystem mit den Merkmalen des Anspruchs 1 und ein Verfahren mit den Merkmalen des Anspruchs 10 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.

Das erfindungsgemäße Bediensystem umfasst eine Steuereinheit, die dazu eingerichtet ist, Ausgabedaten für eine grafische Bedienoberfläche zu erzeugen, eine Ausgabeeinheit zum Ausgeben der Ausgabedaten und eine Eingabeeinheit zum Erfassen einer Betätigungshandlung. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei ist die Steuereinheit dazu eingerichtet, in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form- Steuerungssignal zu erzeugen und an die Eingabeeinheit zu übertragen, wobei die Eingabeeinheit ein Verformungselement aufweist, das dazu eingerichtet ist, anhand des Form- Steuerungssignals eine erste Form der Eingabeeinheit auszubilden, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit auszubilden, wenn der zweite Bedienzustand aktiviert ist.

Bei diesem Bediensystem erhält der Nutzer vorteilhafterweise eine klare, insbesondere auch haptisch erfassbare Rückmeldung über den Bedienzustand der Bedienoberfläche mittels der Eingabeeinheit. Zudem können so neue Bedienweisen bereitgestellt werden, etwa um eine Bedienung in verschiedenen Kontexten durchführen zu können. Dies ist bei der Anwendung im Bereich der Erweiterten Realität besonders wichtig, da der Nutzer hier möglichst nahtlos in das Erlebnis einer virtuell erzeugten oder erweiterten Umgebung eintreten soll, in der Interaktionen mit bedienbaren Elementen sehr unterschiedlichen Bedienweisen folgen können.

Anders als bei bekannten Eingabegeräten können bei dem erfindungsgemäßen Bediensystem mittels der Eingabeeinheit bestimmte initiale Funktionen, etwa ein Scrollen oder Zoomen, durchgeführt werden, ohne dass hierzu zunächst ein separater Bedienschritt erfolgen muss, durch den beispielsweise ein „Tool“ oder eine Funktionsweise zur Bedienung ausgewählt werden muss.

Die Bedienoberfläche umfasst insbesondere eine grafische Darstellung für eine Mensch- Maschine-Schnittsteile. Dabei sind technische Einrichtungen mittels Steuerelementen bedienbar, wozu etwa Schaltflächen oder Symbole der Darstellung verwendet werden können. Insbesondere kann die Bedienoberfläche Schalt- und Bedienelemente umfassen, welche die Bedienung einer Funktionalität für einen Menschen erfassbar darstellen. Beispielsweise kann der Betrag eines Parameters dargestellt werden und seine Einstellung durch ein Einstellelement visualisiert werden. Die Bedienoberfläche kann ferner Elemente zur Informationsanzeige umfassen und damit eine durch einen Menschen interpretierbare Ausgabe ermöglichen. Sie ist insbesondere auf an sich bekannte Weise als grafische Bedienoberfläche ausgebildet.

Bei einer Ausbildung weist das Verformungselement der Eingabeeinheit eine Lage relativ zu weiteren Elementen der Eingabeeinheit auf und zum Ausbilden der ersten oder zweien geometrischen Form ist die relative Lage einstellbar. Dadurch ist die Form vorteilhafterweise besonders einfach veränderbar.

Insbesondere wird beim Einstellen der geometrischen Form der Eingabeeinheit die Form ihrer Oberfläche eingestellt. Ferner kann die Lage des Schwerpunkts der Eingabeeinheit eingestellt werden. Beispielsweise kann das Verformungselement einen Aktuator umfassen oder mit einem Aktuator gekoppelt sein. Die relative Lage des Verformungselements betrifft dabei seine Anordnung relativ zu den weiteren Elementen der Eingabeeinheit. Die Lage kann beispielsweise durch Verschieben und/oder Rotieren des Verformungselements eingestellt werden. Das Verformungselement ist dabei insbesondere so ausgebildet, dass sich seine Ausdehnung in zumindest eine Richtung verändert. Beispielweise kann das Verformungselement länglich ausgebildet sein und seine Länge in Längserstreckungsrichtung verändern.

Der Bedienzustand der Bedienoberfläche kann auf verschiedene Weisen definiert sein. Er kann beispielweise die Verfügbarkeit bestimmter bedienbarer Funktionalitäten betreffen, sodass ein Bedienzustand aktiviert ist, wenn die Funktionalitäten verfügbar und mittels einer Betätigungshandlung bedienbar sind. Der Bedienzustand kann sich dabei auf die Bedienoberfläche als Ganzes oder auf einzelne Elemente oder Objekte beziehen.

Das heißt, der Bedienzustand kann auch durch den Zustand eines Objekts innerhalb der Bedienoberfläche definiert sein. Dieses Objekt kann beispielsweise ausgewählt werden, entweder automatisch oder mittels eines Auswahl-Bedienhandlung. In einem solchen Fall wird das Form-Steuerungssignal so ausgebildet, dass die Form der Eingabeeinheit in Abhängigkeit von dem aktivierten Zustand des Objekts gebildet wird.

Der Bedienzustand kann ferner in Abhängigkeit von einem aktiven Bedienmodus definiert sein. Beispielsweise kann eine Bedienung mittels Scrollen entlang einer bestimmten Richtung oder Achse möglich sein und der Bedienmodus in Abhängigkeit von dieser Richtung oder Achse definiert sein. In einem weiteren Beispiel kann die Bedienung mittels einer Touch-Geste, mittels Verschiebens oder Ausübens von Drucks auf einen bestimmten Bereich der Eingabeeinheit ausführbar sein. In diesem Fall kann die Form der Eingabeeinheit so eingestellt werden, dass erfassbar ist, welcher Bedienmodus aktuell aktiv ist, etwa um ein bestimmtes Objekt oder die Bedienoberfläche zu bedienen.

Ferner kann ein Bedienzustand definiert sein, in dem keine Interaktion mit einem Objekt der Bedienoberfläche ausführbar ist, etwa bei einer reinen Informationsanzeige. Ferner kann ein Bedienzustand definiert sein, bei dem zu einer bestimmten Eingabe aufgefordert wird, etwa zu einer Bestätigung, einer Auswahl einer Option oder einem Betätigen einer Schaltfläche.

Ferner kann zum Beispiel der erste Bedienzustand ein Anzeigezustand und der zweite Bedienzustand ein Konfigurationszustand sein. Beispielsweise kann der Anzeigezustand so definiert sein, dass für ein bestimmtes Objekt der Bedienoberfläche ein Zustand zur Ausgabe bestimmter Informationen aktiviert ist. Ferner kann der Konfigurationszustand so definiert sein, dass dieses Objekt der Bedienoberfläche so ausgebildet wird, dass Einstellungen vorgenommen werden können. Beispielsweise können die im Anzeigezustand ausgegebenen Informationen ausgewählt oder anderweitig konfiguriert werden.

Der zweite Bedienzustand kann ferner ein Konfigurationszustand für die Bedienoberfläche als Ganzes sein, wobei beispielsweise Objekte ausgewählt werden können, die von der Bedienoberfläche umfasst sind, oder Parameter mittels der Bedienoberfläche oder der von ihr umfassten Objekte eingestellt werden können.

Insbesondere ist die Eingabeeinheit dazu eingerichtet, ein Bedienzustands-Wechselsignal zu erzeugen, wenn eine Lageänderung der Eingabeeinheit erfasst wird, etwa ein Rotieren der Eingabeeinheit, wobei, wenn die Lageänderung eine Rotation oder ein Schwenken um einen bestimmten Winkel umfasst, der Winkel mit einem bestimmten Schwellenwert verglichen wird. Überschreitet der Winkel den Schwellenwert, so wird ein Bedienzustands-Wechselsignal zum Wechseln des Bedienzustands erzeugt. Zum Beispiel kann das Bedienzustands-Wechselsignal erzeugt werden, wenn die Eingabeeinheit um eine bestimmte Achse umgedreht wird.

Insbesondere können die Ausgabedaten ein grafisches Objekt zum Hinweis auf die geometrische Form der Eingabeeinheit und/oder auf den aktivierten Bedienzustand umfassen. Beispielsweise umfasst die Ausgabe ein grafisches Objekt, dessen Geometrie zumindest schematisch einer Geometrie der Form der Eingabeeinheit entspricht.

Das Bediensystem ist so eingerichtet, dass auf die Erfassung einer Betätigungshandlung in ein Steuersignal erzeugt wird. Dieses kann an die Steuereinheit übertragen werden und beispielsweise zu einer Interaktion mit der Bedienoberfläche oder einem von dieser umfassten Objekt führen. Zum Beispiel kann ein Objekt ausgewählt und eine dem Objekt zugeordnete Funktion aktiviert oder deaktiviert werden. Ferner kann in Abhängigkeit von dem Steuersignal ein einstellbarer Parameter an eine Einrichtung zur Einstellung übertragen werden.

Bei einerweiteren Ausbildung ist die Form der Eingabeeinheit mittels einer Betätigungshandlung veränderbar, insbesondere durch eine äußere Krafteinwirkung, und in Abhängigkeit von der veränderten Form ist der erste oder zweite Bedienzustand der Eingabeeinheit aktivierbar. Dabei wird insbesondere die Lage und/oder Ausrichtung des Verformungselements verändert. Dadurch kann der Bedienzustand vorteilhafterweise besonders leicht eingestellt werden. Das Aktivieren des Bedienzustands kann insbesondere die gesamte Bedienoberfläche oder ein von ihr umfasstes Objekt betreffen. Insbesondere kann dabei die grafische Darstellung der Bedienoberfläche oder eines von ihr umfassten Objekts verändert werden. Beispielsweise wird eine Scrollrichtung verändert, etwa indem eine Darstellung einer scrollbaren Liste von Listeneinträgen gekippt wird.

Dabei kann die Form der Eingabeeinheit sowohl aktiv mittels des Verformungselements und anhand des Form-Steuerungssignals, als auch passiv durch eine physische Einwirkung von außen verändert werden, insbesondere durch eine Krafteinwirkung auf die Eingabeeinheit beziehungsweise auf das Verformungselement. Beispielsweise kann die Lage des Verformungselements der Eingabeeinheit durch Verschieben und/oder Rotieren von außen verändert werden. Ferner kann die Form durch Ausüben eines Drucks auf einen bestimmten Bereich der Eingabeeinheit verändert werden, etwa bei einem nachgiebigen Bereich, der verformbar ausgebildet ist und dessen Verformung ferner erfassbar ist.

Beim Aktivieren des ersten oder zweiten Bedienzustands wird beispielsweise ein Anzeige beziehungsweise Konfigurationsmodus eingestellt. Das heißt, durch Verändern der Form der Eingabeeinheit mittels einer äußeren Kraft kann der Bedienzustand gewechselt werden.

Insbesondere umfasst die Eingabeeinheit zumindest ein Sensorelement zum Erfassen einer Formänderung und/oder einer auf die Eingabeeinheit wirkenden Kraft. Das Sensorelement ist insbesondere dazu geeignet, eine Betätigungshandlung mittels verschiedener physikalischer Detektionsprinzipien zu erfassen. Beispielsweise kann eine Berührung oder Annäherung an einen Bereich der Oberfläche der Eingabeeinheit erfassbar sein, etwa mittels eines kapazitiven Sensors. Ferner kann eine Lage der Eingabeeinheit erfassbar sein, etwa mittels eines gyroskopischen Sensors oder eines Beschleunigungssensors oder eines Sensors zur Positionsbestimmung.

Eine Betätigungshandlung, die mittels der Eingabeeinheit erfasst werden kann, kann auf verschiedene Weisen erfolgen. Insbesondere wird die Betätigungshandlung so durchgeführt, dass sie in einem bestimmten Bezug zu einem Objekt der Bedienoberfläche beziehungsweise zu einer mit dem Objekt verknüpften Funktionalität steht. Eine Betätigungshandlung kann beispielsweise eine Berührung eines Bereichs auf der Oberfläche der Eingabeeinheit, ein Ausüben von Druck auf die Eingabeeinheit oder eine bestimmte Ausrichtung oder Positionierung der Eingabeeinheit umfassen. Sie kann ferner eine Änderung der Position der Berührung umfassen, etwa eine Wischgeste, die auf der Oberfläche der Eingabeeinheit ausgeführt wird, oder eine Veränderung der Position und/oder Ausrichtung, etwa indem die Eingabeeinheit entlang einer Trajektorie bewegt wird, wobei auch die Geschwindigkeit berücksichtigt werden kann. Insbesondere wird dabei eine dreidimensionale Geste durchgeführt. Eine Betätigungshandling kann etwa ein Rotieren oder Schwenken, eine bestimmte Ausrichtung, etwa zum Zeigen auf eine bestimmte Position oder in eine Richtung, umfassen. Die Betätigungshandlung kann ferner eine Kombination mehrerer Handlungselemente umfassen, etwa ein gleichzeitiges Bewegen entlang verschiedener Freiheitsgrade oder aufeinanderfolgende Bewegungen und weitere Betätigungen.

Die Eingabeeinheit kann insbesondere so ausgebildet sein, dass beim Durchführen der Betätigungshandlung eine Rückmeldung erzeugt wird, beispielsweise durch eine haptisch erfassbare elastische Verformung der Eingabeeinheit und/oder eine akustisch wahrnehmbares Klicken bei der Betätigung, zum Beispiel beim Ausüben eines Drucks auf die Oberfläche der Eingabeeinheit.

Bei einer Weiterbildung umfasst die Betätigungshandlung eine Bewegung der Eingabeeinheit entlang einer bestimmten Trajektorie, eine Beschleunigung, eine Lageänderung, eine Berührung oder eine Wischgeste entlang einer Oberfläche der Eingabeeinheit. Die Betätigung erfolgt dadurch vorteilhafterweise besonders einfach.

Insbesondere wird die Eingabeeinheit bei der Betätigungshandlung in eine bestimmte Lage gebracht, wobei etwa eine Ausrichtung und/oder Positionen der Eingabeeinheit erfasst wird, um beispielsweise eine Zeigegeste durchzuführen. Zum Bestimmen der Lage kann dabei beispielsweise eine Ausrichtung in einem Schwerefeld erfasst werden. Eine Betätigungshandlung kann ferner eine Änderung der Lage betreffen, insbesondere in Abhängigkeit von der Zeit, etwa das Bewegen der Eingabeeinheit entlang einer Trajektorie in einem zwei- oder dreidimensionalen Raum, das Ausführen einer bestimmten Beschleunigung und/oder einer Rotation beziehungsweise einer Kippbewegung.

Bei einer Ausbildung ist ein bestimmter Oberflächenbereich der Eingabeeinheit als Interaktionsfläche ausgebildet, wobei in dem bestimmten Oberflächenbereich eine Berührung mittels eines Betätigungsobjekts erfassbar ist. Insbesondere ist das Betätigungsobjekt eine Hand eines Nutzers. Hierdurch können vorteilhafterweise besonders einfach Eingaben vorgenommen werden. Die Interaktionsfläche kann auf an sich bekannte Weise ausgebildet sein und insbesondere ein Sensorelement zum Erfassen einer Berührung oder Annäherung umfassen, etwa mittels kapazitiver oder resistive Sensoren. Beispielsweise wird die Position einer Berührung sowie gegebenenfalls eine Veränderung der Position in Abhängigkeit von der Zeit erfasst. Bei einer Bewegung des Betätigungsobjekts entlang der Interaktionsfläche, etwa bei einer Wischgeste, kann eine Richtung, Trajektorie und/oder Geschwindigkeit der Bewegung erfasst werden.

Die Eingabeeinheit ist insbesondere so ausgebildet, dass ein variabler Oberflächenbereich als Interaktionsfläche aktiviert werden kann. Die Eingabeeinheit kann dazu eine Grenzflächen aufweisen, die vollständig oder teilweise als Interaktionsflächen aktivierbar sind. Zum Beispiel kann die Eingabeeinheit hierzu eine polyedrische Form aufweisen.

Die Interaktionsfläche wird insbesondere in Abhängigkeit von dem aktivierten Bedienzustand gebildet, etwa gemeinsam mit der Veränderung der Form der Eingabeeinheit.

Bei einer Ausbildung ist der bestimmte Oberflächenbereich mittels einer optischen Hervorhebung hervorhebbar. Der Oberflächenbereich der Interaktionsfläche wird beispielsweise mittels einer gegenüber der Umgebung veränderten Helligkeit oder Farbe hervorgehoben. Die Oberflächenbereich kann ferner optisch hervorgehoben werden, etwa durch eine Änderung der Form der Eingabeeinheit so, dass die Interaktionsfläche haptisch erfassbar ist, etwa als erhabener Bereich der Oberfläche.

Bei einerweiteren Ausbildung ist die Eingabeeinheit drahtlos mit der Steuereinheit gekoppelt und durch einen Nutzer bewegbar ausgebildet. Insbesondere ist die Eingabeeinheit verwendbar ohne eine feste Verbindung zu einer anderen Einheit. Die Eingabe kann dadurch vorteilhafterweise besonders flexibel erfolgen.

Beispielsweise weist die Eingabeeinheit Dimensionen auf, die das Halten in einer Hand des Nutzers ermöglichen. Der Eingabeeinheit kann ferner einen Griffbereich aufweisen, der das Halten erleichtert. Ferner kann die Form der Eingabeeinheit so gebildet sein, dass das Halten in einer bestimmten Ausrichtung relativ zur Hand des Nutzers begünstigt wird, etwa bei einer länglichen Form, die eine Ausrichtung im Wesentlichen schräg zum Verlauf des Unterarms des Nutzers begünstigt. Die Eingabeeinheit kann ferner so ausgebildet sein, dass sie in keine Richtung größer als 10 cm ist, bevorzugt nicht größer als 7 cm, weiter bevorzugt nicht größer als 5 cm. Es kann eine Aufnahmeeinheit für die Eingabeeinheit vorgesehen sein, in der beispielsweise ein Ablegen der Eingabeeinheit so erfolgen kann, dass ein unabsichtliches Verrutschen oder Herunterfallen vermieden wird. Eine Aufnahmeeinheit kann ferner zum Aufladen eines Energiespeichers der Eingabeeinheit sein. Zum Aufladen kann beispielsweise ein induktives Verfahren verwendet werden oder es kann eine elektrisch leitende Verbindung zwischen der Eingabeeinheit und der Aufnahmeeinheit hergestellt werden.

Beim Ausgeben der Ausgabedaten wird die Bedienoberfläche angezeigt, was ebenfalls auf an sich bekannte Weise erfolgen kann. Beispielsweise kann hierfür ein Anzeigefläche verwendet werden. Ferner können Mittel der Erweiterten oder Virtuellen Realität zur Ausgabe genutzt werden, wobei beispielsweise Elemente einer realen Umgebung mit virtuell erzeugten Elementen angereichert werden. Zum Beispiel kann die Ausgabe eine grafische Ausgabe von Bild- oder Videodaten umfassen, welche die reale Umgebung wiedergeben, wobei zusätzlich weitere grafische Elemente erzeugt werden und von der Ausgabe umfasst sind. Ferner kann die Ausgabe so erzeugt und ausgegeben werden, dass ein Nutzer die reale Umgebung direkt wahrnimmt, etwa durch eine Fahrzeugscheibe oder Brille, während gleichzeitig die Ausgabe so in sein Sichtfeld beziehungsweise in sein Auge projiziert wird, etwa bei einem Head-up-Display oder bei einer Brille mit einer entsprechenden Darstellungs- oder Projektionseinheit, dass die virtuellen Objekte aus Sicht des Nutzers in der Umgebung erscheinen.

Bei einer Weiterbildung ist die Ausgabeeinheit so gebildet, dass die Ausgabedaten beabstandet von der Eingabeeinheit ausgebbar sind. Dadurch kann vorteilhafterweise eine besonders flexible Ausgabe erfolgen.

Die Ausgabe erfolgt insbesondere nicht mittels eines sogenannten Touchscreens, bei dem Eingaben im gleichen Bereich erfasst werden, in dem auch die Ausgabe erfolgt. Allerdings kann bei einer Ausbildung der Erfindung ein Touchscreen zur Ausgabe mit einer davon beabstandeten Eingabeeinheit kombiniert sein. Die Ausgabeeinheit kann so ausgebildet sein, dass die Ausgabe mit Mitteln der Erweiterten oder Virtuellen Realität erfolgt. Das Bediensystem kann ferner eine Kombination verschiedener Ausgabeeinheiten umfassen, etwa eine Kombination eines Touchscreens mit einer Ausgabeeinheit für Erweiterte Realität.

Bei einer Ausbildung umfasst die Ausgabeeinheit ein Head-up-Display oder eine am Körper eines Nutzers getragene Anzeigeeinheit, zum Beispiel eine Brille. Das Verfahren kann dadurch vorteilhafterweise besonders einfach mit bekannten Verfahren der Erweiterten oder Virtuellen Realität verbunden werden. Bei einerweiteren Ausbildung ist eine Blickrichtung eines Nutzers erfassbar, wobei in Abhängigkeit von der erfassten Blickrichtung eine echte Teilmenge von Bedienobjekten der Bedienoberfläche auswählbar ist. Insbesondere führt eine nachfolgende Betätigungshandlung zu einer Auswahl oder einem Betätigen eines einzelnen Bedienobjekts der Teilmenge. Dadurch wird vorteilhafterweise eine Auswahl zwischen mehreren Bedienobjekten der Bedienoberfläche erleichtert.

Die Erfassung der Blickrichtung kann auf an sich bekannte Weise erfolgen, insbesondere durch Verfolgen der Bewegung eines Auges und/oder einer Kopfhaltung. Das Auswählen der Teilmenge von Bedienobjekten erfolgt so, dass lediglich in einem bestimmten Teilbereich der Bedienoberfläche angeordnete Bedienobjekte ausgewählt werden, wobei der Teilbereich beispielsweise durch die Blickrichtung und einen vorgegebenen Radius oder eine in anderer Weise definierte Umgebung definiert ist. Insbesondere wird dadurch eine Vorauswahl durchgeführt.

Bei einer Ausbildung umfasst die Eingabeeinheit einen Aktuator zum Erzeugen einer Vibration. Die Steuereinheit ist dazu eingerichtet, ein Rückmeldungssignal zu erzeugen und an die Eingabeeinheit zu übertragen, wobei anhand des Rückmeldungssignals eine Vibration als Rückmeldung für eine Betätigungshandlung oder ein Ereignis der Bedienoberfläche ausgegeben wird. Zum Beispiel vibriert die Eingabeeinheit, um zu bestätigen, dass eine Betätigungshandlung erfasst wurde, wobei das Rückmeldungssignal in diesem Fall mit einer in Abhängigkeit von der Art der erfassten Betätigungshandlung abhängigen Vibration gebildet wird. Eine Vibration kann als Rückmeldungssignal auch signalisieren, dass ein bestimmtes Steuerungssignal erzeugt wurde, etwa eine Betätigung oder eine Auswahl eines Objekts der Bedienoberfläche oder eine Einstellung eines bestimmten Wertes.

Die Vibration kann dabei auf an sich bekannte Weise ausgebildet sein. Insbesondere können Vibrationen verschiedener Intensität oder Frequenz sowie gegebenenfalls mit verschiedenen Vibrationsrichtungen ausgegeben werden, um unterschiedliche Rückmeldungssignale zu erzeugen. Zum Beispiel kann ein Rückmeldungssignal beim Einstellen eines Parameters so erzeugt werden, dass die Vibration eine umso höhere Intensität aufweist, je größer der eingestellte Wert des Parameters ist. Umgekehrt kann die Vibration umso schwächer sein, je kleiner der eingestellte Wert ist. Bei einer Ausbildung ist die Eingabeeinheit einem Nutzer zugeordnet. Beispielsweise kann die Eingabeeinheit ein Speicherelement umfassen, auf dem Einstellungen und/oder andere persönliche Daten eines Nutzers gespeichert werden, oder sie kann eine Identifikationsinformation umfassen, anhand derer der Nutzer identifizierbar ist und Einstellungen und andere Daten erfassbar sind. Dadurch kann vorteilhafterweise ein hoher Personalisierungsgrad erreicht werden und die Eingabeeinheit kann als persönliches Gerät eines Nutzers ausgebildet sein. Der Nutzer kann dann in unterschiedlichen Kontexten, verschiedenen Positionen und für verschiedene Bediensystemen eine Bedienung auf die gleiche oder ähnliche Weise vornehmen, beispielsweise indem virtuelle Objekte auf analoge Weise betätigt werden oder eine Anordnung virtueller Objekte auf ähnliche Weise erfolgt.

Insbesondere kann die Eingabeeinheit als einem Nutzer zugeordnetes Mobilgerät ausgebildet sein. Der Nutzer kann dieses beispielsweise mit sich führen, wenn er ein Fahrzeug in Betrieb nimmt oder um ein anderes Bediensystem zu bedienen, etwa im Bereich der Home Automation oder in öffentlichen Räumen. Er ist dann vorteilhafterweise bereits mit der Bedienung vertraut und kann diese anhand einer individuell eingerichteten Eingabeeinheit ausführen.

Das erfindungsgemäße Bediensystem erlaubt eine Interaktion mit einer Bedienoberfläche der Erweiterten Realität auf verschiedene Weisen. Als Betätigungshandlung kann beispielsweise eine Gestensteuerung durchgeführt werden, wobei eine Geste anhand einer berührungsempfindlichen Oberfläche der Eingabeeinheit und/oder mittels Sensoren zur Bestimmung der Lage, Geschwindigkeit oder Beschleunigung der Eingabeeinheit im dreidimensionalen Raum erfasst werden kann. Während mit großer Amplitude und Deutlichkeit ausgeführte Gesten im öffentlichen Raum Aufsehen erregen und auf Ablehnung stoßen können, kann die Betätigungshandlung bei dem Bediensystem diskret mittels kleiner Bewegungen und/oder anhand einer klein dimensionierten Eingabeeinheit ausgeführt werden.

Bei einer Ausbildung des Bediensystems wird eine Bedienung implementiert, bei der anhand der Blickrichtung des Nutzers eine Vorauswahl von Objekten der Bedienoberfläche durchgeführt wird, die anschließend durch eine Betätigungshandlung mittels der Eingabeeinheit einzelnen ausgewählt oder betätigt werden, etwa durch ein Scrollen, eine Rotation, eine Wischgeste oder wiederholtes Betätigen. Dabei wird genutzt, dass die Auswahl anhand der Blickrichtung besonders einfach erfolgt, wobei jedoch eine detaillierte und genaue Auswahl beziehungsweise Bestimmung der Blickrichtung schwierig sein kann. Diese genauere Auswahl erfolgt daher mittels der Eingabeeinheit, wobei die Vorauswahl anhand der Blickrichtung dem Nutzer hier eine größere Anzahl von Bedienschritten erspart. Bei weiteren Ausführungen kann bei dem Bediensystem alternativ oder zusätzlich eine Sprachsteuerung genutzt werden, etwa zum Bestätigen einer Eingabe oder zum Ausführen einer Betätigung, Vorauswahl oder Auswahl. Dabei können Nachteile einer reinen Sprachbedienung umgangen werden, die in der Öffentlichkeit aus Gründen der Privatsphäre beziehungsweise wegen Störungen der Umgebung nur begrenzt eingesetzt werden kann.

Bei dem erfindungsgemäßen Verfahren zum Betreiben eines Bediensystems, insbesondere für ein Fahrzeug, werden Ausgabedaten für eine grafische Bedienoberfläche erzeugt und ausgegeben und eine Betätigungshandlung wird erfasst. Dabei ist für die Bedienoberfläche zumindest ein erster und ein zweiter Bedienzustand aktivierbar. Dabei wird in Abhängigkeit von dem aktivierten ersten oder zweiten Bedienzustand der Bedienoberfläche ein Form- Steuerungssignal erzeugt und an die Eingabeeinheit übertragen, wobei ein Verformungselement anhand des Form-Steuerungssignals eine erste Form der Eingabeeinheit ausbildet, wenn der erste Bedienzustand aktiviert ist, und eine zweite geometrische Form der Eingabeeinheit ausbildet, wenn der zweite Bedienzustand aktiviert ist.

Das erfindungsgemäße Verfahren ist dazu ausgebildet, das vorstehend beschriebene erfindungsgemäße Bediensystem zu betreiben. Das Verfahren weist somit dieselben Vorteile auf wie das erfindungsgemäße Bediensystem.

Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.

Figur 1 zeigt ein Ausführungsbeispiel des erfindungsgemäßen Bediensystems in einem Fahrzeug,

Figuren 2A und 2B zeigen Ausführungsbeispiele von bei dem erfindungsgemäßen Verfahren erzeugbaren Ausgaben, Figuren 3A und 3B zeigen ein erstes Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems, Figuren 4A und 4B zeigen ein zweites Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems und Figuren 5A bis 5E zeigen ein drittes Ausführungsbeispiel einer Formveränderung der Eingabeeinheit des Bediensystems. Mit Bezug zu Figur 1 wird ein Ausführungsbeispiel des erfindungsgemäßen Bediensystems in einem Fahrzeug erläutert.

Das Fahrzeug 1 umfasst eine Steuereinheit 2, mit der eine Ausgabeeinheit 3, bei dem Ausführungsbeispiel ein Head-up-Display 3, und eine Eingabeeinheit 4 gekoppelt sind. Die Eingabeeinheit 4 umfasst einen Sensor 5 und ein Verformungselement 6. Mit der Steuereinheit 2 ist ferner eine Einrichtung 7 des Fahrzeugs 1 gekoppelt, bei dem Ausführungsbeispiel eine Navigationseinheit 7.

Die Eingabeeinheit 4 ist einem bestimmten Nutzer zugeordnet und für diesen personalisierte Einstellungen sind für die Eingabeeinheit 4 gespeichert. Die Speicherung erfolgt bei dem Ausführungsbeispiel in einem Speicherelement der Eingabeeinheit 4, alternativ oder zusätzlich kann die Eingabeeinheit 4 eine Identifikation speichern, anhand derer bei der Verwendung der Eingabeeinheit 4 die entsprechenden Einstellungen abrufbar sind.

Mit Bezug zu den Figuren 2A und 2B werden Beispiele von bei dem erfindungsgemäßen Verfahren erzeugbaren Ausgaben erläutert. Dabei wird von dem oben erläuterten Ausführungsbeispiel des erfindungsgemäßen Bediensystems ausgegangen, welches durch die Beschreibung des Verfahrens weiter spezifiziert wird.

Bei dem Ausführungsbeispiel erzeugt die Steuereinheit 2 eine Ausgabe, die mittels der Ausgabeeinheit 3, beispielsweise des Head-up-Displays 3 oder einer Augmented-Reality-Brille, so in das Sichtfeld des Fahrers des Fahrzeugs 1 projiziert wird, dass sie zugleich mit der Ansicht der Umgebung des Fahrzeugs 1 überlagernd erscheint. In weiteren Beispielen erfolgt die Ausgabe mittels einer anderen Art von Ausgabeeinheit 3, insbesondere einer anderen Ausgabeeinheit für Virtuelle Realität. Dabei kann auch die gesamte für den Nutzer sichtbare Anzeige virtuell erzeugt werden, insbesondere indem eine reale Ansicht der Umgebung mittels der Ausgabeeinheit 3 abgebildet wird. Beispielsweise umfasst die Ausgabe in diesem Fall mittels einer Videokamera erfasste Bilder der Umgebung und zusätzlich dazu dargestellte virtuelle Objekte.

Bei dem in Figur 2A gezeigten Fall ist die reale Umgebung des Fahrzeugs 1 durch die Fahrbahnmarkierungen 10 angedeutet, während durch die Ausgabeeinheit 3 zusätzlich dazu virtuelle Objekte 11 bis 15 in das Sichtfeld projiziert werden. Bei dem hier gezeigten Fall umfasst die Ausgabe als virtuelle Objekte eine Ausgabe einer Geschwindigkeitsbegrenzung 11 , die als Darstellung eines Verkehrsschilds ausgegeben wird, eine zahlenmäßig dargestellte aktuelle Geschwindigkeit 12, eine Liste 13 mit Listeneinträgen 13a, ein Symbol als Markierung 14 sowie bei der Markierung 14 eine Informationsbox 15 mit einer Darstellung von Text.

Bei dem in Figur 2B gezeigten Fall ist ebenfalls die reale Umgebung 20, insbesondere eine Fahrbahnmarkierung 20 angedeutet. Zusätzlich sind in das Sichtfeld des Nutzers projizierte virtuelle Objekte 21, 22, 23 gezeigt, die aktive Widgets 21, 23 sowie inaktive Widgets 22 darstellen. Ferner ist ein weiteres virtuelles Objekt 24 gezeigt, welches eine Routenanzeige 24 darstellt. Diese sind im rechten und linken Bereich vertikal übereinander entlang einer Bogenstruktur angeordnet. Ferner können weitere virtuelle Objekte dargestellt sein, beispielsweise Informationsanzeigen zu weiteren Läufern auf der Strecke.

Die in Figur 2B gezeigten aktiven Widgets 21, 23 sind gegenüber den inaktiven Widgets 22 vergrößert dargestellt. Sie können ferner durch an sich bekannte grafische Hervorhebungen deutlicher hervorgehoben werden. Bei den aktiven Widgets 21, 23 werden ferner Textinformationen angezeigt, insbesondere mögliche Aktionen, die durch Betätigen des jeweiligen aktiven Widgets 21 , 23 ausführbar sind. Zum Beispiel ist ein aktives Wdget 21 dazu vorgesehen, eine Navigation entlang einer Laufroute zu steuern, die durch eine virtuelle Routenanzeige 24 ausgegeben wird. Durch eine Betätigung kann beispielsweise die Navigation beendet oder eine andere Aktion ausgelöst werden.

Bei den beiden Fällen, die in den Figuren 2A und 2B beteiligt sind, können virtuelle Objekte zur Interaktion ausgewählt werden, beispielsweise mittels Blicksteuerung. Dabei wird eine Blickrichtung des Nutzers erfasst und bestimmt, auf welches virtuelle Objekt der Blick gerichtet ist. Dieses Objekt wird dann ausgewählt, beispielsweise nachdem der Blick für ein bestimmtes Zeitintervall ununterbrochen auf das virtuelle Objekt gerichtet war. Anschließend können Interaktionen mittels der Eingabeeinheit 4 ausgeführt werden. Zum Beispiel können virtuelle Objekte betätigt werden, um eine Aktion oder Funktionalität auszubilden oder zu aktivieren, oder die Anzeige kann verändert werden, etwa indem anzuzeigende Inhalte ausgewählt und konfiguriert werden. Die Eingabeeinheit 4 kann dabei auf verschiedene Weisen angeordnet sein; sie kann sich beispielsweise in der Hand des Nutzers befinden oder etwa im Fahrzeug 1 an einer bestimmten Position fest angebracht sein.

Durch die Betätigung eines virtuellen Objekts oder Wdgets kann ein Steuersignal für eine Einrichtung gebildet und ausgegeben werden, etwa für ein Navigationssystem 7 des Fahrzeugs 1. Bei dem Beispiel ist ferner vorgesehen, dass anhand der Blickrichtung des Nutzers eine Vorauswahl getroffen wird. Die Blickrichtung wird bestimmt und in einem bestimmten Umkreis um einen Punkt innerhalb der Bedienoberfläche, auf den der Blick gerichtet ist, werden die dort angeordneten Objekte vorausgewählt, wobei es sich insbesondere um eine echte Teilmenge der virtuellen Objekte der gesamten Bedienoberfläche handelt. Durch eine weitere Bedienhandlung, etwa weiteres Richten des Blicks auf einen bestimmten Punkt oder durch Betätigen der Eingabeeinheit 4, kann anschließend ein bestimmtes virtuelles Objekt ausgewählt und/oder betätigt werden.

Mit Bezug zu den Figuren 3A und 3B wird ein erstes Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.

Bei diesem Beispiel umfasst die Eingabeeinheit 34 ein Verformungselement 36a, 36b, das in einer horizontalen Konfiguration 36a und in einer vertikalen Konfiguration 36b dargestellt ist.

Das Verformungselement kann aktiv zwischen diesen Konfiguration 36a, 36b umschalten, die Konfiguration 36a, 36b kann jedoch auch passiv durch von außen auf das Verformungselement 36a, 36b wirkende Kräfte verändert werden. Die Eingabeeinheit 34 ist dabei fünfeckig ausgebildet, während das Verformungselement 36 länglich ausgebildet und mittig an der Oberfläche der Eingabeeinheit 34 angeordnet ist.

Auf einer Oberfläche der Eingabeeinheit 34 sind Interaktionsflächen 35a, 35b, 35c ausgebildet. Dabei ist eine der Interaktionsflächen 35c auf dem Verformungselement 36a ausgebildet und folgt dessen Konfiguration. Das heißt, bei einer horizontalen Konfiguration des Verformungselements 36a ist die Interaktionsfläche 35c ebenfalls länglich und horizontal ausgerichtet, bei einer vertikalen Konfiguration des Verformungselements 36b ist auch die Interaktionsfläche 35c in gleicher Weise vertikal angeordnet (nicht dargestellt).

Die Interaktionsflächen 35a, 35b, 35c sind bei dem Beispiel als berührungsempfindliche Oberflächenbereiche der Eingabeeinheit 34 ausgebildet. Ferner ist die Eingabeeinheit 35 so gebildet, dass sie im Bereich einer der Interaktionsflächen 35a durch Druck senkrecht zur Oberfläche leicht elastisch verformt werden kann, insbesondere nach Art eines Drucktasters. Dabei wird eine haptische und akustische Rückmeldung durch die Verformung und ein dabei hörbares Klicken hervorgerufen. Bei weiteren Beispielen sind an der Oberfläche der Eingabeeinheit 34 ferner Beleuchtungselemente angeordnet und anhand eines optischen Parameters wird eine Rückmeldung über bedienbare Bereiche und/oder Flächen angezeigt, etwa indem diese mittels einer Helligkeit oder Farbe hervorgehoben werden. Der Nutzer kann so erkennen, in welchen Bereichen eine Betätigungshandlung durchgeführt werden kann. Bei weiteren Beispielen kann ferner während der Bedienung eine optische Rückmeldung ausgegeben werden, indem sich beispielsweise ein optischer Parameter verändert, etwa indem die Beleuchtung dem Verlauf einer Wischgeste folgt, ein Bereich nach einer Betätigung aufleuchtet oder bei einer Eingabeaufforderung alternativ betätigbare Flächen hervorgehoben werden. Verschiedene Flächen können dabei auch auf unterschiedliche Weise beleuchtet werden, etwa mit verschiedenen Farbe, Helligkeit oder Blinkfrequenz, um auf unterschiedliche Eingabemöglichkeiten hinzuweisen, etwa eine Annahme oder Ablehnung, Aktivierung oder Deaktivierung.

Ferner können Beleuchtungselemente am Rand der Eingabeeinheit 34 angeordnet sein. Insbesondere ist die Eingabeeinheit 34 mit zwei übereinanderliegenden Schichten ausgebildet und weist am Rand einen Spalt auf, bei dem eine Betätigung durch Druck und elastische Verformung der Schichten im Bereich des Spalt erfolgt. Durch eine Beleuchtung in dem Spalt kann dessen Bedienbarkeit angezeigt werden. Ferner kann sich die Beleuchtung bei einer Betätigung verändern, insbesondere um diese zu bestätigen.

Bei dem Beispiel werden Berührungen, das Ausüben von Druck auf eine Position der Interaktionsflächen 35a, 35b, 35c oder mit der Eingabeeinheit 34 ausgeführte Gesten als Betätigungshandlungen erfasst. In Abhängigkeit hiervon kann ein Nutzer mit virtuellen Objekten der Bedienoberfläche interagieren, etwa indem er eine Auswahl oder Betätigung, ein Scrollen oder eine Verschiebung oder eine Eingabe durchführt.

Bei dem Beispiel sind den Konfigurationen 36a, 36b verschiedene Bedienzustände zugeordnet. Diese sind im gezeigten Fall so definiert, dass die Bedienoberfläche im ersten Bedienzustand ein Menü mit Widgets zur Informationsausgabe und schnellen Bedienung einzelner Funktionalitäten umfasst, während die Bedienoberfläche im zweiten Bedienzustand eine Auswahl von anzeigbaren Widgets oder Bedienmöglichkeiten für Funktionalitäten umfasst. Das heißt, im ersten Bedienzustand kann ein Nutzer mittels der Anzeige Informationen erfassen und gegebenenfalls auf die Arbeitsweise von mit den Widgets verknüpften Funktionen einwirken; es handelt sich daher um einen Anzeigezustand. Dagegen ist es dem Nutzer im zweiten Bedienzustand möglich, die im ersten Bedienzustand angezeigten Informationen und Funktionen auszuwählen, etwa durch Auswahl aus einem Menü oder einer Liste; es handelt sich daher um einen Konfigurationszustand.

Bei einem weiteren Beispiel unterscheiden sich der erste und zweite Bedienzustand in einer für die Bedienung ausgezeichneten Richtung, insbesondere eine Richtung, in welcher eine Liste durch Scrollen oder Blättern durchsucht werden kann. Wenn die Elemente der zu durchsuchenden Liste in eine horizontale Richtung durchsuchbar sind, etwa mittels einer in eine horizontale Richtung durchgeführten Wischgeste, wird der erste Bedienzustand aktiviert und beispielsweise das Verformungselement 36a in einer horizontalen Konfiguration ausgerichtet. Dagegen kann eine vertikale Konfiguration 36b eingestellt werden, wenn die Elemente der Liste in eine vertikale Richtung durchsuchbar sind, etwa durch eine in horizontaler Richtung durchgeführte Wischgeste.

Bei weiteren Beispielen sind andere Definitionen des ersten und zweiten Bedienzustand vorgesehen. Ferner ist eine größere Zahl an Bedienzuständen möglich, wobei beispielsweise verschiedene Winkel für das Verformungselement 36a, 36b eingestellt und/oder unterschiedliche Interaktionsflächen 35a, 35b, 35c ausgebildet werden können.

Zwischen den Bedienzuständen wird bei dem Beispiel automatisch umgeschaltet, wenn ein Signal zur Umschaltung erfasst wird. Ein solches Signal kann automatisch erzeugt werden, beispielsweise beim Ausführen einer bestimmten Funktion. Ferner kann das Signal anhand einer Nutzereingabe erzeugt werden, etwa durch Auswählen eines bestimmten virtuellen Objekts. Der Bedienzustand kann auch dadurch verändert werden, dass durch eine äußere Kraft das Verformungselement 36a, 36b verlagert wird, etwa indem ein Nutzer das Verformungselement 36a, 36b rotiert. Der Nutzer kann hierdurch insbesondere zwischen einem Anzeige- und einem Konfigurationszustand umschalten.

Bei einem weiteren Beispiel umfasst die Ausgabe eine schematische Anzeige der aktuell eingestellten Konfiguration 36a, 36b der Eingabeeinheit 34 und/oder eine andere Anzeige des aktuell aktivierten Betriebsmodus.

Mit Bezug zu den Figuren 4A und 4B wird ein zweites Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen. ln diesem Fall weist die Eingabeeinheit 41 eine dreieckige Form auf, insbesondere die Form eines gleichseitigen Dreiecks. In einem mittleren Bereich ist ein ebenfalls als gleichseitiges Dreieck ausgebildetes Verformungselement 42a, 42b angeordnet, dessen Ausrichtung rotiert werden kann zwischen einer ersten Ausrichtung 42a, bei welcher die Spitzen des Verformungselements 42a zu den Seiten der dreieckigen Form der Eingabeeinheit 41 weisen, und einer zweiten Ausrichtung 42b, bei welcher die Seiten des Verformungselements 42b im Wesentlichen parallel zu den Seiten der dreieckigen Form der Eingabeeinheit 41 verlaufen. Dieses Rotieren kann aktiv durch die Eingabeeinheit 41 durchgeführt werden öder es kann passiv bei einer Ausübung einer Kraft auf das Verformungselement 42a, 42b von außen erfolgen.

Die Eingabeeinheit 41 weist bei dem Beispiel drei Interaktionsflächen 43, 44, 45 auf, die sich im Wesentlichen über die gesamte dem Nutzer zugewandte Oberfläche der Eingabeeinheit 41 jenseits des Verformungselements 42a, 42b erstrecken. Bei dem Beispiel sind die Interaktionsflächen 43, 44, 45 als berührungsempfindliche Oberflächen ausgebildet und ferner durch Ausüben eines Drucks senkrecht zur Oberfläche der Eingabeeinheit 41 betätigbar.

Mit Bezug zu den Figuren 5A bis 5E wird ein drittes Beispiel einer Formveränderung der Eingabeeinheit des Bediensystems erläutert. Dabei wird von den oben erläuterten Beispielen ausgegangen.

Die Eingabeeinheit 51 ist dabei im Wesentlichen analog zu den oben erläuterten Beispielen ausgebildet. Es weist die Form eines abgerundeten gleichschenkligen Dreiecks auf, wobei die Spitze des Dreiecks nach oben gerichtet ist und die seitlich nach unten verlaufenden Seiten des Dreiecks länger sind als die horizontal verlaufende. Es wird davon ausgegangen, dass ein Nutzer die Eingabeeinheit 51 aus einer ursprünglichen Lage, wie sie in Figur 5A gezeigt ist, um eine senkrecht zur Bildfläche verlaufende Achse rotiert, etwa um einen Winkel von 120°. Die Figuren 5A bis 5E zeigen eine gleichzeitig erfolgende Veränderung der Form der Eingabeeinheit 51 jeweils nach einem bestimmten Zeitschritt, wobei jeweils die frühere Form 52 der Eingabeeinheit 51 zum vorhergehenden Zeitschritt mit angedeutet ist.

Bei dem Beispiel verändert sich die Form der Eingabeeinheit 51 so, dass die Eingabeeinheit 51 am Endpunkt der Bewegung, gezeigt in Figur 5E, gegenüber der Ausgangsform, gezeigt in Figur 5A, um 180° verdreht ist. Das heißt, die Formveränderung suggeriert eine stärkere Drehung als tatsächlich durchgeführt wurde. Während der Veränderung der Form der Eingabeeinheit 51 verschieben sich die Verhältnisse der Seitenlängen so, dass die vormals kürzere Seite die Länge der beiden längeren Schenkel des Dreiecks annimmt, während eine der längeren Seiten verkürzt wird und am Ende der Bewegung oben angeordnet ist. Die Spitze des Dreiecks weist zum Ende der Bewegung, gezeigt in Figur 5E, nach unten.

Das hier gezeigte Beispiel kann ferner so ausgebildet sein, dass sich die Form der Eingabeeinheit 51 vollständig aktiv so verändert, dass die in den Figuren 5A bis 5E gezeigten Zustände erreicht werden. In diesem Fall erfolgt also keine Rotation durch einen Nutzer, sondern die scheinbare Drehung um 180° erfolgt ausschließlich durch das Verändern der Kantenlängen des Dreiecks. Insbesondere wird die Eingabeeinheit 51 dabei in einer Halterung gehalten oder sie ist auf andere Weise gelagert.

Bei den oben erläuterten Beispielen ist ferner vorgesehen, dass die Eingabeeinheiten 4, 34, 41, 51 jeweils Sensoren zum Erfassen der Lage und eine Beschleunigung der Eingabeeinheit 4, 34, 41, 51 umfassen. Auf diese Weise ist beispielsweise erfassbar, wenn die Eingabeeinheit 4, 34, 41 , 51 in eine Richtung rotiert wird. Ferner kann eine Ausrichtung der Eingabeeinheit 4, 34, 41 , 51 detektiert werden, insbesondere um eine Zeigegeste zu implementieren, bei welcher anhand der Ausrichtung der Eingabeeinheit 4, 34, 41, 51 ein Punkt innerhalb der Bedienoberfläche bestimmt wird, etwa um diese Position zu markieren oder um ein dort angeordnetes virtuelles Objekt zu markieren, auszuwählen, zu betätigen oder in anderer Weise zu bedienen. Ferner können so Gesten erfasst werden, bei denen ein Nutzer die Eingabeeinheit 4, 34, 41, 51 im dreidimensionalen Raum entlang einer bestimmten Trajektorie bewegt, gegebenenfalls mit einer bestimmten Geschwindigkeit und/oder Beschleunigung.

Bei einem weiteren Beispiel ist die Eingabeeinheit 4, 34, 41 , 51 an einem Lenker des Fahrzeugs 1 angeordnet. Es kann sich beispielsweise um den Lenker oder eine vergleichbare Steuerungseinrichtungen eines Kraftfahrzeugs, eines Fahrrads, einer Drohne oder eines Rollers handeln. Die Eingabeeinheit 4, 34, 41, 51 ist dabei insbesondere beweglich und herausnehmbar gelagert. Ein Nutzer kann die Eingabeeinheit 4, 34, 41, 51, insbesondere wenn diese für ihn individuell personalisiert ist, zwischen verschiedenen Fahrzeugen 1 übertragen und damit eine ähnliche Bedienung in verschiedenen Kontexten erreichen. Bezugszeichenliste

Fahrzeug

Steuereinheit

Ausgabeeinheit, Head-up-Display

Eingabeeinheit

Sensor

Verformungselement Einrichtung; Navigationseinheit Fahrbahnmarkierung

Virtuelles Objekt; Geschwindigkeitsbegrenzung

Virtuelles Objekt; Aktuelle Geschwindigkeit

Virtuelles Objekt; Liste a Virtuelles Objekt; Listeneinträge

Virtuelles Objekt; Markierung

Virtuelles Objekt; Informationsbox

Fahrbahnmarkierung; reale Umgebung

Virtuelles Objekt; aktives Widget

Virtuelles Objekt; inaktives Widget

Virtuelles Objekt; aktives Widget

Virtuelles Objekt; Routenanzeige

Eingabeeinheit a, 35b, 35c Interaktionsfläche a Verformungselement (horizontal) b Verformungselement (vertikal)

Eingabeeinheit a, 42b Verformungselement , 44, 45 Interaktionsfläche Eingabeeinheit (Umriss)

Eingabeeinheit (früherer Umriss)