Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
USER INTERFACE AND METHOD FOR ASSISTING A USER WITH THE OPERATION OF AN OPERATING UNIT
Document Type and Number:
WIPO Patent Application WO/2015/043652
Kind Code:
A1
Abstract:
The invention relates to a user interface and to a method for assisting a user with the operation of a touch-sensitive operating unit (1). According to the invention, the following steps are performed: detecting (200) a presence of an input means (2), in particular a finger of the user, in a predefined first region (11) with respect to the operating unit (1), and in response thereto, acknowledging (300) the detected presence by means of a predefined first audio output (3), which comprises a first sound signal, which is associated in a context-specific manner with a first button (10, 20, 30) displayed on the operating unit (1).

Inventors:
WILD HOLGER (DE)
CZELNIK MARK PETER (DE)
SEITZ GORDON (DE)
Application Number:
PCT/EP2013/070214
Publication Date:
April 02, 2015
Filing Date:
September 27, 2013
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
VOLKSWAGEN AG (DE)
International Classes:
G06F3/16
Domestic Patent References:
WO2010131163A12010-11-18
WO2009062677A22009-05-22
Foreign References:
DE102007039450A12009-02-26
US20060022955A12006-02-02
US20090225043A12009-09-10
US20080129520A12008-06-05
US20090167701A12009-07-02
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen Bedieneinheit (1 ) umfassend die Schritte:

- Erkennen (200) einer Präsenz eines Eingabemittels (2), insbesondere eines Fingers des Anwenders, in einem vordefinierten ersten Bereich (1 1 ) bezüglich der Bedieneinheit (1 ), und im Ansprechen darauf

- Quittieren (300) der erkannten Präsenz durch eine vordefinierte erste Audioausgabe (3), die ein erstes Klangzeichen umfasst, das einer auf der Bedieneinheit (1 ) dargestellten ersten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.

2. Verfahren nach Anspruch 1 , weiter umfassend

- Erkennen (400) einer Präsenz eines Eingabemittels (2), insbesondere eines Fingers des Anwenders, in einem vordefinierten zweiten Bereich (1 1 ) bezüglich der Bedieneinheit (1 ), und im Ansprechen darauf

- Quittieren (500) der erkannten Präsenz durch eine vordefinierte zweite Audioausgabe (3), die ein zweites Klangzeichen umfasst, das einer auf der Bedieneinheit (1 ) dargestellten zweiten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.

3. Verfahren nach Anspruch 1 oder 2, wobei der vordefinierte erste Bereich (1 1 ) und/oder der vordefinierte zweite Bereich (21 ) parallel zu einer Oberfläche der Bedieneinheit (1 ) im Wesentlichen entsprechend einer auf der Bedieneinheit (1 ) dargestellten Schaltfläche (10, 20, 30) begrenzt ist und/oder innerhalb eines Abstandes (a) von -1 mm bis +100 mm, insbesondere -1 mm bis 30 mm, von der Oberfläche der Bedieneinheit (1 ) liegt.

4. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend den Schritt

- Erkennen (600) eines Übertritts (P1 ) des Eingabemittels (2) von dem ersten Bereich (1 1 ) in einen vordefinierten dritten Bereich bezüglich der Bedieneinheit (1 ), und

- Quittieren (700) des Übertritts durch eine vordefinierte dritte Audioausgabe (4), die ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit (1 ) dargestellten dritten Schaltfläche (10, 20, 30) kontextspezifisch zugeordnet ist.

5. Verfahren nach einem der vorstehenden Ansprüche, wobei die Audioausgabe (3, 4) eine der folgenden Signalklassen umfasst:

- Klick-Geräusch einer ersten Frequenz,

- Klick-Geräusch einer zweiten, niedrigeren Frequenz als die erste Frequenz,

- Donnergeräusch,

- Regengeräusch,

- Windgeräusch,

- DTMF Tonfolge,

- Freizeichen,

- Echolot-Geräusch.

6. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend den Schritt

- Quittieren (200) der erkannten Präsenz durch ein vordefiniertes alternatives optisches Darstellen einer auf der Bedieneinheit dargestellten Schaltfläche (10, 20, 30).

7. Verfahren nach einem der vorstehenden Ansprüche, weiter umfassend den Schritt

- Zuordnen (100) eines ersten Klangzeichens zu einer auf der Bedieneinheit (1 ) darstellbaren ersten Schaltfläche (10, 20, 30) durch einen Anwender.

8. Anwenderschnittstelle, insbesondere fest in einem Kraftfahrzeug verbaute Mensch- Maschine-Schnittstelle, umfassend:

- eine berührungsempfindliche Bedieneinheit (1 ),

- eine Erkennungseinrichtung (6) zum Erkennen einer Anwendereingabe, und

- eine Verarbeitungseinrichtung (7),

wobei die Anwenderschnittstelle eingerichtet ist, ein Verfahren nach einem der vorstehenden Ansprüche durchzuführen.

9. Anwenderschnittstelle nach Anspruch 8, wobei

- die Bedieneinheit (1 ) zentral in das Armaturenbrett eines Kraftfahrzeugs (8) integriert ist, und/oder

- die Erkennungseinrichtung (6) ein Kamerasystem und/oder einen kapazitiven Sensor umfasst.

10. Fahrzeug umfassend eine Anwenderschnittstelle nach einem der Ansprüche 8 oder 9.

Description:
Beschreibung

Anwenderschnittstelle und Verfahren zur Unterstützung eines Anwenders bei Bedienung einer Bedieneinheit

Stand der Technik

Die vorliegende Erfindung betrifft eine Anwenderschnittstelle sowie ein Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen

Bedieneinheit. Insbesondere betrifft die vorliegende Erfindung die Unterstützung eines Fahrers eines Fortbewegungsmittels bei der Bedienung einer fest im Fortbewegungsmittel angeordneten Bedieneinheit während der Wahrnehmung seiner Fahraufgabe.

Im Stand der Technik ist es bekannt, Fahrzeuge durch Mensch-Maschine-Schnittstellen (human-machine-interfaces, HMI) auszustatten, auf deren Bildschirmen wahlfreie Inhalte und Interaktionsflächen dargestellt werden können. Zur Bedienung sind Dreh-/Drücksteller, Tastschalter und andere mechanische Elemente ebenso bekannt, wie berührungssensitive Oberflächen, welche beispielsweise kapazitive Sensoren umfassen. Zusätzlich sind Systeme bekannt, bei welchen eine vor einem Bildschirm ausgeführte Anwendergeste erkannt wird, ohne dass ein Kontakt zur Bedieneinheit erforderlich ist. Ein solcher Bedienschritt wird als „Hovern" bezeichnet. Hierbei wird die Gestenerkennung über optische Sensoren (Kameras) und alternativ oder zusätzlich über kapazitive Sensorik erfasst und einer vorbestimmten Schaltfläche zugeordnet. In diesem Zusammenhang wird auf das Betriebssystem„Windows 8" (eingetragene Marke) sowie auf„Air View" (eingetragene Marke) des Samsung Galaxy S4 (eingetragene Marke) verwiesen.

WO 2009/062677 A2 zeigt eine multimodale Benutzerschnittstelle eines Infotainmentsystems zur Eingabe und Präsentation von Informationen, bei welchen Gesten in Verbindung mit Sprachkommandos zum Aufrufen vordefinierter Funktionen verwendet werden. Hierbei werden kapazitive Sensoren zur Touch-/Gesten-Erkennung und ein

Spracherkennungssystem zur Erkennung von Sprachkommandos verwendet.

Es ist eine Aufgabe der vorliegenden Erfindung, einen Anwender bei der Bedienung einer Anwenderschnittstelle, insbesondere während der Wahrnehmung einer Fahraufgabe, zu unterstützen. Offenbarung der Erfindung

Die vorstehend genannte Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen gemäß Anspruch 1 sowie ein Anwenderschnittstelle mit den Merkmalen gemäß Anspruch 8 gelöst. Entsprechend dient das erfindungsgemäße Verfahren zur Unterstützung eines Anwenders bei der Bedienung einer berührungsempfindlichen Bedieneinheit, welche als in einem Fortbewegungsmittel verbaute HMI ausgestaltet sein kann. Dabei wird zunächst eine Präsenz eines Eingabemittels in einem vordefinierten ersten Bereich bezüglich der Bedieneinheit erkannt. Das Eingabemittel kann beispielsweise ein Eingabestift („Stylus"), ein Finger eines Anwenders, ein anderer Körperteil des Anwenders o.a., sein. Entsprechend der vorgenannten Touch-/Gestenerkennung kann der vordefinierte erste Bereich in Kontakt mit der Bedieneinheit stehen („Touch-Bedienung") und sich in einen vordefinierten

Abstandsbereich vor der Bedieneinheit („Hover-Bereich") erstrecken. Die Bedieneinheit kann zur Erkennung der unterschiedlichen Eingaben kapazitive Sensorik, kamerabasierte

Sensorik o.a. umfassen. Im Ansprechen auf ein Erkennen der Präsenz des Eingabemittels wird eine Audioausgabe generiert, mittels welcher die Präsenz dem Anwender quittiert wird. Die Audioausgabe umfasst ein erstes Klangzeichen, das einer auf der Bedieneinheit dargestellten ersten Schaltfläche kontext-spezifisch zugeordnet ist. Die erste Schaltfläche kann beispielsweise einen vordefinierten Funktionsumfang repräsentieren, welchen das erste Klangzeichen in geeigneter Weise versinnbildlicht. Dabei kann das erste Klangzeichen auch als„akustisches Icon" (auch„Earcon" genannt) verstanden werden. Mit anderen Worten bestimmt die der Schaltfläche zugeordnete Funktion die Gestalt des Klangzeichens derart, dass der Anwender beim Hören des Klangzeichens eine bestimmte Funktion einer Vielzahl von Funktionen als nächstliegend assoziiert. Auf diese Weise kann das Erreichen des ersten vordefinierten Bereiches einen akustischen Hinweis auf die mit der ersten Schaltfläche assoziierte Funktion veranlassen. Beim Betätigen der Schaltfläche (z.B. durch eine Touch-Eingabe, eine Höver- Geste o.ä.) wird eine der Schaltfläche zugeordnete

Funktion ausgeführt, welche erfindungsgemäß durch den Anwender bereits aufgrund der Audio-Ausgabe erkannt wird. Entsprechend kann auch ein Verlassen des vordefinierten ersten Bereiches durch dasselbe oder ein alternatives Klangzeichen im Rahmen einer Audioausgabe begleitet werden. Auf diese Weise unterstützt die vorliegende Erfindung den Anwender bei der Bedienung der erfindungsgemäßen Bedieneinheit, insbesondere während der Wahrnehmung einer Fahraufgabe, während welcher der Fahrer eine begrenzte

Aufmerksamkeit für die Bedienung der Bedieneinheit aufwenden kann.

Die Unteransprüche zeigen bevorzugte Weiterbildungen der Erfindung. Bevorzugt umfasst das erfindungsgemäße Verfahren weiter ein Erkennen einer Präsenz eines Eingabemittels in einem vordefinierten zweiten Bereich bezüglich der Bedieneinheit. Für den zweiten Bereich gilt dabei das in Verbindung mit dem ersten Bereich Gesagte entsprechend, wobei der zweite Bereich nicht notwendigerweise mit dem ersten Bereich zusammenfallen muss. Im Ansprechen auf die erkannte Präsenz des Eingabemittels im vordefinierten zweiten Bereich wird der Vorgang dem Anwender durch eine vordefinierte zweite Audioausgabe quittiert. Diese umfasst ein zweites Klangzeichen, dass einer auf der Bedieneinheit dargestellten zweiten Schaltfläche kontextspezifisch zugeordnet ist. Die zweite Schaltfläche steht dabei für eine andere Funktion als die erste Schaltfläche, wobei für das zweite Klangzeichen in Verbindung mit der zweiten Schaltfläche das oben Gesagte entsprechend gilt. Indem das zweite Klangzeichen und das erste Klangzeichen sich deutlich voneinander unterschieden, kann der Anwender beim Vernehmen des Klangzeichens auf eine mit der zweiten Schaltfläche assoziierte Funktion schließen und ein Ausführen der mit der ersten Schaltfläche assoziierten Funktion im Wesentlichen ausschließen. Dies verbessert die Unterstützung des Anwenders bei der Bedienung der erfindungsgemäßen Anwenderschnittstelle während der Wahrnehmung seiner Fahraufgabe.

Der vordefinierte erste Bereich und der vordefinierte zweite Bereich können durch eine im Wesentlichen parallel zur Oberfläche der Bedieneinheit liegende Grenzfläche, welche in senkrechter Richtung zur Oberfläche der Bedieneinheit beabstandet ist, begrenzt sein. Dabei kann eine erste parallele Grenzfläche durch die Oberfläche der Bedieneinheit selbst definiert sein oder ein Höver-Bereich durch eine zwischen der Oberfläche der Bedieneinheit und der ersten Grenzfläche definiert sein. Senkrechte Grenzflächen des ersten bzw. des zweiten Bereiches können beispielsweise mit den Grenzen einer jeweiligen dargestellten

Schaltfläche zusammenfallen. Mit anderen Worten kann die dargestellte Schaltfläche durch die Umrandung einer senkrechten Projektion des ersten bzw. zweiten Bereiches auf die Oberfläche der Bedieneinheit begrenzt sein. Dabei kann der erste bzw. der zweite Bereich in einem Abstand -1 mm bis +3mm von der Oberfläche der Bedieneinheit entfernt sein. Ein negativer Abstandsbereich steht dabei für eine Touch-Bedienung, während ein positiver Abstandsbereich für einen Höver-Bereich steht. Dieser erstreckt sich typischerweise bis zu einem Abstand von 10 mm bis hin zu 15 cm von der Oberfläche der Bedieneinheit.

Das erfindungsgemäße Verfahren kann weiter einen Übertritt des Eingabemittels von dem ersten Bereich in einen vordefinierten dritten Bereich bezüglich der Bedieneinheit erkennen. Für den dritten Bereich gilt dabei das in Verbindung mit dem ersten und dem zweite Bereich Gesagte entsprechend. Anschließend wird der Übertritt durch eine vordefinierte dritte Audioausgabe quittiert, die ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit dargestellten dritten Schaltfläche kontext-spezifisch zugeordnet ist. Mit anderen Worten steht die dritte Schaltfläche für eine dritte Funktion, die für den Anwender durch das dritte Klangzeichen versinnbildlicht wird. Auf diese Weise kann der Anwender bei der Bedienung der erfindungsgemäßen Anwenderschnittstelle während der Wahrnehmung seiner

Fahraufgabe akustisch unterstützt werden, so dass sein Augenmerk im Wesentlichen auf dem Verkehrsgeschehen verbleiben kann.

Um die Anwenderakzeptanz des erfindungsgemäßen Verfahrens bzw. der

erfindungsgemäßen Anwenderschnittstelle zu erhöhen und den Anwender bzw. weitere Personen in der Umgebung nicht unnötig zu stören, ist es vorteilhaft, keine Sprachsignale in die Audioausgabe bzw. das Klangzeichen zu integrieren. Erfahrungsgemäß akzeptieren Anwender Geräusche bei wiederholter Wiedergabe deutlich besser, als dies für

Sprachsignalanteile der Fall ist. Entsprechend können die Audioausgaben ein Sample oder mehrere, miteinander verwandte, Samples umfassen, welche sich beispielsweise insbesondere bei wiederholter Ausgabe variieren lassen. Ein typisches Beispiel ist ein Klick- Geräusch, welches in Abhängigkeit des erfolgten Bedienschrittes in seiner Frequenz verändert werden kann. Beispielsweise kann beim Erreichen eines Höver-Bereiches ein Klick-Geräusch einer ersten, höheren Frequenz wiedergegeben werden, während bei einem Wechseln von einem ersten Höver-Bereich zu einem zweiten Höver-Bereich ein Klick- Geräusch einer zweiten, niedrigeren Frequenz wiedergegeben wird. Die Klick-Geräusche sind dabei ein Beispiel für eine schwach kontext-bezogene Zuordnung zwischen der Schaltfläche und dem Klangzeichen. Individueller kann beispielsweise eine wetterbezogene Schaltfläche quittiert werden, indem als Klangzeichen ein Donnergeräusch, ein

Regengeräusch oder Windgeräusch verwendet werden. Auf diese Weise kann auch eine aktuelle Wetterlage wiedergegeben werden, sofern diese mit einem der Geräusche treffend versinnbildlicht werden kann. Ein weiteres Beispiel ist die Ankündigung einer Telefonfunktion durch Wiedergabe einer DTMF-Tonfolge oder eines Freizeichens als Klangzeichen.

Entsprechend kann eine Navigationsfunktion durch ein Echolot-Geräusch angekündigt werden. Die vorstehend genannten Zuordnungen stellen dabei besonders intuitiv erkennbare Zusammenhänge für die Orientierung des Anwenders dar.

Weiter bevorzugt umfasst das erfindungsgemäße Verfahren das Quittieren der erkannten Präsenz durch ein vordefiniertes alternatives optisches Darstellen einer auf der

Bedieneinheit dargestellten Schaltfläche. Dabei kann ein erhöhter Störschallpegel teilweise kompensiert werden, indem die alternative optische Darstellung die Aufmerksamkeit des Anwenders auf die Bedieneinheit lenkt und nur schwach gegenüber dem Störschallpegel wahrgenommene Audioausgabe somit besser erkannt werden.

Bevorzugt können die Zuordnungen zwischen der jeweilige Audioausgabe und einer jeweiligen Schaltfläche durch einen Anwender definiert werden. Dies kann beispielsweise dergestalt erfolgen, dass der Anwender in einem Konfigurationsmenü einer ganzen Liste von Schaltflächen jeweilige Klangzeichen zuordnen kann. Zusätzlich kann es möglich und vorteilhaft sein, dass ein Anwender ein zusätzliches Klangzeichen (z.B. selbst gestaltet oder erworben) einem Klangzeichenpool hinzufügen kann und dieses mit einer der Schaltflächen assoziieren kann. Dies erhöht die Wiedererkennung des Funktionsumfangs beim Vernehmen des Klangzeichens durch den Anwender.

Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird eine Anwenderschnittstelle vorgeschlagen, welch insbesondere fest in einem Kraftfahrzeug verbaut sein kann. Solche Anwenderschnittstellen sind auch als Mensch-Maschine-Schnittstellen (HMI) bekannt. Das Kraftfahrzeug kann beispielsweise ein Straßenfahrzeug (PKW, LKW) sein, welches elektrisch, über einen Verbrennungsmotor oder Hybrid angetrieben wird. Die

Anwenderschnittstelle umfasst eine berührungsempfindliche Bedieneinheit, eine

Erkennungseinrichtung zum Erkennen einer Anwendereingabe und eine

Verarbeitungseinrichtung. Die berührungsempfindliche Bedieneinheit kann beispielsweise eine Anzeige umfassen, welche gemeinsam mit einem berührungsempfindlichen Element einen Touch-Screen ausbildet. Die Erkennungseinrichtung kann das berührungsempfindliche Element sowie ein Kamerasystem zum Erkennen von Hover-Gesten umfassen. Die

Verarbeitungseinrichtung kann einen Prozessor umfassen, welcher innerhalb der HMI angeordnet und beispielsweise zur Verarbeitung von Navigationsbefehlen eingerichtet ist. Die Anwenderschnittstelle ist überdies eingerichtet, ein Verfahren auszuführen, wie es in Verbindung mit dem erstgenannten Erfindungsaspekt beschrieben worden ist. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen dem in Verbindung mit dem erstgenannten Erfindungsaspekt beschriebenen, derart ersichtlich, dass zur Vermeidung von Wiederholungen auf die obigen Ausführungen verwiesen wird.

Die Bedieneinheit kann bevorzugt zentral in das Armaturenbrett eines Kraftfahrzeugs integriert oder als Kombiinstrument hinter der Lenkeinrichtung des Fahrzeugs angeordnet sein. Alternativ oder zusätzlich kann die Erkennungseinrichtung ein Kamerasystem und/oder einen kapazitiven Sensor umfassen, um Hover-Gesten und Touch-Gesten erkennen und zuordnen zu können. Weiter kann die Anwenderschnittstelle ein Speichermittel umfassen, in welchem Referenzsignale repräsentierend vordefinierte Gesten abgespeichert sind. Die Referenzen können durch die Verarbeitungseinrichtung ausgelesen und mit durch die Erkennungseinrichtung erkannte Eingaben verglichen werden. Dies erhöht die Vielfalt der verwendbaren Bedienschritte, so dass im Mittel weniger aufeinanderfolgende Bedienschritte auszuführen sind. Gemäß einem dritten Aspekt der vorliegenden Erfindung wird ein Fahrzeug vorgeschlagen, welches eine Anwenderschnittstelle entsprechend dem zweitgenannten Erfindungsaspekt umfasst. Die Anwenderschnittstelle kann als kompakte Einheit oder als verteiltes System innerhalb des Fahrzeugs angeordnet sein. Auf diese Weise kann vorhandene Hardware verwendet werden, wodurch die vorliegende Erfindung im Wesentlichen in Form von

Software realisiert werden kann. Die Merkmale, Merkmalskombinationen und die sich aus diesen ergebenden Vorteile entsprechen den in Verbindung mit dem erstgenannten und zweitgenannten Erfindungsaspekt beschriebenen derart ersichtlich, dass zur Vermeidung von Wiederholungen auch in diesem Zusammenhang auf die obigen Ausführungen verwiesen wird.

Kurze Beschreibung der Zeichnungen

Nachfolgend werden Ausführungsbeispiele der Erfindung unter Bezugnahme auf die begleitenden Zeichnungen im Detail beschrieben. In den Zeichnungen ist:

Figur 1 eine schematische Übersicht über Bestandteile eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle;

Figur 2 eine Darstellung eines möglichen Bedienschrittes eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle;

Figur 3 eine Darstellung eines alternativen Bedienschrittes eines Ausführungsbeispiels einer erfindungsgemäßen Anwenderschnittstelle; und

Figur 4 ein Flussdiagramm, veranschaulichend die Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens.

Ausführungsformen der Erfindung

Figur 1 zeigt ein Fortbewegungsmittel 8, in welchem ein Bildschirm einer HMI als

Bedieneinheit 1 in das Armaturenbrett eingelassen ist. Eine Kamera 6 ist zusätzlich zu (nicht dargestellter) Annäherungssensorik über eine Lichtschranke und kapazitive Technologien als Erkennungseinrichtung im Bereich der Windschutzscheibe vorgesehen. Die Kamera 6 ist mit einem elektronischen Steuergerät 7 als Verarbeitungseinrichtung datentechnisch verbunden. Weiter ist das elektronische Steuergerät 7 mit einem Lautsprecher 9 zur Erzeugung einer Audioausgabe sowie mit der Bedieneinheit 1 verbunden, auf deren Bildschirm eine erste Schaltfläche 10 und eine zweite Schaltfläche 20 dargestellt sind. An den Schaltflächen 10, 20 sind jeweilige, quaderförmige Bereiche 1 1 , 21 , gestrichelt dargestellt, in denen eine Präsenz eines Eingabemittels als Touch-Eingabe oder als Hovern (in Abhängigkeit eines jeweiligen Abstandes a zur Oberfläche der Bedieneinheit 1 ) erkannt wird. Die Bereiche 1 1 ,

21 sind durch eine erste, parallel zur Oberfläche der Bedieneinheit 1 orientierte Fläche 12 bzw. 22, eine zweite, parallel zur Oberfläche der Bedieneinheit 1 orientierte und von der Oberfläche entfernte zweite Fläche 13 bzw. 23 und durch vier senkrecht zur Oberfläche der Bedieneinheit 1 orientierte Flächen 14 bzw. 24, 15 bzw. 25, 16 bzw. 26 und 17 bzw. 27 derart definiert, dass die Schaltflächen 10, 20 senkrechte Projektionen der Bereiche 1 1 . 21 auf der Bedieneinheit 1 darstellen bzw. von diesen begrenzt sind.

Figur 2 zeigt eine mögliche Bedienoberfläche, welche auf der Bedieneinheit 1 dargestellt werden kann. Auf einer ersten Schaltfläche 10 wird ein Kartenausschnitt dargestellt, welcher mit einem Teil einer durch ein Navigationssystem errechneten Route korrespondiert. Auf der rechten Bildschirmseite wird in einem oberen Bereich eine zweite Schaltfläche 20 dargestellt, über welche ein aktuell wiedergegebener Titel, dessen Interpret und das Album, auf welchem der Titel enthalten ist, wiedergegeben werden. Unterhalb der zweiten Schaltfläche 20 ist eine dritte Schaltfläche 30 dargestellt, in welchem das Wetter in Braunschweig in Form eines Icons in Verbindung mit einer Grad-Celsius-Angabe und einem aktuellen Niederschlag wiedergegeben wird. Die Hand eines Anwenders 2 befindet sich vor der ersten Schaltfläche 10. Über eine erste vordefinierte Audioausgabe 3, welche ein Echolot-Signal als Earcon umfasst, wird die Präsenz der Hand quittiert, und dem Anwender im Zuge dessen eine Orientierung gegeben, dass er eine mit einer Navigationsfunktion assoziierte Schaltfläche 10 bedient.

Figur 3 zeigt die in Verbindung mit Figur 2 dargestellte Ansicht, bei welcher jedoch eine alternative Geste mittels der Hand des Anwenders 2 ausgeführt wird. Dabei wechselt die Hand entlang eines Pfeils P aus einem ersten Bereich 1 1 vor der ersten Schaltfläche 10 in einen dritten Bereich vor der dritten Schaltfläche 30. Der erkannte Übertritt wird durch eine vordefinierte zweite Audio-Ausgabe 4, welche ein dezentes, hochfrequentes Klirren umfasst, quittiert. Somit korrespondiert die zweite Audio-Ausgabe 4 mit dem Inhalt der dritten

Schaltfläche, indem eine Klangdatei abgespielt wird, welche den auch in Textform

angekündigten Schneefall versinnbildlicht. Beispielsweise kann auch ein hochfrequentes leises Glockenspiel eine entsprechende Assoziation beim Anwender 2 hervorrufen.

Zumindest aber ist der Anwender darüber informiert, dass die Schaltfläche 30 einer wetterbezogenen Funktion zugeordnet ist, ohne dass er den Blick auf die Bedieneinheit richten muss. Figur 4 zeigt ein Flussdiagramm, veranschaulichend Schritte eines Ausführungsbeispiels eines erfindungsgemäßen Verfahrens. Das Verfahren beginnt in Schritt 100 mit dem

Zuordnen eines ersten Klangzeichens zu einer auf der Bedieneinheit darstellbaren ersten Schaltfläche durch einen Anwender. Dies kann in einem Konfigurationsmenü einer erfindungsgemäßen Anwenderschnittstelle erfolgen. Dabei können einzelne oder sämtliche Schaltflächen des Betriebssystems der Anwenderschnittstelle durch aus einem

vordefinierten (jedoch erweiterbaren) Pool von Klangzeichen ausgewählten Klangzeichen ergänzt werden. Nach erfolgter Zuordnung wird in Schritt 200 die Präsenz eines

Eingabemittels in einem vordefinierten ersten Bereich bezüglich der Bedieneinheit (z.B. als Touch- oder Hover-Geste) erkannt. Im Ansprechen darauf wird in Schritt 300 dem Anwender die Präsenz durch eine vordefinierte erste Audioausgabe quittiert, wobei die Audioausgabe ein erstes Klangzeichen umfasst, welches einer auf der Bedieneinheit dargestellten ersten Schaltfläche kontextspezifisch zugeordnet ist. Dabei entspricht eine mit der ersten

Schaltfläche assoziierte Funktion einem Vorgang, der durch den Anwender mit dem ersten Klangzeichen möglichst einfach assoziiert wird. Weiter wird in Schritt 400 die Präsenz des Eingabemittels in einem vordefinierten zweiten (anderen) Bereich bezüglich der

Bedieneinheit (z.B. auf oder über einer zweiten Schaltfläche) erkannt und im Ansprechen darauf in Schritt 500 dem Anwender die erkannte Präsenz durch eine vordefinierte zweite (andere) Audioausgabe quittiert. Die zweite Audioausgabe umfasst dabei ein zweites Klangzeichen, welches ein akustisches Sinnbild für eine mit der zweiten Schaltfläche assoziierte Funktion darstellt. Anschließend tritt in Schritt 600 das Eingabemittel von einem ersten Bereich in einen vordefinierten dritten (wiederum anderen) Bereich bezüglich der Bedieneinheit ein. Im Ansprechen darauf wird dem Anwender in Schritt 700 der Übertritt durch eine vordefinierte dritte Audioausgabe quittiert, wobei die dritte Audioausgabe ein drittes Klangzeichen umfasst, das einer auf der Bedieneinheit dargestellten dritten

Schaltfläche kontextspezifisch zugeordnet ist. Mit anderen Worten steht die dritte

Schaltfläche für eine dritte (wiederum andere) Funktion, welche durch das dritte

Klangzeichen für den Anwender akustisch versinnbildlicht wird.

Auch wenn die erfindungsgemäßen Aspekte und vorteilhaften Ausführungsformen anhand der in Verbindung mit den beigefügten Zeichnungsfiguren erläuterten Ausführungsbeispiele im Detail beschrieben worden sind, sind für den Fachmann Modifikationen und

Kombinationen von Merkmalen der dargestellten Ausführungsbeispiele möglich, ohne den Bereich der vorliegenden Erfindung zu verlassen, deren Schutzbereich durch die beigefügten Ansprüche definiert wird. Bezugszeichenliste

1 Bedieneinheit

2 Eingabemittei eines Anwenders 3, 4, 5 Audio-Ausgaben

6 Kamera

7 elektronisches Steuergerät

8 Fahrzeug

9 Lautsprecher

10 Schaltfläche

1 1 erster Bereich

12, 13, 14, 15, 16, 17 Bereichsgrenzen

20 Schaltfläche

21 zweiter Bereich

22, 23, 24, 25, 26, 27 Bereichsgrenzen

100, 200, 300, 400, 500, 600 Verfahrensschritte

P Geste

a Abstand