Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
CUSTOMIZED COMMUNICATION ASSISTANCE
Document Type and Number:
WIPO Patent Application WO/2018/041714
Kind Code:
A1
Abstract:
A device for controlling the interaction between a user and a domestic appliance comprises an input device for sampling user-controlled input; an output device for providing output directed at the user; an interface for exchanging signals with a domestic appliance; and a processor device. The processor device is configured to sample user-controlled input, to convert the input into a signal and to provide the domestic appliance with the signal; to sample a signal of the domestic appliance, to convert the signal into output and to provide the user with the output; and in addition to sample an emotion of the user, to determine an empathetic emotion on the basis of said emotion of the user, and to express the empathetic emotion to the user.

Inventors:
NERO MARCEL (DE)
ROST ARNE (DE)
RICO GARCIA CRISTINA (DE)
STÜHLER TIMO (DE)
Application Number:
PCT/EP2017/071342
Publication Date:
March 08, 2018
Filing Date:
August 24, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
BSH HAUSGERAETE GMBH (DE)
International Classes:
G06N3/00; B25J11/00; G10L17/26; G10L25/63
Foreign References:
US20160234595A12016-08-11
CN105334743A2016-02-17
US20140277735A12014-09-18
US6038493A2000-03-14
Download PDF:
Claims:
PATENTANSPRÜCHE

Vorrichtung (100) zur Steuerung einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (110), wobei die Vorrichtung (100) folgendes umfasst:

- eine Eingabevorrichtung (125) zur Abtastung einer benutzergesteuerten Eingabe;

- eine Ausgabevorrichtung (130) zur Bereitstellung einer an den Benutzer (105) gerichteten Ausgabe;

- eine Schnittstelle (120) zum Austauschen von Signalen mit einem Hausgerät (1 10); und

- eine Verarbeitungseinrichtung (1 15), die dazu eingerichtet ist,

eine benutzergesteuerte Eingabe abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät (1 10) bereitzustellen;

ein Signal des Hausgeräts (1 10) abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer (105) bereitzustellen;

eine Emotion des Benutzers (105) abzutasten;

auf der Basis der Emotion des Benutzers (105) eine empathische Emotion zu bestimmen; und

die empathische Emotion dem Benutzer (105) auszudrücken.

Vorrichtung (100) nach Anspruch 1 , wobei die benutzergesteuerte Eingabe eine Spracheingabe umfasst und die Verarbeitungseinrichtung (1 15) dazu eingerichtet ist, die Emotion des Benutzers (105) auf der Basis der Spracheingabe zu bestimmen.

Vorrichtung (100) nach Anspruch 1 oder 2, ferner umfassend eine Einrichtung zur Bestimmung einer Position des Benutzers (105), wobei die Verarbeitungseinrichtung (1 15) dazu eingerichtet ist, die Emotion des Benutzers (105) auf der Basis von dessen Position zu bestimmen. 4. Vorrichtung (100) nach einem der vorangehenden Ansprüche, ferner umfassend eine Kamera (145), wobei die Verarbeitungseinrichtung (1 15) dazu eingerichtet ist, die empathische Emotion auf der Basis eines Kamerabilds des Benutzers (105) zu bestim- men.

5. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die empathische Emotion auf der Basis einer Abfolge von Emotionen des Benutzers (105) bestimmt wird.

6. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Ausgabeeinrichtung (130) akustisch ausgeführt und die Verarbeitungseinrichtung (1 15) dazu eingerichtet ist, die empathische Emotion durch Variation einer natürlichsprachigen Ausgabe auszudrücken.

7. Vorrichtung (100) nach Anspruch 6, wobei die empathische Emotion durch Variieren wenigstens eines von einer Ausgabegeschwindigkeit, einer Betonung, einer Tonhöhe und einer Wortwahl ausgedrückt wird. 8. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Emotion des Benutzers (105) auf der Basis des Signals bestimmt wird.

9. Vorrichtung (100) nach einem der vorangehenden Ansprüche, wobei die Vorrichtung dazu eingerichtet ist, die empathische Emotion mittels einer symbolischen optischen Darstellung eines Gesichts (500) auszudrücken, wobei das Gesicht (50) insbesondere eine symbolische Strichdarstellung umfasst.

10. Vorrichtung (100) nach Anspruch 9, wobei das Gesicht (500) eine kreisbogenförmige Begrenzung (505) und zwei kreisbogenförmige Augen (510) umfasst.

1 1 . Vorrichtung (100) nach Anspruch 10, wobei die kreisbogenförmige Begrenzung (505) eine Aussparung aufweist, die einen Hals symbolisiert, oder die kreisbogenförmige Begrenzung (505) in zwei Teile untergliedert ist, die Ohren symbolisieren, wobei insbesondere eine Größe der Ohren von einer akustischen Ausgabe oder einer akusti- sehen Eingabe abhängt.

12. Vorrichtung (100) nach einem der Ansprüche 9 bis 1 1 , wobei das Gesicht (500) animiert ist.

13. Hausgerät (1 10) mit einer Vorrichtung (100) nach einem der vorhergehenden Ansprüche.

14. Verfahren (300) zum Vermitteln einer Interaktion zwischen einem Benutzer (105) und einem Hausgerät (110), wobei das Verfahren folgende Schritte umfasst:

- Abtasten (305) einer benutzergesteuerten Eingabe, Umwandeln (310) der Eingabe in ein Signal und Ausgeben (315) des Signals an das Hausgerät (1 10);

- oder

- Abtasten (320) eines Signals des Hausgeräts (1 10), Umwandeln (325) des Signals in eine Ausgabe und Bereitstellen (330) der Ausgabe an den Benutzer (105);

- und

- Abtasten (340) einer Emotion des Benutzers (105);

Bestimmen (345) einer empathischen Emotion auf der Basis der Emotion des Benutzers (105); und

- Ausdrücken (350) der empathischen Emotion an den Benutzer (105).

15. Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des Verfahrens (300) nach Anspruch 14, wenn das Computerprogrammprodukt auf einer Verarbeitungseinrichtung (1 15) abläuft oder auf einem computerlesbaren Datenträger gespeichert ist.

Description:
Individuelle Kommunikationsunterstützung

Die Erfindung betrifft die Kommunikation zwischen einem Benutzer und einem Hausgerät. Insbesondere betrifft die Erfindung eine auf den Benutzer individualisierte Unterstützung der Kommunikation.

Stand der Technik

In einem Haushalt sind unterschiedliche Hausgeräte zu finden, die beispielsweise eine Waschmaschine, eine Spülmaschine und einen Kühlschrank umfassen können. Die Hausgeräte können jeweils mit Schnittstellen ausgerüstet sein, um jeweils einen Betriebszustand als Signal in elektronischer Form nach außen bereitzustellen oder um ein Signal zur Anforderung eines Dienstes oder einer Funktion entgegenzunehmen. Die Funktionen mehrerer Hausgeräte können zentral verwaltet werden, indem eine entsprechende Kom- ponente die Signale sammelt bzw. verteilt und zur Interaktion mit dem Benutzer ausgebildet ist. In einer Ausführungsform ist ein mobiles Gerät vorgesehen, mit dem der Benutzer kommuniziert und das mit der zentralen Komponente vernetzt ist.

Insbesondere bei der Arbeit des Benutzers in einer Küche des Haushalts kann die zentra- lisierte Kommunikation mit unterschiedlichen Hausgeräten der Küche schwierig sein. Bei der Zubereitung von Speisen wirkt der Benutzer üblicherweise kreativ, wobei er unterschiedlichen Stimmungen oder Emotionen ausgesetzt sein kann. Außerdem kann der Benutzer beim Kochen mehrere nebenläufige Prozesse steuern, was ihn physisch oder psychisch unter Druck setzen kann. Zur Interaktion hat der Benutzer auch nicht zu jedem Zeitpunkt eine Hand frei oder die Hände des Benutzers können mit Lebensmitteln oder Zutaten in Kontakt sein, sodass eine manuelle Bedienung einer üblichen, haptischen Benutzerschnittstelle schwierig oder für die Benutzerschnittstelle schädlich sein kann.

US 6 038 493 betrifft einen Roboter mit einer Ausgabeeinrichtung zur Darstellung eines Gesichts in unterschiedlichen emotionalen Zuständen. Eine der vorliegenden Erfindung zugrunde liegende Aufgabe besteht darin, die Kommunikation zwischen einem Benutzer und einem Hausgerät, insbesondere innerhalb einer Küche, verbessert zu gestalten, sodass der Benutzer in seinen Möglichkeiten bei der Verrichtung einer Aufgabe im Haushalt möglichst unterstützt wird. Die Erfindung löst diese Aufgabe mittels der Gegenstände der unabhängigen Ansprüche. Unteransprüche geben bevorzugte Ausführungsformen wieder.

Eine erfindungsgemäße Vorrichtung zur Steuerung einer Interaktion zwischen einem Benutzer und einem Hausgerät, insbesondere in einer Küche, umfasst eine Eingabevorrichtung zur Abtastung einer benutzergesteuerten Eingabe; eine Ausgabevorrichtung zur Be- reitstellung einer an den Benutzer gerichteten Ausgabe; eine Schnittstelle zum Austauschen von Signalen mit einem Hausgerät; und eine Verarbeitungseinrichtung. Dabei ist die Verarbeitungseinrichtung dazu eingerichtet, eine benutzergesteuerte Eingabe abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät bereitzustellen; ein Signal des Hausgeräts abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer bereitzustellen; ferner eine Emotion des Benutzers abzutasten; auf der Basis der Emotion des Benutzers eine empathische Emotion zu bestimmen; und die empathische Emotion dem Benutzer auszudrücken.

Es wurde erkannt, dass die Kommunikation zwischen dem Benutzer und der Vorrichtung verbessert werden kann, wenn dem Benutzer ausgedrückt wird, dass seine Emotionen bemerkt bzw. verstanden wurden. Die Vorrichtung kann dazu dienen, eine Vielzahl Hausgeräte über die Schnittstelle zu steuern und eine einheitliche Benutzerschnittstelle für die Hausgeräte anzubieten. Der Benutzer kann auch in schwierigen Situationen, beispielsweise unter Stress, unter hoher Konzentration oder bei der Verrichtung mehrerer Arbeits- gänge gleichzeitig sich besser verständlich machen oder eine verbesserte Rückmeldung erhalten, sodass er sich besser verstanden fühlt.

Die durch die Vorrichtung ausgedrückte empathische Emotion wird allgemein durch eine deterministische Maschine bestimmt und ist üblicherweise lediglich eine Simulation, die dazu eingerichtet ist, vom Benutzer als Emotion oder als Metapher für eine Emotion er- fasst zu werden. Durch die Unterstützung von Emotionen im Dialog kann ein ansonsten ungenutzter bzw. unmodulierter Kommunikationskanal zum verbesserten Informationsaustausch zwischen der Vorrichtung und dem Benutzer verwendet werden. Bevorzugt umfasst die benutzergesteuerte Eingabe eine Spracheingabe, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Emotion des Benutzers auf der Basis der Spracheingabe zu bestimmen. Dazu kann beispielsweise eine Sprachgeschwindigkeit, eine Tonhöhe, eine Betonung, eine Wortwahl oder auch ein Nebengeräusch analysiert werden. Die Spracheingabe hat den zusätzlichen Vorteil, dass der Benutzer auch auf einige Entfernung mit der Vorrichtung interagieren kann, wobei er die Vorrichtung noch nicht einmal ansehen muss. In der gesprochenen Äußerung können genügend Informationen liegen, die eine Analyse seiner Emotion bzw. seines Gefühlszustands erlauben kann.

In einer weiteren Ausführungsform ist eine Einrichtung zur Bestimmung einer Position des Benutzers vorgesehen, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die Emotion des Benutzers auf der Basis von dessen Position zu bestimmen. Dabei kann die Position beispielsweise eine physische Nähe zu einem Hausgerät umfassen. Es kann auch eine Bewegung des Benutzers anhand eines Verlaufs von Positionen bestimmt werden, wobei die Emotion des Benutzers auf der Basis seiner Bewegung bestimmt wird. Bewegt sich der Benutzer beispielsweise häufig oder rasch, so kann von einer angespannten Emotion ausgegangen werden. In einer weiter bevorzugten Ausführungsform umfasst die Vorrichtung eine Kamera, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die empathische Emotion auf der Basis eines Kamerabilds des Benutzers zu bestimmen. Dazu können beispielsweise eine Körperhaltung oder ein Gesichtsausdruck des Benutzers bestimmt werden. Üblicherweise wird die empathische Emotion strikt auf der Basis der Emotion des Benutzers bestimmt, sodass eine Eins-zu-eins-Zuordnung zwischen Emotion und empathischer Emotion erfolgt. In einer anderen Ausführungsform kann die empathische Emotion jedoch auch auf der Basis einer Abfolge von Emotionen des Benutzers bestimmt werden. So kann beispielsweise zum Übergang der empathischen Emotion von einer sehr ange- spannten auf eine sehr entspannte Emotion das Durchlaufen von Zwischenzuständen erforderlich sein. Die empathische Emotion kann für den Benutzer realistischer sein, sodass der Informationsaustausch zwischen ihm und der Vorrichtung verbessert unterstützt sein kann. Außerdem kann ein impulsiver Benutzer, dessen Emotionen sich häufig än- dem, auf diese Weise nicht automatisch eine häufige Änderung der empathischen Emotion der Vorrichtung verursachen. Der Austausch von Informationen mit dem Benutzer und die Kontrolle eines oder mehrerer angeschlossener Hausgeräte können dadurch verbessert sein. Die empathische Emotion der Vorrichtung kann auf unterschiedliche Weisen ausgedrückt werden. In einer Ausführungsform ist die Ausgabeeinrichtung akustisch ausgeführt, wobei die Verarbeitungseinrichtung dazu eingerichtet ist, die empathische Emotion durch Variation einer natürlichsprachigen Ausgabe auszudrücken. Dabei können die gleichen Variationen durchgeführt werden, die oben mit Bezug auf die Analyse einer sprachlichen Äuße- rung des Benutzers angeführt wurden. Insbesondere kann die empathische Emotion durch Variieren von wenigstens eines von einer Ausgabegeschwindigkeit, einer Betonung, einer Tonhöhe und einer Wortwahl ausgedrückt werden. Ein natürliches Verhalten eines menschlichen Benutzers kann so auf einfache und effiziente Weise nachvollzogen werden, um die empathische Emotion unmittelbar und leicht verständlich auszudrücken.

In einer weiteren Ausführungsform kann die Emotion des Benutzers auf der Basis des Signals bestimmt werden. Weist das Signal beispielsweise auf einen kritischen Zustand des Hausgeräts hin, so kann eine Anspannung des Benutzers unterstellt werden. Auch wenn diese an den Äußerungen des Benutzers nicht erkennbar ist, kann dies beispiels- weise zu einer angespannten empathischen Emotion der Vorrichtung führen, die der Dringlichkeit der Situation Ausdruck verleiht. Die durch die Vorrichtung ausgedrückten Emotionen können dadurch für den Benutzer verbessert glaubhaft sein.

Die empathische Emotion kann auch beispielsweise mittels einer symbolischen optischen Darstellung eines Gesichts ausgedrückt werden. Dadurch kann eine universelle, leicht zu erkennende Übermittlung der Emotion realisiert werden.

Dabei kann das Gesicht eine symbolische Strichdarstellung umfassen. Eine Benutzerschnittstelle kann so einfach und intuitiv gehalten sein.

Das Gesicht kann ferner eine kreisbogenförmige Begrenzung und zwei kreisbogenförmige Augen umfassen. Durch diese Abstraktion kann das Gesicht einfach und überzeugend dargestellt werden. Die empathische Emotion der Vorrichtung kann so verbessert ohne Ablenkung an den Benutzer übermittelt werden.

Die kreisbogenförmige Begrenzung kann eine Aussparung aufweisen, die einen Hals symbolisiert, oder sie kann in zwei Teile untergliedert sein, die Ohren symbolisieren, wo- bei insbesondere eine Größe der Ohren von einer akustischen Ausgabe oder einer akustischen Eingabe abhängt.

In einer weiteren Ausführungsform kann das Gesicht animiert werden. Dazu können insbesondere Parameter, die die Kreisbögen definieren, zeitlich variiert werden.

Zusätzlich umfasst die Erfindung ein Hausgerät mit einer erfindungsgemäßen Vorrichtung.

Ein erfindungsgemäßes Verfahren zum Vermitteln einer Interaktion zwischen einem Benutzer und einem Hausgerät umfasst Schritte des Abtastens einer benutzergesteuerten Eingabe, des Umwandeins der Eingabe in ein Signal und des Ausgebens des Signals an das Hausgerät; oder des Abtastens eines Signals des Hausgeräts, des Umwandeins des Signals in eine Ausgabe und des Bereitstellens der Ausgabe an den Benutzer. Ferner umfasst das Verfahren Schritte des Abtastens einer Emotion des Benutzers; des Bestimmens einer empathischen Emotion auf der Basis der Emotion des Benutzers; und des Ausdrückens der empathischen Emotion an den Benutzer.

Die ausgedrückten empathischen Emotionen können insbesondere im Rahmen des Dialogs mit dem Benutzer vermittelt werden. In einer anderen Ausführungsform kann die empathische Emotion auch außerhalb des Dialogs mit dem Benutzer angezeigt bzw. ausge- drückt werden.

Das Verfahren kann insbesondere mittels der oben beschriebenen Vorrichtung durchgeführt werden. Dazu kann wenigstens ein Teil des Verfahrens als Computerprogrammprodukt mit Programmcodemitteln zur Durchführung des beschriebenen Verfahrens vorlie- gen, wobei das Computerprogrammprodukt auf einer Verarbeitungseinrichtung ablaufen oder auf einem computerlesbaren Datenträger gespeichert sein kann. Die Verarbeitungseinrichtung kann insbesondere einen programmierbaren Mikrocomputer oder Mikrocon- troller umfassen. Die Erfindung wurde mit Bezug auf eine Vorrichtung, ein Hausgerät sowie ein Verfahren erläutert. Sofern nichts Anderes angegeben ist, sind Merkmale einer Anspruchskategorie analog auf die anderen Anspruchskategorien anwendbar. Die Merkmale, Varianten und Ausführungsformen des Verfahrens gelten somit sinngemäß auch für die Vorrichtung und umgekehrt.

Die Erfindung wird nun unter Bezug auf die beiliegenden Figuren genauer beschrieben, in denen: Fig. 1 eine schematische Darstellung einer Vorrichtung mit einem Benutzer und einem Hausgerät;

Fig. 2 weitere Ausführungsformen der Vorrichtung von Fig. 1 ;

Fig. 3 ein Ablaufdiagramm eines Verfahrens zur Interaktion eines Benutzers mit einem Hausgerät;

Fig. 4 eine exemplarische Zuordnung von Emotionen eines Benutzers zu empa- thischen Emotionen der Vorrichtung

Fig. 5 eine Darstellung eines Gesichts; und

Fign. 6 bis 1 1 beispielhafte Ausdrucksweisen für ausgewählte Emotionen darstellt.

Figur 1 zeigt eine Vorrichtung 100 zur Unterstützung einer Kommunikation zwischen einem Benutzer 105 und einem Hausgerät 1 10. Insbesondere können auch mehrere Hausgeräte 1 10 nacheinander, gleichzeitig oder miteinander vernetzt gesteuert werden. Exemplarisch sind als Hausgeräte 1 10 eine Schneidemaschine, eine Kaffeemaschine, ein Geschirrspüler, ein Kühl- und Gefrierschrank, eine Waschmaschine, ein Ofen, ein Herd, eine Dunstabzugshaube und ein Mikrowellenofen dargestellt. Es können jedoch auch andere Hausgeräte 1 10 gesteuert werden. Die Hausgeräte 1 10 befinden sich bevorzugt alle in demselben Haushalt. In einer besonders bevorzugten Ausführungsform befinden sich alle gesteuerten Hausgeräte 1 10 im gleichen Raum des Haushalts, wobei der Raum insbesondere eine Küche sein kann. Als Küche kann ein Raum angesehen werden, in dem wenigstens ein Herd oder Ofen steht, wobei dieser nicht notwendigerweise mittels der Vorrichtung 100 steuerbar sein muss. Die Vorrichtung 100 ist dazu eingerichtet, eine Eingabe des Benutzers 105 abzutasten, die Eingabe in ein Signal umzuwandeln und das Signal dem Hausgerät 1 10 bereitzustellen. Jedes steuerbare Hausgerät 1 10 verfügt daher bevorzugt über eine Schnittstelle, die bevorzugt drahtlos ausgeführt ist. Außerdem ist die Vorrichtung 100 dazu eingerichtet, ein Signal des Hausgeräts 1 10 abzutasten, das Signal in eine Ausgabe umzuwandeln und die Ausgabe dem Benutzer 105 bereitzustellen.

Die Vorrichtung 100 umfasst eine Verarbeitungseinrichtung 1 15, eine bevorzugt drahtlose Schnittstelle 120 sowie bevorzugt einen oder mehrere Sensoren oder Aktoren. Beispiels- weise können eine akustische Eingabevorrichtung 125, eine akustische Ausgabevorrichtung 130, eine Anzeigevorrichtung 135, ein Projektor 140 oder eine Kamera 145 vorgesehen sein. Die Anzeigevorrichtung 135 kann insbesondere im Bereich des Kopfabschnitts 155 angebracht sein und beispielsweise eine rechteckige, elliptische oder kreisrunde Anzeigefläche aufweisen. Die akustische Eingabevorrichtung 125 kann mehrfach ausgeführt sein, um eine Ortung einer Geräuschquelle nach dem Stereo-Prinzip zu erlauben. Beispielsweise können mehrere akustische Eingabevorrichtungen 125 auf einem Umkreis angeordnet sein. Bevorzugt wird eine Ortungsgenauigkeit von ca. ±15° bei einer Entfernung der Geräuschquelle von ca. 4 m erreicht. In Verbindung mit der Kamera 145 kann die Verarbeitungsvorrichtung 1 15 dazu eingerichtet sein, einen Gegenstand, eine Person, einen Gesichtsausdruck oder eine Körperhaltung einer Person zu erkennen. Es können auch mehrere akustische Ausgabevorrichtungen 130 vorgesehen sein, um eine gerichtete Ausgabe von akustischen Informationen zu erlauben.

Weitere mögliche Sensoren und Aktoren werden unten mit Bezug auf Figur 2 beschrie- ben. In einer weiteren Ausführungsform kann auch ein mechanischer Aktor 150 vorgesehen sein, um einen Teil der Vorrichtung 100 zu bewegen. In der dargestellten Ausführungsform kann beispielsweise ein rundlich dargestellter Kopfabschnitt 155 gegenüber einem Basisabschnitt 160 verschwenkt, gedreht oder verschoben werden. Aktoren oder Sensoren, die speziell auf den Benutzer 105 ausgerichtet werden sollen, sind hierbei be- vorzugt am Kopfabschnitt 155 angebracht. Ferner kann die Position des Kopfabschnitts 155 zum Ausdrücken von Emotionen verwendet werden. Die Verarbeitungseinrichtung 1 15 ist bevorzugt dazu eingerichtet, eine natürlichsprachige Eingabe des Benutzers 105 mittels der Eingabevorrichtung 125 abzutasten und zu analysieren. Die Eingabevorrich- tung 125 kann mehrfach vorgesehen sein, sodass nach dem Stereoprinzip eine zumindest grobe Ortung des Benutzers 105 relativ zur Vorrichtung 100 möglich sein kann. Die Ausgabevorrichtung 130 kann ferner dazu eingerichtet sein, ein Signal in eine gesprochene Nachricht umzuwandeln („Text to Speech", Text in Sprache) und mittels der akustischen Ausgabevorrichtung 130 auszugeben. Der Projektor 140 kann auf eine Arbeitsober- fläche oder eine Wand gerichtet werden. Mittels des Projektors 140 und/oder der Anzeigevorrichtung 135 können graphische oder textuelle Ausgaben erfolgen. Insbesondere können auf diesem Weg ein Auge oder ein Augenpaar dargestellt werden, bevorzugt in Abhängigkeit einer zuvor bestimmten empathischen Emotion. In einer weiteren Ausführungsform ist auch eine haptische Eingabevorrichtung 165 vorgesehen, die insbesondere mit der Anzeigevorrichtung 135 integriert als Touchscreen ausgeführt sein kann. In einer Ausführungsform ist die haptische Eingabevorrichtung 165 dazu eingerichtet, eine manuelle Navigation durch eine klassische Benutzerschnittstelle zu erlauben, um die Vorrichtung 100 zu steuern. In einer weiteren Ausführungsform ist die haptische Eingabevorrichtung 165 dazu eingerichtet, eine taktile Äußerung wie eine Berührung, ein Streichen oder Streicheln, ein Klopfen oder ein Schlagen zu erfassen.

Die Vorrichtung 100 ist bevorzugt dazu eingerichtet, sich zumindest ansatzweise wie ein zusätzliches Familienmitglied einer Familie darzustellen, die in dem Haushalt lebt. Die Interaktion mit der Vorrichtung 100 ist bevorzugt leicht zu erlernen oder durchzuführen, macht Freude und kann in die täglichen Abläufe der Benutzer 105 im Haushalt auf natürliche Weise eingebunden werden. Die Erfüllung dieser Ziele werden insbesondere durch die Spracheingabe und Sprachausgabe oder die Darstellbarkeit graphischer Informationen mittels der Anzeigeeinrichtung 135 oder des Projektors 140 unterstützt. Außerdem wird angestrebt, dass eine soziale Interaktion auf der Basis einer Emotion des Benutzers 105 und einer daraus abgeleiteten empathischen Emotion der Vorrichtung 100 zur Unterstützung der Interaktion eingesetzt wird. Das Ausdrücken der empathischen Emotion kann unterschiedliche Aspekte umfassen, beispielsweise optisch, akustisch oder durch eine Bewegung. Eines oder mehrere Hausgeräte 1 10 können durch die Vorrichtung 100 teilweise automatisch gesteuert werden. Beispielsweise kann eine situationsabhängige Steuerung erfolgen, sodass ein Betriebszustand eines Hausgeräts 1 10 Einfluss auf den Betriebszustand eines anderen Hausgeräts 1 10 haben kann. Die Vorrichtung 100 kann als Konzentrator („Hub") für Geräte dienen, die nach dem Gedanken des Internet der Din- ge („Internet of Things", loT) netzwerkfähig sind. Dazu können auch andere Geräte als die Hausgeräte 1 10 mit der Vorrichtung 100 verbunden werden.

Die Vorrichtung 100 kann auch spezifische Dienste anbieten, die insbesondere in einer Küche vom Benutzer 105 als hilfreich empfunden werden können. Beispielsweise kann eine Schritt-für-Schritt-Unterstützung beim Kochen nach Rezept erfolgen. Die Vorrichtung 100 kann zum Auffinden eines gewünschten Rezepts verwendet werden und eine optische Anleitung während des Kochprozesses anbieten. Mehrere Benutzer 105 an unterschiedlichen Orten können miteinander kochen, indem sie über Videofunktion der Vorrichtung 100 miteinander verbunden werden. In ähnlicher Weise kann der Benutzer 105 an einem Kochkurs teilnehmen, um seine Kochkünste zu verbessern. Die eigene Küche muss er dazu nicht verlassen. Die Vorrichtung 100 kann auch allgemeine Wissens- oder Informationsfragen beantworten, beispielsweise nach einem aktuellen Wetter oder einer Nachrichtenlage. Die Vorrichtung 100 kann zum Abspielen eines Films oder von Musik genutzt werden. Sollte eines der Hausgerätel 10 ein Problem zeigen, so kann mittels der Vorrichtung 100 ein Kundendienst kontaktiert werden.

Figur 2 zeigt weitere Ausführungsformen der Vorrichtung 100 von Figur 1. In Figur 2A weist die Vorrichtung 100 zwischen dem Kopfabschnitt 155 und dem Basisabschnitt 160 einen Mittelabschnitt 205 auf, der unabhängig von den anderen Abschnitten bewegt wer- den kann, beispielsweise indem er um eine Hochachse der Vorrichtung 100 gedreht wird. Am Mittelabschnitt 205 kann insbesondere der Projektor 140 angebracht sein. Außerdem kann ein Bedienknopf 210 vorgesehen sein, der optional in einer oder unterschiedlichen Farben beleuchtet werden kann. Mittels des Bedienknopfs 210 kann ein Funktionszustand (beispielsweise Aus-Energiesparen-Ein) gesteuert werden.

Figur 2B zeigt eine Ausführungsform, bei der ein LED-Band 215 vorgesehen ist. Das LED-Band 215 ist hier auf einem Umfang des Basisabschnitts 160 in Bodennähe angeordnet. Das LED-Band 215 kann beispielsweise zur Darstellung eines analogen Werts oder als Beleuchtung verwendet werden. Dabei können LEDs verwendet werden, die die gleiche oder unterschiedliche Farben aufweisen.

Figur 2C zeigt eine Ausführungsform, bei der eine Punktmatrix-Anzeige 220 im Bereich des Basisabschnitts 160 integriert ist. Die Punktmatrix-Anzeige 220 kann beispielsweise zur permanenten Darstellung vorbestimmter Informationen verwendet werden, auch wenn die Vorrichtung 100 ansonsten ausgeschaltet ist. Beispielsweise können eine Uhrzeit, Wetterdaten oder ein Umgebungsparameter der Vorrichtung 100 dargestellt werden.

In weiteren Ausführungsformen können auch noch weitere Sensoren von der Vorrichtung 100 umfasst sein. Beispielsweise können ein Feuchtigkeitssensor, ein Sensor zur Bestimmung einer Luftqualität oder ein Temperatursensor umfasst sein.

Die Vorrichtung 100 ist bevorzugt zum Einsatz in einer Küche vorgesehen. Ein Gehäuse der Vorrichtung 100 ist daher bevorzugt abwaschbar, wasserdicht, lebensmittelecht und so ausgeführt, dass es seine Farbe auch beim Kontakt mit stark färbenden oder aggressiven Substanzen in der Küche behält.

Figur 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zur Interaktion eines Benutzers 105 mit einem Hausgerät 1 10. Das Verfahren 300 wird bevorzugt zumindest teilweise durch die Vorrichtung 100 der vorangehenden Figuren ausgeführt.

In einem Schritt 305 wird eine Eingabe des Benutzers 105 abgetastet. Diese Eingabe kann insbesondere akustisch und weiter bevorzugt natürlichsprachig sein. In einem nachfolgenden Schritt 310 wird die abgetastete Eingabe in ein Signal umgewandelt. Das Sig- nal wird in einem Schritt 315 einem Hausgerät 1 10 bereitgestellt. In umgekehrter Weise kann auch in einem Schritt 320 ein Signal des Hausgeräts 1 10 abgetastet werden, in einem Schritt 325 das Signal in eine Ausgabe umgewandelt und in einem Schritt 330 die Ausgabe dem Benutzer 105 bereitgestellt werden. Dies umfasst bevorzugt das Ausgeben einer natürlichsprachigen Nachricht an den Benutzer 105.

Ein erstes Teilverfahren der Schritte 305 bis 315 und ein zweites Teilverfahren der Schritte 320 bis 330 stehen bevorzugt in kausalem Zusammenhang. So kann insbesondere das im Schritt 320 durch das Hausgerät 1 10 bereitgestellte Signal als Reaktion auf das im Schritt 315 bereitgestellte Signal erfolgen. Dementsprechend kann die Ausgabe im Schritt 330 eine Antwort auf die Eingabe im Schritt 305 sein. In anderen Ausführungsformen können die beiden Teilverfahren aber auch unabhängig voneinander ausgeführt werden. Es wird vorgeschlagen, dass die Vorrichtung 100 eine Emotion des Benutzers 105 erkennt und in passender Weise darauf reagiert. Dies erfolgt in einem dritten Teilverfahren der Schritte 335 bis 350. Die drei Teilverfahren können potentiell auch nebenläufig ausgeführt werden. In einem Schritt 335 wird der Benutzer 105 abgetastet. Dies kann beispielsweise mittels der akustischen Eingabevorrichtung 125, der Kamera 145 oder der haptischen Eingabevorrichtung 165 erfolgen. Ergebnisse oder Zwischenergebnisse des Schritts 305, in welchem eine Eingabe des Benutzers 105 abgetastet wird, können zusätzlich verwendet werden, um in einem nachfolgenden Schritt 340 eine Emotion des Benutzers 105 auf der Basis der Abtastungen zu bestimmen. Auf der Basis der bestimmten Emotion wird in einem Schritt 345 bevorzugt eine empathische Emotion bestimmt. Die empathische Emotion wird dann in einem Schritt 350 ausgedrückt. Dabei kann das Ausdrücken unabhängig von den ersten beiden Teilverfahren sein. Es kann jedoch auch gezielt Einfluss genommen werden auf das zweite Teilverfahren, spezifisch im Schritt 325, in dem die an den Benutzer 105 gerichtete Ausgabe in Abhängigkeit der empathischen Emotion der Vorrichtung 100 umgewandelt wird.

Figur 4 zeigt eine exemplarische Zuordnung 400 von Emotionen des Benutzers 105 zu empathischen Emotionen der Vorrichtung 100. Es wird beispielhaft von einer Eins-zu- eins-Zuordnung ausgegangen, sodass jeder Emotion des Benutzers 105 genau eine empathische Emotion der Vorrichtung 100 zugeordnet ist. Die Zuordnung 400 ist bevorzugt zumindest surjektiv, es kann also erlaubt sein, dass unterschiedlichen Emotionen des Benutzers 105 die gleiche empathische Emotion der Vorrichtung 100 zugeordnet ist. In rein exemplarischer Weise ist einer alarmierten Emotion 405 des Benutzers 105 eine professionelle Emotion 410 der Vorrichtung 100 zugeordnet. Die Alarmiertheit des Benutzers 105 kann beispielsweise anhand einer knappen Wortwahl, einer hohen Sprechgeschwindigkeit, starken Umgebungsgeräuschen oder einer Eingabe des Benutzers 105 erkannt werden. Die professionelle Emotion 410 der Vorrichtung 100 kann eine knappe und klare Ausdrucksweise bei gleichzeitiger Unterdrückung von spielerischen oder nicht essentiellen Emotion umfassen. In einem zweiten illustrativen Beispiel ist der Benutzer 105 ratlos 415 und die Vorrichtung 100 gibt sich inspirativ 420. Die Ratlosigkeit 415 kann sich durch getragene Sprechweise, langsame oder seltene Bewegungen oder auch eine geringe Aufmerksamkeit des Benutzers 105 erkennen lassen. Auch wenn eine erwartete Eingabe des Benutzers 105 länger als eine vorbestimmte Zeitspanne nicht erfolgt, kann von Entscheidungs- oder Verständ- nisschwierigkeiten ausgegangen werden, die als Ratlosigkeit 415 subsumiert werden können.

Die inspirative Emotion 420 kann dazu führen, vermehrt Kontakt zum Benutzer 105 herzustellen, diesen positiver zu gestalten oder mehrere Kommunikationskanäle (akustisch, optisch, haptisch) gleichzeitig zu benutzen. Die Vorrichtung 100 kann einen Vorschlag zur Erleichterung einer Entscheidung machen. Will der Benutzer 105 beispielsweise ein Gericht kochen, wird die Vorrichtung eher nicht eine Liste von Rezepten zeigen, sondern ein bestimmtes Rezept vorschlagen. Der Vorschlag kann auf früheren Erfahrungen mit dem Benutzer 105 aufbauen. In einem anderen Beispiel kann die Vorrichtung 100 den Benut- zer 105 um eine Bestätigung bitten, ob ein Hausgerät 110 auf eine bestimmte Weise gesteuert werden soll. Um die Entscheidung zu erleichtern, kann der Kopfabschnitt 155 horizontal bewegt werden, um ein Kopfschütteln zu simulieren, wenn die vorgeschlagene Antwort nein ist, oder der Kopfabschnitt 155 kann vertikal bewegt werden, um ein Nicken zu simulieren, wenn die vorgeschlagene Antwort ja ist.

In einem weiteren Beispiel ist die Emotion 425 des Benutzers 105 konzentriert und die empathische Emotion 430 der Vorrichtung 100 zurückhaltend. Die Konzentriertheit des Benutzers 105 kann sich durch rasche, knappe Bewegungen, seltene, knappe Äußerungen und mäßige Hintergrundgeräusche bestimmen lassen. Die Vorrichtung 100 kann Ausgaben auf ein Minimum reduzieren, jeweils nur auf eine Weise ausgeben (akustisch, optisch, haptisch) oder eine Hintergrundbeschallung automatisch reduzieren.

In noch einem weiteren Beispiel hat der Benutzer 105 eine introvertierte Emotion 435 und die empathische Emotion 440 der Vorrichtung 100 ist ruhig. In einem letzten illustrativen Beispiel ist die Emotion 445 des Benutzers 105 inspiriert und die empathische Emotion 450 der Vorrichtung 100 ist klar. Darüber hinaus können bestimmte Situationen oder Zustände des Benutzers 105, die allgemein auch als Emotion eingestuft werden können, zu einem vorbestimmten Verhalten der Vorrichtung 100 führen. Die Zuordnung 400 somit durch weitere Beispiele erweitert werden. Wird der Benutzer 105 durch die Vorrichtung nicht erkannt, so kann der Benutzer 105 unerfahren in der Interaktion mit der Vorrichtung 100 sein. Der Benutzer kann als neu 455 eingestuft werden und die Vorrichtung 100 kann in der Rolle eines Lehrers 460 seine Funktionen erläutern. Insbesondere kann die Vorrichtung 100 kontextsensitiv darüber informieren, welche Funktionen verfügbar sind, auf weiche Eingaben die Vorrichtung 100 sensibel ist und welche Ausgaben möglich sind. Eine Ausgabe kann mit unterschiedlichen empathischen Emotionen untermalt werden, um dem Benutzer 105 einen verbesserten Eindruck einer emotional unterstützten Interaktion zu geben.

Ist der Benutzer 105 in Eile 465, so kann die Vorrichtung 100 durch knappes oder kurz angebundenes Verhalten 470 darauf reagieren. Eine akustische Ausgabe kann auf kurze Sätze beschränkt sein, optionale Informationen können nicht ausgegeben werden, bestimmte Bestätigungen können entfallen. Wird auf eine Benutzereingabe gewartet, so kann die maximale Wartezeit, nach der eine erneute Eingabeaufforderung ausgegeben wird, angepasst werden, beispielsweise indem die Wartezeit verkürzt wird.

Ist der Benutzer 105 frustriert 475, kann die empathische Emotion der Vorrichtung 100 kontaktsuchend 480 sein. Akustische Ausgeben können kurz oder knapp sein, es können Hinweise zu Interaktionsmöglichkeiten mit der Vorrichtung 100 gegeben werden. Wird die Emotion des Benutzers als traurig 485 bestimmt, so kann die empathische Emotion aufmunternd 490 sein. Beispielsweise kann die Vorrichtung 100 Witze darbieten oder mögliche neue Applikationen zur Verwendung anbieten. Dabei können insbesondere Applikationen ausgewählt werden, die soziale Interaktionen unterstützen. Die Vorrichtung 100 kann anzeigen, dass sie mit positiven empathischen Emotionen reagiert, wenn sich der Benutzer 105 mit der Vorrichtung 100 beschäftigt. Hat der Benutzer 105 gute Laune 495, so kann die empathische Emotion der Vorrichtung 100 lustig 499 sein. Beispielsweise kann die Vorrichtung 100 Witze darbieten und seinen Kopfabschnitt 155 häufig bewegen um zu zeigen, dass er glücklich ist. Die Vorrichtung 100 kann neue Applikationen 100 zur Verwendung vorschlagen, die der Benutzer 105 noch nicht oder nicht häufig ausprobiert hat.

Figur 5a zeigt ein Gesicht 500, das dem Benutzer 105 mittels der Vorrichtung 100 optisch dargeboten werden kann, und zwar insbesondere mittels der Anzeigevorrichtung 135 oder des Projektors 140. Das Gesicht 500 ist bevorzugt symbolisch bzw. graphisch reduziert dargestellt. In der dargestellten Ausführungsform beschränkt sich das Gesicht 500 auf eine Begrenzung 505 und zwei Augen 510, die jeweils als Striche dargestellt werden können. Die Begrenzung 505 und die Augen 510 können insbesondere jeweils als Kreisbogen dargestellt sein, wobei jeweils ein Mittelpunktswinkel, eine Öffnungsrichtung eines zu einem Vollkreis fehlenden Abschnitts, eine Linienstärke, eine Linienfarbe oder eine Linienhelligkeit variiert werden können. In einer anderen Ausführungsform liegen den Bögen keine Kreise, sondern Ellipsen zu Grunde.

Die Begrenzung 505 kann dazu eingerichtet sein, den Eindruck eines Kopfes hervorzurufen, der das Gesicht 500 umfasst, wobei der zu einem Vollkreis fehlende Abschnitt der Begrenzung 505 einen Hals symbolisieren kann. Der Hals kann als Bezugsrichtung„unten" verwendet werden. Die Augen 510 sind bevorzugt in einer oberen Hälfte der Begrenzung 505 dargestellt. Eine Ausrichtung einer Achse, die Mittelpunkte der Augen 510 miteinander verbindet, kann bezüglich der Bezugsrichtung einen vorbestimmten Winkel aufweisen, der ebenfalls variierbar sein kann. Auch Positionen der Augen 510 innerhalb der Begrenzung 505 können variiert werden, wobei ein Abstand zwischen ihren Mittelpunkten bevor- zugt konstant bleibt.

In einer Ausführungsform werden die Augen 510 auf der Anzeigevorrichtung 135 dargestellt und die Begrenzung 505 mittels eines Leuchtbands, das kreis- oder ellipsenförmig um die Anzeigevorrichtung 135 gelegt ist. Das Leuchtband kann beispielsweise eine An- zahl LED umfassen, die angesteuert werden können, eines oder mehrere zusammenhängende Bänder oder Linien darzustellen. Es ist insbesondere bevorzugt, dass der Kopfab- schnitt 155 der Vorrichtung eine kreisrunde oder ellipsenförmige Außenkontur umfasst, wobei das Leuchtband an der Kontur entlang geführt sein kann. In einer anderen Ausführungsform werden die Begrenzung 505 und die Augen 510 mittels der gleichen Ausgabevorrichtung 135, 140 dargestellt. Es kann ein Farbschema für die Begrenzung 505 und die Augen 510 vorgegeben sein; beispielsweise können die Begrenzung 505 in rot und die Augen 510 in weiß dargestellt werden. Ein anderes beispielhaftes Farbschema sieht eine blaue Begrenzung 505 und blaue Augen 510 vor. Die Darstellung kann hell auf dunkel oder dunkel auf hell erfolgen.

Das Gesicht 500 kann animiert werden, etwa indem einer oder mehrere der oben genann- ten Parameter über die Zeit verändert werden. Es ist bevorzugt, kurze Bewegungssequenzen als Animationen zu definieren. Ein komplexerer Ausdruck des Gesichts 500 kann aus mehreren Darstellungen und/oder Animationen zusammengesetzt werden.

Das Gesicht 500 kann dazu verwendet werden, eine Emotion, insbesondere eine empathi- sche Emotion der Vorrichtung 100, einem Benutzer 105 graphisch anzuzeigen. Auf diese Weise kann ein vorbestimmter Gemütszustand transportiert werden, der ein Teil eines Dialogs zwischen der Vorrichtung 100 und dem Benutzer 105 sein kann oder einen insbesondere akustischen Informationsaustausch unterstützen kann. Die graphische Unterstützung kann beispielsweise ein„Zuhören" oder„Sprechen" der Vorrichtung 100 umfassen. Mittels der Begrenzung 505 und der Augen 510 können zahlreiche Gesichtsausdrücke mit unterschiedlichen Stimmungen oder Emotionen dargestellt werden. Außerdem lassen sich beispielsweise eine Kopfbewegung, eine Spracheingabe, eine Sprachausgabe oder Wartevorgänge visualisieren.

Mittels des Gesichts 500 kann eine Benutzerschnittstelle zwischen der Vorrichtung 100 und einem Benutzer 105 einfach und unaufwendig sein. Es kann eine menschliche Anmutung der Vorrichtung 100 generiert werden, die dazu beitragen kann, dass der Benutzer 105 den Eindruck einer persönlichen Beziehung zur Vorrichtung 100 erhält. Die Bedienung der Vorrichtung 100 kann dadurch direkter, weniger fehlerträchtig oder angenehmer gestaltet sein. Im unteren Bereich von Figur 5 sind beispielhafte Verwendungen des Gesichts 500 dargestellt. Figur 5b zeigt zwei Darstellungen, um jeweils eine Neigung des Gesichts 500 bzw. eines umgebenden Kopfes auszudrücken. Dazu wird die Richtung des

Mittelpunktswinkels der Begrenzung 105 passend gewählt. Eine Achse, auf der Mittelpunkte der Augen 510 liegen, kann entsprechend verschwenkt werden, insobesondere derart, dass die Linie parallel zu Endpunkten der Kreislinie liegt, die die Begrenzung 105 bildet. Gleichzeitig können die Augen 510 gedreht werden, indem die Öffnungsrichtungen ihrer Mittelpunktswinkel angepasst werden. Die Ausrichtung der Mittelpunktswinkel kann bezüglich des angedeuteten Halses konstant sein. Figur 5c zeigt eine Änderung einer Blickrichtung des Gesichts 500. Dazu kann der

Mittelpunktswinkel in seiner Ausrichtung oder in seiner Größe verändert werden. Die Augen 510 können ebenfalls in der Ausrichtung oder Größe ihrer Mittelpunktswinkel verändert werden. Figur 5d zeigt eine Begleitung einer akustischen Ausgabe der Vorrichtung 100, insbesondere mittels der Ausgabeeinrichtung 130. Die dargestellte Ausdrucksweise kann insbesondere eine Sprachausgabe untermalen, die die Vorrichtung 100 beispielsweise an den Benutzer 105 richtet. Dazu wird in der dargestellten Ausführungsform die Begrenzung 105 in zwei Segmente geteilt, die rechts und links seitlich der Augen 520 dargestellt sind und dazu eingerichtet sein können, den Eindruck von Ohren hervorzurufen. Die Segmente können nach Art einer Aussteuerungs- oder Lautstärkenanzeige in Abhängigkeit einer ausgegebenen Lautstärke in vertikaler Richtung unterschiedlich groß dargestellt werden. Eine entsprechende Darstellung kann auch eine akustische Eingabe, insbesondere mittels der Eingabeeinrichtung 125, begleiten. Dabei kann die vertikale Ausdehnung der Segmente entsprechend der Lautstärke einer externen Schallquelle variiert werden.

Im Folgenden werden beispielhafte Darstellungen und Animationen des Gesichts 500 näher erläutert. Falls nicht anders angegeben, weiden einzelne Darstellungen in Leserichtung von links nach rechts und von oben nach unten dargestellt. Dabei können Übergän- ge fließend sein. Eine umgekehrte Abfolge kann für einen umgekehrten Zweck verwendet werden. In allen Varianten kann sich die Begrenzung 505 zur Darstellung einer Kopfbe- wegung nach oben oder unten drehen, um die jeweilige Situation oder empathische Emotion zu unterstreichen.

Figur 6 zeigt das Gesicht 500 beim exemplarischen Ausdrücken von Freude. Die Augen 510 können als geschlossene Halbkreise dargestellt werden. Die Begrenzung 505 ist voll- ständig dargestellt.

Figur 7 zeigt das Gesicht 500 beim exemplarischen Augenrollen. Damit kann beispielsweise Unglaube oder Bedauern ausgedrückt werden. Die Augen 510 drehen sich bevorzugt um ihre Mittelpunkte.

Figuren 8 und 9 zeigen das Gesicht 500 in zwei exemplarischen Varianten beim Kichern, womit beispielsweise Humor oder Freundlichkeit ausgedrückt werden kann. In Figur 8 werden die Augen 510 zu Halbkreisen geschlossen und optional von oben nach unten bewegt. In Figur 9 wird zusätzlich der Kopf 500 geneigt oder gedreht.

Figur 10 zeigt das Gesicht 500 mit vergrößerten Augen, womit beispielsweise Erstaunen oder Erschrecken als Emotion dargestellt werden kann. Durchmesser der Augen 510 können vergrößert werden. Außerdem kann eine Linie, mit der die Augen 510 dargestellt sind, intensiviert werden. Das Intensivieren kann eine Änderung der Farbe, der Strichstär- ke oder der Helligkeit der Linie umfassen.

Figur 11 zeigt das Gesicht 500 beim exemplarischen Ausdrücken einer Anstrengung. Die Augen 510 werden zusammengekniffen dargestellt. Dabei kann von der Darstellung eines Kreisbogens abgewichen werden und die Augen 510 können beispielsweise als Winkel dargestellt werden. Bezugszeichen

100 Vorrichtung

105 Benutzer

1 10 Hausgerät

1 15 Verarbeitungseinrichtung

120 Schnittstelle

125 akustische Eingabevorrichtung

130 akustische Ausgabevorrichtung

135 Anzeigevorrichtung

140 Projektor

145 Kamera

150 Aktor

155 Kopfabschnitt

160 Basisabschnitt

165 haptische Eingabevorrichtung

205 Mittelabschnitt

210 Bedienknopf

215 LED-Band

220 Punktmatrix-Anzeige

300 Verfahren

305 Abtasten benutzergesteuerte Eingabe

310 Umwandeln in Signal

315 Bereitstellen Signal

320 Abtasten Signal

325 Umwandeln in Ausgabe

330 Bereitstellen Ausgabe

335 Abtasten Benutzer

340 Bestimmen Emotion

345 Bestimmen empathische Emotion

350 Ausdrücken Emotion

400 Zuordnung alarmiert professionell ratlos inspirativ konzentriert zurückhaltend introvertiert ruhig inspiriert klar neu

Lehrer in Eile knapp frustriert kontaktsuchend traurig aufmunternd gute Laune lustig Gesicht Begrenzung Auge