Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR DETERMINING USER FEEDBACK DURING THE USE OF A DEVICE BY A USER, AND CONTROL DEVICE FOR CARRYING OUT THE METHOD
Document Type and Number:
WIPO Patent Application WO/2019/025120
Kind Code:
A1
Abstract:
The invention relates to a method for determining user feedback (22) during the use of a device (10) by a user (32). According to the invention, at least one initiating event (23) is detected by a control device (12) during use and upon each initiating event (23) that is detected, a speech dialogue (31) with the user (32) is carried out, wherein spoken information (33) given by the user in the speech dialogue (31) is determined for the initiating event (23), and the information given by the user (33) and optionally situation data (34) characterising the initiating event (23) is sent to an evaluation device (21).

Inventors:
NÖTH ELMAR (DE)
HELD MAXIMILIAN (DE)
Application Number:
PCT/EP2018/068297
Publication Date:
February 07, 2019
Filing Date:
July 05, 2018
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
AUDI AG (DE)
International Classes:
B60W50/08; B60R16/037; B60W40/08; G06Q30/00; G06Q30/02
Foreign References:
DE102014111773A12015-06-25
DE102015113664A12016-03-03
DE102015105581A12016-05-04
DE102006006551A12007-08-16
DE102013014887A12015-03-12
DE102014017385A12016-05-25
DE102014111773A12015-06-25
DE102015105581A12016-05-04
DE102009025530A12010-12-23
Download PDF:
Claims:
PATENTANSPRÜCHE:

1 . Verfahren zum Ermitteln eines Benutzerfeedbacks (22) bei einer durch einen Benutzer (32) vorgenommenen Benutzung eines Geräts (10), dadurch gekennzeichnet, dass

durch eine Steuervorrichtung (12) während der Benutzung zumindest ein Auslöseereignis (23) detektiert wird und jeweils bei detektiertem Auslöseereignis (23) ein Sprachdialog (31 ) mit dem Benutzer (32) durchgeführt wird, wobei in dem Sprachdialog (31 ) gesprochene Benutzerangaben (33) zu dem Auslöseereignis (23) ermittelt werden, und die im Sprachdialog (31 ) ermittelten Benutzerangaben (33) an eine vorbestimmte Auswerteeinrichtung (21 ) ausgesendet werden.

2. Verfahren nach Anspruch 1 , wobei die Benutzerangaben (33) zusammen mit das Auslöseereignis (23) charakterisierenden Situationsdaten (34) an die Auswerteeinrichtung (21 ) ausgesendet werden.

3. Verfahren nach Anspruch 2, wobei die Situationsdaten (34) einen Ge- rätezustand und/oder einen Umgebungszustand und/oder einen Benutzungskontext und/oder Gesundheitsdaten und/oder eine Geoposi- tion des Geräts (10) beschreiben.

4. Verfahren nach einem der vorhergehenden Ansprüche, wobei

- das zumindest eine Auslöseereignis (23) eine vom Benutzer an dem Gerät vorgenommene Geräteeinstellung umfasst und in dem Sprachdialog (31 ) ein Grund für die Geräteeinstellung erfragt wird und/oder

- das zumindest eine Auslöseereignis (23) eine Anforderung des Benutzerfeedbacks (22) durch eine vorbestimmte Benutzerhandlung, insbesondere eine sprachgesteuerte und/oder manuelle Bedienhandlung, umfasst und/oder

- das zumindest eine Auslöseereignis (23) eine situationsabhängige Aktivierung umfasst, die einen vorbestimmten Gerätezustand des Geräts und/oder eine vorbestimmte Geoposition des Geräts und/oder einen vorbestimmten Umgebungszustand einer Benutzungsumgebung, in welcher das Gerät benutzt wird, vorsieht, und/oder

- das zumindest eine Auslöseereignis (23) eine kontextabhängige Aktivierung umfasst, die eine vorbestimmte Nutzungshistorie und/oder eine vorbestimmte Abfolge von Bedienschritten und/oder

- das zumindest eine Auslöseereignis (23) eine an die Steuervorrichtung (12) signalisierte, vorbestimmte Stimmung des Benutzers (32) umfasst und ein vorbestimmtes Rückfragekriterium überprüft wird und bei erfülltem Rückfragekriterium mittels des Sprachdialogs beim Benutzer erfragt wird, ob er das Benutzerfeedback (22) geben möchte, und bei einer Bestätigung des Benutzers (32) die Benutzerangaben zu seiner Stimmung ermittelt werden.

5. Verfahren nach einem der vorhergehenden Ansprüche, wobei im Betrieb des Geräts (10) Konfigurationsdaten empfangen werden und zumindest ein neues Auslöseereignis durch die Konfigurationsdaten festgelegt wird.

6. Verfahren nach einem der vorhergehenden Ansprüche, wobei der Sprachdialog (31 ) nur und/oder erst dann gestartet wird, wenn eine Nutzungssituation erkannt wird, die ein vorbestimmtes Belastungskriterium erfüllt, wobei das Belastungskriterium festlegt, in welchem Fall eine Ablenkung des Benutzers (32) durch den Sprachdialog (31 ) zulässig ist.

7. Verfahren nach einem der vorhergehenden Ansprüche, wobei zum Festlegen eines Verlaufs des Sprachdialogs (31 ) zu dem Auslöseereignis vorbestimmte, zu zumindest einem zu beantwortenden Fragepunkt vorgegeben werden und während des Sprachdialogs zumindest eine Aussage des Benutzers mittels einer vorbestimmten Zuord- nungsvorschrift daraufhin überprüft wird, ob sie eine Antwort auf den zumindest einen Fragepunkt darstellt, und diese Antwort als ein Teil der Benutzerangaben (33) verwendet wird und noch zumindest ein unbeantworteter Fragepunkt durch Anpassen des Sprachdialogs erfragt wird.

8. Verfahren nach einem der vorhergehenden Ansprüche, wobei Fragebogendaten empfangen werden, welche zumindest einen Fragepunkt angeben, zu welchem eine Benutzerangabe benötigt wird, und als Auslöseereignis (23) ein vorbestimmter Nutzungskontext und/oder ein vorbestimmter Belastungsgrad an kognitiver Belastung des Benutzers ermittelt wird und dann der Sprachdialog in Abhängigkeit von den Fragebogendaten gesteuert wird.

9. Verfahren nach einem der vorhergehenden Ansprüche, wobei zu dem Auslöseereignis (23) alle Aussagen des Benutzers als Benutzerangabe gesammelt werden und mittels des Sprachdialogs der Benutzer nach einem vom Benutzer gewünschten Zustand und/oder nach einem technischen Sachverhalt befragt wird.

10.Steuervorrichtung (12) zum Ermitteln eines Benutzerfeedbacks (22) bei einer Benutzung eines Geräts (10),

dadurch gekennzeichnet, dass

die Steuervorrichtung (12) eine Prozessoreinrichtung aufweist, die dazu eingerichtet ist, ein Verfahren nach einem der vorhergehenden Ansprüche durchzuführen.

1 1 . Kraftfahrzeug (19) mit einer Steuervorrichtung (12) nach Anspruch 10.

Description:
Verfahren zum Ermitteln eines Benutzerfeedbacks bei einer Benutzung eines Geräts durch einen Benutzer sowie Steuervorrichtung zum Durchführen des

Verfahrens

BESCHREIBUNG:

Die Erfindung betrifft ein Verfahren zum Ermitteln einer Benutzerrückmeldung oder eines Benutzerfeedbacks eines Benutzers mittels eines Geräts, das der Benutzer benutzt. Bei dem Gerät kann es sich beispielsweise um ein Kraftfahrzeug handeln. Durch das Benutzerfeedback soll ermittelt werden, warum der Benutzer gerade mit einer aktuellen Situation zufrieden oder unzufrieden ist oder warum er eine bestimmte Funktion des Geräts nutzt oder nicht nutzt. Zu der Erfindung gehört auch eine Steuervorrichtung, um das erfindungsgemäße Verfahren durchzuführen.

Um heutzutage ein Benutzerfeedback beispielsweise zu einem Kraftfahrzeug oder zu etwas Gesehenem oder einer Werbung zu erhalten, müssen vordefinierte Befragungen durchgeführt werden oder der Benutzer muss selbstständig sein Benutzerfeedback formulieren und bereitstellen.

Aus der DE 10 2014 1 1 1 773 A1 ist ein Verfahren bekannt, um eine Benutzerzufriedenheit zusätzlich noch mit indirekten Mitteln zu erfassen, indem der Benutzer während der Eingabe seines Benutzerfeedbacks gefilmt wird, um seine aktuelle Stimmung zu erkennen. Das Erkennen einer Befindlichkeit eines Benutzers ist auch in der DE 10 2015 105 581 A1 beschrieben.

Dennoch erfordert auch mit diesen Mitteln des Stands der Technik das Eingeben des Benutzerfeedbacks eine Aktion des Benutzers, zu der er sich zunächst überwinden muss, damit überhaupt Benutzerangaben macht, die als Benutzerfeedback verwertet werden können. Oftmals weiß der Benutzer auch nicht, wie er die Benutzerangaben ausdrücken soll, damit sie als Benutzerfeedback verwertet werden können.

In der DE 10 2009 025 530 A1 ist ein Sprachdialogsystem beschrieben, das in einem Kraftfahrzeug das Eingeben eines Navigationsziels per Sprache ermöglicht. Eine Steuervorrichtung stellt zu dem möglichen Navigationsziel Fragen, die der Benutzer gezielt beantworten kann.

Der Erfindung liegt die Aufgabe zugrunde, ein Benutzerfeedback eines Benutzers einzuholen.

Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.

Durch die Erfindung ist ein Verfahren zum Ermitteln einer Benutzermeinung oder eines Benutzerfeedbacks bereitgestellt. Das Verfahren kann durchgeführt werden, während der Benutzer ein Gerät benutzt. Um den Benutzer zur Abgabe seines Benutzerfeedbacks anzuregen, ist erfindungsgemäß vorgesehen, dass durch eine Steuervorrichtung während der vom Benutzer vorgenommenen Benutzung des Geräts zumindest eine Auslösebedingung oder ein Auslöseereignis detektiert wird. Bei detektiertem Auslöseereignis wird ein Sprachdialog mit dem Benutzer gestartet oder durchgeführt. Der Sprachdialog ist ein automatisierter Sprachdialog, d.h. er wird zwischen der Steuervorrichtung einerseits und dem Benutzer andererseits durchgeführt. Die Steuervorrichtung kann hierbei Sprachansagen ausgeben, auf die der Benutzer mit einer gesprochenen Antwort reagieren kann. In dem Sprachdialog werden vom Benutzer ausgesprochene Benutzerangaben zu dem Auslöseereignis ermittelt. Es werden dann die Benutzerangaben an eine Auswerteeinrichtung ausgesendet. Die Auswerteeinrichtung kann zum Beispiel ein Server im Internet sein. Mittels der Auswerteeinrichtung kann aus unterschiedlichen Geräten oder Steuervorrichtungen jeweils zu zumindest einem vorbestimmten Auslöseereignis das jeweilige Benutzerfeedback gesammelt werden.

Durch die Erfindung ergibt sich der Vorteil, dass die Ablenkung des Benutzers besonders gering ist. Der Sprachdialog lenkt den Benutzer bei der weiteren Benutzung des Geräts nur geringfügig ab, sodass der Benutzer die Benutzung nicht wegen der Befragung unterbrechen muss.

Bevorzugt werden die die Benutzerangaben zusammen mit das Auslöseereignis charakterisierenden Situationsdaten an die Auswerteeinrichtung ausgesendet. Hierdurch ergibt sich der Vorteil, dass mittels der Situationsdaten der Grund oder die Situation, die zu dem Auslöseereignis gespürt haben, beschrieben oder charakterisiert werden und zusätzlich per Sprachdialog Benutzerangaben über das Auslöseereignis automatisiert gesammelt und an eine Auswerteeinrichtung weitergeleitet werden.

Eine Weiterbildung betrifft die Frage, welche Situationsdaten noch zusätzlich zu den Benutzerangaben an die Analyseeinrichtung ausgesendet werden können. Eine Weiterbildung hierzu sieht vor, dass die Situationsdaten einen Gerätezustand und/oder einen Umgebungszustand und/oder einen Benutzungskontext (Benutzungshistorie und/oder aktuell aktivierte Bedienfunktionen) und/oder Gesundheitsdaten des Benutzers und/oder eine Geoposition des Geräts beschreiben. Im Zusammenhang mit einem Kraftfahrzeug kann der Gerätezustand z.B. die aktuelle Gangwahl, die Drehzahl und/oder eine Sitzeinstellung sein. Dies sind aber nur Beispiele. Ein Umgebungszustand kann beispielsweise das Wetter und/oder eine Umgebungstemperatur angeben. Der Benutzungskontext kann im Zusammenhang mit einem Kraftfahrzeug beispielsweise einen vorgenommenen Gangwechsel oder eine Fahr- werkseinstellung beschreiben. Der Benutzungskontext kann beispielsweise auch die Benutzungsumgebung, in welcher das Gerät benutzt wird, darstellen. So kann beispielsweise im Zusammenhang mit einem Kraftfahrzeug ermittelt werden, ob sich das Kraftfahrzeug aktuell auf einer Stadtfahrt oder einer Autobahnfahrt befindet. Durch die Geoposition kann der Benutzungsort ermittelt werden. Hierdurch kann beispielsweise ermittelt werden, ob sich das Gerät aktuell in einem Funkloch befand, also eine Mobilfunkverbindung gestört gewesen sein kann, oder in der Nähe einer vorbestimmten Sehenswürdigkeit, wie z.B. einem Gebäude .

Der Sprachdialog kann durch unterschiedliche Auslöseereignisse begonnen oder gestartet oder ausgelöst werden.

Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine vom Benutzer an dem Gerät vorgenommene Geräteeinstellung umfasst. In dem hierdurch ausgelösten Sprachdialog kann dann ein Grund für die Geräteeinstellung erfragt werden. Handelt es sich bei dem Gerät beispielsweise um ein Kraftfahrzeug, so kann der Benutzer dann, wenn er zum Beispiel eine Fahrwerkseinstellung ändert oder vornimmt, befragt werden, warum er diese Fahrwerkseinstellung vorgenommen hat. Die Geräteeinstellung kann z.B. zusätzlich oder alternativ eine Klimatisierungs-, Motor-, Licht-, Media- und/oder Komforteinstellung betreffen. So kann also gezielt auf eine vorbestimmte Geräteeinstellung gewartet werden (zum Beispiel die Geräteeinstellung am Fahrwerk oder an einem Sitz) und somit gezielt zu dieser bedienten oder eingestellten Gerätekomponente ein Benutzerfeedback ermittelt werden. Hierdurch kann gezielt für zumindest eine vorbestimmte Gerätekomponente des Geräts und/oder für zumindest eine vorbestimmte Benutzungsumgebung, in welcher die Geräteeinstellung vorgenommen wird, ein Benutzerfeedback ausgelöst oder ermittelt werden. In Bezug auf die Benutzungsumgebung, in welcher das Gerät benutzt wird, kann beispielsweise bei der Änderung der Fahrwerkseinstellung ermittelt werden, dass der Benutzer als Benutzereingabe einen unruhigen oder unebenen Straßenverlauf als Grund angibt. Dann kann als Benutzerfeedback der Zustand der Straße gemeldet werden. Die Situationsdaten, die ebenfalls mit den Benutzerangaben zusammen ausgesendet werden können, können dann beispielsweise die Geoposition des Straßenabschnitts angeben und/oder einen Gesundheitszustand des Benutzers, um beispielsweise die Empfindlichkeit des Benutzers gegenüber Straßenunebenheiten abschätzen zu können. Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine Anforderung des Benutzerfeedbacks durch eine vorbestimmte Benutzerhandlung umfasst. Der Benutzer fordert also selbst die Eingabemöglichkeit für sein Benutzerfeedback an. Dies kann eine manuelle Bedienhandlung beispielsweise in einem Bedienmenü und/oder an einem Bedienelement sein. Die Benutzerhandlung kann auch beispielsweise einen Sprachbefehl umfassen, den der Benutzer ausspricht, um sein Benutzerfeedback anschließend eingeben zu können. Somit kann ohne aufwendige Detektion der Benutzungssituation ebenfalls die Erfassung eines Benutzerfeedbacks ausgelöst werden.

Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine situationsabhängige Aktivierung umfasst, die einen vorbestimmten Geräte- zustand des Geräts und/oder eine vorbestimmte Geoposition des Geräts und/oder einen vorbestimmten Umgebungszustand der Benutzungsumgebung, in welcher das Gerät benutzt wird, vorsieht. Beispielsweise kann als Gerätezustand ein Fehlerzustand des Geräts erkannt werden. Wird dies als Auslöseereignis erkannt, so kann mittels des Sprachdialogs beispielsweise erfragt werden, ob der Benutzer den Fehler überhaupt bemerkt hat und/oder was er über den Fehler denkt. Indem eine Geoposition des Geräts als Auslöseereignis verwendet wird, kann ein Benutzerfeedback dazu ermittelt werden, wie die Meinung des Benutzers zur Benutzung des Geräts an einen bestimmten Ort oder in einer bestimmten Benutzungsumgebung ist und/oder zu einem in einer Umgebung von der Geoposition aus sichtbaren und/oder hörbaren Ereignis und/oder Objekt (z.B. eine Werbung und/oder ein Gebäude) ist. Eine andere Bezeichnung für die ortsabhängige Auslösung ist auch Geofencing. Indem ein Umgebungszustand der Benutzungsumgebung als Auslöseereignis erkannt wird, kann die Benutzung des Geräts in einer vorbestimmten Umgebungssituation, beispielsweise bei Regen und/oder bei Hitze und/oder in einer lauten Umgebung, erkannt werden. Entsprechend kann der Umgebungszustand beispielsweise mittels zumindest eines Sensors und/oder mittels zum Beispiel Wetterdaten aus dem Internet ermittelt werden. Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine kontextabhängige Aktivierung umfasst, die eine vorbestimmte Nutzungshistorie und/oder eine vorbestimmte Abfolge von Bedienschritten umfasst. Die Nutzungshistorie kann beispielsweise angeben, wie oft der Benutzer einen vorbestimmten Bedienschritt des Geräts ausgeführt hat. Hat der Benutzer beispielsweise N-mal eine Gerätekomponente mit einem vorbestimmten Bedienschritt bedient, so kann dies als Auslöseereignis dazu verwendet werden, um in dem Sprachdialog zu erfragen, warum der Benutzer ständig diesen Bedienschritt ausführt oder ob der Benutzer mit der Bedienkomponente oder der Bedienfunktion zufrieden oder unzufrieden ist. Durch Vorgeben der Anzahl N kann bei N-maliger Wiederholung eine entsprechend ausreichende Erfahrung des Benutzers für das Benutzerfeedback sichergestellt werden. Durch Abwarten oder Erkennen einer vorbestimmten Abfolge von Bedienschritten kann beispielsweise erkannt werden, dass der Benutzer wiederholt dieselbe Einstellung an einer Gerätekomponente vornimmt. In dem hierdurch ausgelösten Sprachdialog kann dann erfragt werden, welchen Zustand der Benutzer eigentlich an der Gerätekomponente wünscht.

Eine Weiterbildung sieht vor, dass das zumindest eine Auslöseereignis eine vorbestimmte Stimmung des Nutzers umfasst. Die Stimmungserkennung ist an sich aus dem Stand der Technik bekannt, wie bereits eingangs beschrieben wurde. Die erkannte Stimmung kann somit der Steuervorrichtung signalisiert werden, beispielsweise durch eine Stimmungserkennungseinrichtung. Wird eine vorbestimmte Stimmung, zum Beispiel ein Gefühl wie Ärger, Glück, Trauer, erkannt, so kann überprüft werden, ob ein vorbestimmtes Rückfragekriterium erfüllt ist. Dieses kann beispielsweise vorgeben, dass nur bei einer vorbestimmten Stimmung eine Rückfrage erfolgt, um den Benutzer bei Vorliegen bestimmter Stimmungen nicht zu stören. Das Rückfragekriterium legt also all diejenigen Stimmungen und/oder all diejenigen Stimmungsgrade fest, bei welchen eine Rückfrage durch die Steuervorrichtung mittels des Sprachdialogs erfolgt. Bei erfülltem Rückfragekriterium wird mittels des Sprachdialogs beim Benutzer erfragt, ob er das Benutzerfeedback geben möchte. Bejaht der Benutzer den Wunsch eines Benutzerfeedbacks, so werden also bei einer Bestätigung des Benutzers die Benutzerangaben zu seiner Stimmung ermittelt. Der Benutzer wird also beispielsweise gefragt, warum er verärgert ist. In jedem anderen Fall aber, wenn also das Rückfragekriterium verletzt oder nicht erfüllt ist oder der Benutzer kein Benutzerfeedback abgeben möchte und die Rückfrage also verneint, so werden ohne die Benutzerangaben nur die Situationsdaten an die Auswerteeinrichtung gesendet. Somit kann bereits eine Stimmungsangabe, welche die erkannte Stimmung angibt, als indirekte Benutzerangabe ausgewertet werden. Hierdurch ergibt sich der Vorteil, dass allein eine Emotion des Benutzers ausreicht, um eine Ermittlung des Benutzerfeedbacks auszulösen.

Welche Auslöseereignisse geeignet sind, um das Erfassen eines Benutzerfeedbacks sinnvoll auszulösen, kann in einem frühen Stadium, nämlich bei der Entwicklung des Geräts, schwierig sein. Um hier mehr Flexibilität beim Anpassen eines Auslösungsereignisses bereitzustellen, sieht eine Weiterbildung vor, dass im Betrieb des Geräts, d.h. also dynamisch, Konfigurationsdaten empfangen werden und zumindest ein neues Auslöseereignis durch die Konfigurationsdaten festgelegt wird. Es kann also zur Laufzeit, während sich das Gerät bereits beim Benutzer befindet, ein neues Auslöseereignis definiert oder festgelegt werden. Somit kann also auch im Nachhinein, nach Auslieferung des Geräts an den Benutzer, die Menge der Auslöseereignisse zum Erfragen oder Ermitteln von Benutzerfeedback angepasst werden.

Durch den Sprachdialog kann der Benutzer unter Umständen in kognitiv anstrengenden Situationen, die vom Benutzer die gesamte Aufmerksamkeit erfordern, dennoch von der Benutzung des Geräts abgelenkt werden. Um dies zu vermeiden, wird der Sprachdialog bevorzugt nur dann gestartet oder durchgeführt, wenn die kognitive Belastung des Benutzers, also sein aktueller Aufwand zum Konzentrieren bei der Bedienung des Geräts, gering genug ist. Eine Weiterbildung sieht hierzu vor, dass der Sprachdialog nur und/oder erst dann gestartet wird, wenn eine Nutzungssituation erkannt wird, die ein vorbestimmtes Belastungskriterium erfüllt, wobei das Belastungskriterium eben festlegt, in welchem Fall eine Ablenkung des Benutzers durch den Sprachdialog zulässig ist. Das Belastungskriterium legt also einen Schwellenwert für die kognitive Belastung fest, der unterschritten sein muss, damit der Sprachdialog gestartet wird. Das Belastungskriterium kann auch eine Liste von zulässigen Benutzungssituationen angeben. Handelt es sich bei dem Gerät um ein Kraftfahrzeug, so kann beispielsweise das Belastungskriterium besagen, dass während einer Kurvenfahrt der Sprachdialog blockiert sein muss. Dagegen kann während einer Fahrt mit einem Autopiloten der Sprachdialog freigegeben sein. Allgemein wird also durch das Belastungskriterium festgelegt, welche Fahrerbelastung durch die aktuelle Fahraufgabe zulässig ist, damit der Sprachdialog gestartet wird und welche Fahrerbelastung oder welcher Grad an Fahrerbelastung den Sprachdialog verhindert oder blockiert. Bei verletztem Belastungskriterium kann der Sprachdialog auch zeitlich verschoben in Bezug auf das Auslöseereignis gestartet werden.

Mehrere Weiterbildungen beschäftigen sich mit der Frage, wie von dem Benutzer die benötigten Benutzerangaben erfragt werden können. Eine Weiterbildung sieht vor, dass zum Festlegen eines Verlaufs des Sprachdialogs vorbestimmte, zu beantwortende Frageziele oder Fragepunkte zu dem Auslöseereignis vorgegeben werden. Zu jedem Auslöseereignis stellen sich Fragen, die beispielsweise der Hersteller des Geräts beantwortet haben möchte. Somit kann also zu jedem detektierbaren oder vorbestimmten Auslöseereignis jeweils eine Liste mit zumindest einem Fragepunkt vorgegeben werden. Während des Sprachdialogs wird dann zumindest eine Aussage des Benutzers mittels einer vorbestimmten ZuOrdnungsvorschrift daraufhin überprüft, ob sie eine Antwort auf einen Fragepunkt darstellt. Wird als Auslöseereignis beispielsweise erkannt, dass ein Benutzer einen Fahrzeugsitz verstellt, so kann als ein Fragepunkt vorgegeben werden, ob der Fahrzeugsitz unbequem ist. Wird dann im Sprachdialog gefragt:„Warum haben Sie den Fahrzeugsitz verstellt?" und antwortet der Benutzer darauf hin:„Meine Schulter zwickt," so kann eine ZuOrdnungsvorschrift vorgesehen sein, die Angaben zu Körperteilen, also beispielsweise„Schulter", dem Fragepunkt die Antwort „Fahrzeugsitz unbequem" zuordnet. Somit kann diese mittels der Zuord- nungsvorschrift interpretierte Antwort des Benutzers als Teil der Benutzerangaben verwendet werden. Antwortet der Benutzer dagegen:„Bitte jetzt nicht stören, ich möchte gleich telefonieren," so ergibt sich keine gültige Zuordnung mittels der ZuOrdnungsvorschrift zu einer möglichen Antwort für den Fragepunkt. Damit wird diese Antwort des Benutzers nicht als Teil der Benutzerangaben verwendet, sondern für das Benutzerfeedback ignoriert. Des Weiteren kann die Steuervorrichtung noch unbeantwortete Fragepunkte während des Sprachdialogs ermitteln und durch Anpassen des Sprachdialogs gezielt die unbeantworteten Fragepunkte erfragen. Beispielsweise kann im Sprachdialog gezielt gefragt werden:„Finden Sie den Fahrzeugsitz unbequem?", falls dieser Fragepunkt noch offen oder unbeantwortet ist.

Eine andere Möglichkeit, um einen Sprachdialog für ein Benutzerfeedback zu gestalten, besteht in der Weiterbildung, Fragebogendaten zu empfangen, welche zumindest einen Fragepunkt angeben, zu welchem Benutzerangaben benötigt werden. Als Auslöseereignis kann dann ein vorbestimmter Nutzungskontext (auf welchen sich die Fragebogendaten beispielsweise beziehen) und/oder ein vorbestimmter Belastungsgrad an die aktuelle kognitive Belastung des Benutzers ermittelt wird. Ein Grad oder Wert einer kognitiven Belastung kann allgemein z.B. mittels einer Zuordnungsfunktion ermittelt werden, welche einer erkannten Benutzungssituation den Grad oder Wert der kognitiven Belastung zuordnet. Die Zuordnungsfunktion kann mit Testpersonen anhand von einfachen Versuchen gebildet werden. Die Fragebogendaten werden also nur dann per Sprachdialog geklärt, wenn die kognitive Belastung des Benutzers unter einem vorbestimmten Schwellenwert liegt, der Benutzer also entspannt und/oder sein Ablenkungsgrad gering genug ist, um eine unerwünschte Ablenkung zu vermeiden. Dann wird der Sprachdialog gestartet und in Abhängigkeit von den Fragebogendaten gesteuert. Im Sprachdialog können also Fragen in ein Gespräch mit den Benutzer einfließen, wobei die Fragen die zumindest einen zu klärenden Fragepunkt aus den Fragebogendaten betreffen.

Nicht immer ist aber klar, was der Benutzer eigentlich gefragt werden soll. Eine Weiterbildung sieht deshalb vor, dass zu dem Auslöseereignis alle Aussagen des Benutzers als Benutzerangabe gesammelt werden und mittels des Sprachdialogs der Benutzer nach einem vom Benutzer gewünschten Zustand und/oder nach einem technischen Sachverhalt befragt wird. Hierdurch bleibt also das Benutzerfeedback ergebnisoffen. Es werden durch offene Fragen nach dem gewünschten Zustand und/oder einem technischen Sachverhalt vom Benutzer Aussagen erfragt oder ermittelt, die als Benutzerfeedback genutzt werden können.

Um das erfindungsgemäße Verfahren durchzuführen, ist durch die Erfindung auch die besagte Steuervorrichtung bereitgestellt, um das Benutzerfeedback bei einer Benutzung eines Geräts zu ermitteln. Die Steuervorrichtung weist eine Prozessoreinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen MikroController und/oder zumindest einen Mikroprozessor aufweisen. Die Prozessoreinrichtung kann einen Programmcode umfassen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein. Die Steuervorrichtung kann ganz oder teilweise in einer Geräteelektronik des Geräts selbst bereitgestellt sein. Die Steuervorrichtung kann auch ganz oder teilweise durch einen Server des Internets realisiert sein. Die Steuervorrichtung kann auch ganz oder teilweise in einem mobilen Endgerät bereitgestellt sein, dass mit dem eigentlichen zu bedienenden Gerät gekoppelt sein kann.

Bei dem Gerät selbst kann es sich in der besagten Weise um ein Kraftfahrzeug handeln. Das Benutzerfeedback kann aber auch über ein Gerät ermittelt werden, das beispielsweise ein mobiles Endgerät, also ein Smartphone oder ein Tablett-PC oder eine Smartwatch, darstellt.

Im Zusammenhang mit einem als Kraftfahrzeug ausgebildeten Gerät sieht die Erfindung auch ein Kraftfahrzeug vor, in welchem eine Ausführungsform der erfindungsgemäßen Steuervorrichtung bereitgestellt ist. Das erfindungsgemäße Kraftfahrzeug kann als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, oder als ein Motorrad oder als eine Landmaschine ausgestaltet sein. Grundsätzlich können alle im Kraftfahrzeug befindlichen Personen ein Feedback geben, nicht nur der Fahrer. Inn Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:

Fig. 1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs;

Fig. 2 ein Flussdiagramm zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens, wie es durch eine Steuervorrichtung für das Kraftfahrzeug von Fig. 1 durchgeführt werden kann;

Fig. 3 eine schematische Darstellung einer Struktur eines Sprachdialogs, wie er im Zusammenhang mit dem Verfahren von Fig. 2 durch die Steuervorrichtung ausgeführt werden kann; und

Fig. 4 eine schematische Darstellung der Steuervorrichtung.

Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.

In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.

Fig. 1 zeigt ein Kraftfahrzeug 10, bei dem es sich um einen Kraftwagen, insbesondere einen Personenkraftwagen oder Lastkraftwagen oder ein Motorrad oder eine Landmaschine, handeln kann. Das Kraftfahrzeug 10 repräsentiert ein Gerät im Sinne der Erfindung. Die im Folgenden beschriebenen Verfahrensschritte können aber auch auf ein anderes Gerät, z.B. ein mobiles Endgerät, angewendet werden.

In dem Kraftfahrzeug 10 kann eine Prozessoreinrichtung 1 1 bereitgestellt sein, bei der es sich beispielsweise um ein Infotainmentsystem (Information- Unterhaltungssystem) handeln kann. Die Prozessoreinrichtung 1 1 kann auch ein eigenes Steuergerät sein oder in einem auch für andere Funktionen vorgesehenen Steuergerät integriert sein. Durch die Prozessoreinrichtung 1 1 kann beispielhaft eine Steuervorrichtung 12 realisiert sein. Alternativ dazu kann als eine Steuervorrichtung oder als ein Teil der Steuervorrichtung ein mobiles Endgerät 13 mit der Prozessoreinrichtung 1 1 gekoppelt sein. Zusätzlich oder alternativ dazu kann über eine Funkverbindung 14 eine Servervorrichtung oder ein Server 15 des Internets 16 mit der Prozessoreinrichtung 1 1 gekoppelt sein, um einen Teil der Steuervorrichtung zu bilden oder die Funktion der Steuervorrichtung ganz bereitzustellen.

Im Folgenden wird beispielhaft davon ausgegangen, dass die Steuervorrichtung 12 ausschließlich mittels der Prozessoreinrichtung 1 1 bereitgestellt ist. Die im folgenden beschriebenen Funktionen können aber auch durch das mobile Endgerät 13 und/oder den Server 15 ganz oder teilweise ausgeführt werden.

Durch die Steuervorrichtung 12 kann aus einer Mikrofonanordnung 17 eine Benutzereingabe 18 eines (nicht dargestellten) Benutzers des Kraftfahrzeugs 10 als Sprachsignal empfangen werden. Des Weiteren kann die Steuervorrichtung 12 eine Ausgabeeinrichtung 19 steuern oder betreiben, um eine Sprachansage 20 als Sprachschall an den Benutzer ausgeben zu können. Es können kann auch ein Mikrofon und/oder ein Lautsprecher aus einem mobilen Endgerät, z.B. einem Smartphone, verwendet werden.

In dem Kraftfahrzeug 10 kann von dem Benutzer hierdurch in einem Sprachdialog ein Benutzerfeedback 22 ermittelt werden, das dann an eine Auswerteeinrichtung 21 , beispielsweise einen Server des Internets 16, ausgesendet werden kann. Durch die Auswerteeinrichtung 21 kann aus dem Kraftfahrzeug 10 und aus weiteren Geräten jeweils das Benutzerfeedback 22 gesammelt werden und somit z.B. der Gerätetyp des Kraftfahrzeugs 10 oder allgemein eines Geräts verbessert oder weiterentwickelt werden. Das Benutzerfeedback 22 kann eine Benutzerangabe 33 zu einem Auslöseereignis sowie Situationsdaten 34 betreffend die aktuelle Benutzungssituation umfassen. Die Situationsdaten 34 können z.B. auf der Grundlage von Daten DTA gebildet sein, die Umgebungsdaten und/oder Fahrzeugdaten und/oder Wetterdaten und/oder Verkehrsdaten umfassen können. Die Daten DTA können ganz oder teilweise auch durch eine externe Datenquelle, wie z.B. einen Internet- Datendienst, bereitgestellt sein.

Fig. 2 veranschaulicht, wie das Benutzerfeedback 22 im Kraftfahrzeug 10 durch die Steuervorrichtung 12 ermittelt werden kann.

Während der Benutzer das Kraftfahrzeug 10 benutzt, kann die Steuervorrichtung 12 detektierten, ob ein vorbestimmtes Auslöseereignis 23 im oder am Kraftfahrzeug vorkommt oder stattgefunden hat. Es kann sich bei dem Auslöseereignis 23 um eine Nutzerinteraktion 24 handeln, die beispielsweise in Form eines Sprachbefehls 25 des Benutzers und/oder in Form einer Hardwarebedienung 26 des Benutzers, d.h. einer vorbestimmten Bedienhandlung, erkannt werden kann. Zusätzlich oder alternativ dazu kann mittels zumindest eines fahrzeugeigenen und/oder zumindest eines fahrzeugfremden Sensors 27 (z.B. des mobilen Endgeräts 13) eine aktuelle Benutzungssituation 28 und/oder ein aktueller Benutzungskontext 29 ermittelt werden. Falls ein vorbestimmter Benutzungskontext 29 und/oder eine vorbestimmte Benutzungssituation 28 erkannt wird, kann dies ebenfalls als Auslöseereignis 23 gewertet werden.

Wird in einem Schritt S10 das Auslöseereignis 23 erkannt, so kann in einem Schritt S1 1 ein Sprachdialog 31 durchgeführt werden. Hierzu kann von dem Benutzer (in Fig. 2 durch ein Feld 32 repräsentiert) die Benutzereingabe 18 empfangen werden und an den Benutzer die Sprachausgabe 20 ausgegeben werden. Mittels des Sprachdialogs 31 werden dann in einem Schritt S12 Benutzerangaben 33 ermittelt, die in einem Schritt S13 zusätzlich z.B. auf Grundlage des zumindest einen Sensors 27 und/oder Zustandsdaten des Kraftfahrzeugs 10 um die Situationsdaten 34 ergänzt werden können. Die Situationsdaten 34 können einen aktuellen Gerätezustand des Kraftfahrzeugs 10 und/oder einen Umgebungszustand der Bedienumgebung und/oder einen Benutzungskontext, in welchem das Kraftfahrzeug 10 aktuell benutzt wird, und/oder den Gesundheitszustand des Benutzers selbst und/oder eine Geoposition des Kraftfahrzeugs 10 beschreiben.

In einem Schritt S14 kann dann das Benutzerfeedback 22 als Kombination aus den Benutzerangaben 33 und optional den Situationsdaten 34 an die Auswerteeinrichtung 21 übermittelt werden.

Fig. 3 veranschaulicht beispielhaft eine mögliche Struktur des Sprachdialogs 31 . Es kann eine Identität des Benutzers 32 und es können Profildaten 35 des Benutzers 32 in einem Schritt D10 ermittelt werden, indem sie beispielsweise aus einer Datenbank ausgelesen werden. Es können Fragebogendaten 36 in einem Schritt D1 1 empfangen werden, welche Frageziele oder zu klärende Fragepunkte angeben, die durch den Sprachdialog 31 mit dem Benutzer geklärt oder von dem Benutzer beantwortet werden sollen. Es kann auch vorgesehen sein, zu dem erkannten Auslöseereignis 23 zugeordnete Fragepunkte aus einer Datenbank auszulesen. In einem Schritt D12 kann dann das Gespräch mit dem Benutzer begonnen oder initiiert werden, indem beispielsweise eine Eingangsfrage 37 gestellt wird. Die Eingangsfrage 37 kann beispielsweise lauten:„Kann ich Dir eine Frage stellen?" oder„Welches Feedback würdest Du gerne geben?" Bei einer Ablehnung 38 durch den Benutzer kann in einem Schritt D13 der Sprachdialog abgebrochen werden. Bei einer Bestätigung 39 durch den Benutzer kann in einem Schritt D14 ein offener Fragepunkt oder ein zu klärender Fragepunkt durch eine Frage 40 der Steuervorrichtung 12 dem Benutzer vorgetragen oder präsentiert werden. Ein Beispiel für eine Frage 40 ist:„Ich habe gemerkt, dass Du X gemacht hast. Warum?", wobei X eine Bedienhandlung oder eine Nutzungshandlung des Benutzers sein kann, die als Auslöseereignis 23 erkannt wurde. Es kann auch als Frage 40 die Meinung des Benutzers erfragt werden, beispielsweise durch die Frage 40:„Wie findest du Y?", wobei Y eine Gerä- tekomponente, z.B. eine Gerätefunktion, oder ein Objekt in der Umgebung sein kann.

Falls der Benutzer eine Ablehnung 38 ausspricht, also zu verstehen gibt, dass er keinen Dialog führen möchte, kann wieder zum Schritt D13, d.h. zum Abbruch des Sprachdialogs 31 , übergegangen werden.

Andernfalls wird der Sprachdialog 31 in einem Schritt D15 als Konversation weitergeführt mit einem Sprachabtausch 41 , der eine Abfolge aus Frage, Antwort, Nachfrage, Antwort und optional weiteren solchen Konversationsschritten umfassen kann. Hierbei kann in einem Schritt D16 überprüft werden, ob der Sprachdialog oder die Konversation aktuell noch zur Klärung eines offenen Fragepunkts dient. Ist dies der Fall (in Fig. 3 sind positive Prüfergebnisse durch ein „+"-Zeichen symbolisiert), kann mit dem Schritt D15 weiter fortgefahren werden. Falls dies nicht der Fall ist (in Fig. 3 sind negative Prüfergebnisse durch ein„-"-Zeichen symbolisiert), kann in einem Schritt D17 die Konversation durch einen entsprechenden Themenwechsel zurück zu einem zu klärenden Fragepunkt führt werden. Falls dies nicht möglich ist, kann in einem Schritt D18 der Sprachdialog 31 abgebrochen oder pausiert werden und bei erneutem Detektieren des Auslöseereignisses 23 wieder fortgesetzt werden. Kann die Konversation zurück zum Thema gelenkt werden, so kann in einem Schritt D19 überprüft werden, ob alle Fragepunkte geklärt sind, also die Benutzerangaben, die benötigt werden, vollständig sind. Ist dies nicht der Fall, so kann mit dem Schritt D15 weiter fortgefahren werden. Sind die Benutzerangaben dagegen vollständig, d.h. alle Fragepunkte geklärt oder bei einer ergebnisoffenen Befragung oder Konversation eine vorbestimmte Anzahl an Benutzerantworten gesammelt, so kann in einem Schritt D20 in der bereits beschriebenen Weise die Übertragung des Benutzerfeedbacks 22 mit der Benutzerangabe 33 und optional den Situationsdaten 34 an die Auswerteeinrichtung 21 erfolgen. Ein Feedback soll sowohl mit als auch ohne Situationsdaten 34 möglich sein.

In Fig. 4 ist veranschaulicht, wie der Sprachdialog 31 mit einer Signalverarbeitung 42 realisiert werden kann. Wie bereits ausgeführt, kann die Signal- Verarbeitung 41 durch die Steuervorrichtung 12 und/oder das mobile Endgerät 13 und/oder durch den Server 15 ganz oder anteilig durchgeführt werden.

Ausgehend von der Mikrofonanordnung 17 kann die erfasste Benutzereingabe 18 mittels einer Spracherkennung 43 beispielsweise von einem störenden Rauschsignal befreit werden und in einen Text umgewandelt werden. Es kann hier eine an sich aus dem Stand der Technik bekannte Spracherkennung 43 genutzt werden.

Ausgehend von dem erkannten Text 44 kann eine Inhaltserkennung 45 vorgenommen werden, die aus dem Stand der Technik als Natural Language Processing (natürlichsprachliche Sprachverarbeitung) bekannt ist. Es kann von dem Text auf den abstrakten Inhalt geschlossen werden. Beispielsweise kann der Text 44 mit vorbestimmten Vergleichstexten verglichen werden, zu welchen jeweils angegeben ist, was sie bedeuten. Z.B. können bedeutungslose Füllwörter (wie z.B. „und" oder„hmm") erkannt und als unbedeutend markiert und/oder gelöscht werden. Beispielsweise kann analysiert werden, ob der Text etwas mit dem aktuellen Thema, beispielsweise mit einem bestimmten Fragepunkt, zu tun hat. Es kann hierzu einem Stichwort (das Beispiel„Schulter" wurde bereits genannt) ein Thema zugeordnet werden (z.B. „Bequemlichkeit").

Der ermittelte Inhalt 46 kann mittels einer ZuOrdnungsvorschrift 47 dahingehend analysiert werden, ob er eine Antwort zu einem zu klärenden oder offenen Fragepunkt darstellt. Ist dies der Fall, so kann also der Inhalt 46 dem Benutzerangaben 33 zugeordnet werden oder in diesen gespeichert werden. Für diese Inhaltsanalyse 48 kann die ZuOrdnungsvorschrift 47 beispielsweise bestimmten Stichworten jeweils eine Bedeutung für das Benutzerfeedback 22 zuordnen. Beispielsweise kann die Angabe eines Körperteils (zum Beispiel„Schulter" und„zwickt") dahingehend interpretiert werden, dass sich der Benutzer unbequem fühlt.

In einer Feedback-Verwaltung 49 kann in Prüfschritten 50 zur jeweiligen Benutzereingabe 18 überprüft werden, ob alle offenen oder zu klärenden Fragepunkte durch eine korrespondierende Benutzerangabe 18 beantwortet oder geklärt oder alle Frageziele erreicht wurden. Ist dies nicht der Fall, kann mittels einer Spracherzeugung 50 (Text-to-Speech - Text zu Sprache) eine neue Sprachansage 20 erzeugt werden, mittels welcher der Benutzer nach einem weiteren Fragepunkt, der noch zu klären ist, gefragt wird. Mittels der Lautsprechereinrichtung 19 kann dann das Signal an den Benutzer als Sprachschall ausgegeben werden. Der Benutzer 32 kann dann auf diese neue Frage antworten.

Insgesamt stellt die Steuervorrichtung 1 1 mit ihrem Sprachdialog 31 die Funktion eines digitalen Assistenten 51 für ein Benutzerfeedback 22 bereit.

Somit ergibt sich das Benutzerfeedback aus einem Gespräch zwischen Benutzer und digitalen Assistenten 51 . Zudem wird eine Verbindung mit dem Kraftfahrzeug 10 und dessen Umfeld mittels der Situationsdaten 34 geschaffen oder beschrieben. Mittels der Schlüsselworterkennung, wie sie z.B. die ZuOrdnungsvorschrift 47 bietet, und/oder der Kombination mit Kontext und/oder Nutzerprofil kann die Bedeutung des Gesprochenen ermitteln werden.

Anschließend wird die Bedeutung im Hinblick auf das eigentliche Frageziel oder den zu klärenden Fragepunkt bewertet. Falls dies abweichend ist, stellt der Assistent 51 erneut zumindest eine Rückfrage, um die Gesprächsabweichung zu korrigieren. Dies wird wiederholt, bis das Frageziel hinreicht erreicht wurde und/oder der Benutzer / der Assistent den Sprachdialog vorzeitig beendet, weil z.B. eine kognitive Belastung des Benutzers ein vorbestimmtes Belastungskriterium verletzt.

Der Sprachdialog kann natürlichsprachlich erfolgen, d.h. kein vorher festzulegendes Frage-Antwort-Spiel, sondern ein natürliches Gespräch mit frei wählbaren Worten und Sätzen, welche vom Assistenzen 51 verstanden werden bzw. welche der Assistent 51 ausgeben kann. Er passt sich bevorzugt der Sprache des Benutzers an. Die Steuervornchtung basiert auf einer Verwendung eines Mikrofons zur Spracheingabe und eines Lautsprechers zur Sprachausgabe und einer Prozessoreinrichtung zum Verarbeiten von Sprachsignalen und optional Informationen aus einem Online-Dienst (Backend).

In der Auswerteeinrichtung 21 kann die Verknüpfung von Informationen aus dem digitalen Assistenten 51 z.B. mit Fahrzeugdaten oder anderen Daten stattfinden, die als Situationsdaten 34 mit bereitgestellt werden.

Die Situationsdaten 34 beschreiben z.B. :

- Luftparameter (Temperatur, Feuchte, Schadstoff, Sauerstoff, Partikel, Pollen, Gifte, Feuchte, Luftdruck) und/oder

- Wetterparameter (Stand der Sonne, Sonnenintensität, Regen, Regenintensität, Wind) und/oder

- Fahrbahn (Art der Straße, Reibung, Schlaglöcher, Fahrbahnart und Fahr- bahnbeschaffenheit) und/oder

- Fahrzeug (Genutzte Bedienelemente, Geschwindigkeit, Position, Gang, Gas, Bremse, Tank, Beladung, Motor und Getriebezustand) und/oder

- Insassen (Anzahl, Position, Größe, eindeutige Identifikation, Zustand der Insassen) und/oder

- Umgebung (Bilder, Radar, Ultraschall, Lidar, Infrarotabbildung von der Umgebung) und/oder

- Media (Musik, Radiosender, Lautstärke, Telefonat, surfen, andere Informationen),

- Verkehr (andere Fahrzeuge, Personen, Schilder, Verkehrszeichen, Fahrbahnmarkierung), wobei auch deren vorangegangene und nachfolgende Parameter / Werte berücksichtigt werden können.

Durch die Hilfe eines Assistenten 51 kann ein Feedbackgespräch stattfinden, in welchem der Benutzer sein Anliegen per Sprache darlegt. Der Assistent kann dem Benutzer weitere Fragen stellen, um die Qualität des Feedbacks zu verbessern.

Die Aktivierung des Assistenten kann per Hardware-Interaktion oder über Sprach befehl erfolgen. Weiter ist eine Situationsabhängige oder Kontextbasierte Aktivierung möglich.

Aktuelle Assistenten können dagegen nicht von sich aus eine Konversation starten, sondern nur auf Benutzeraktion hin. Aktuelle Assistenten können auch nur auf vorgegebene Fragen reagieren und vorgegebene Antworten abliefern.

Der Assistent 51 dagegen:

- verarbeitet das direkte Benutzerfeedback ungeschönt und ungefiltert,

- erstellt das Feedback zeitnah zur Situation (auch während des Fahrens),

- lenkt den Fahrer nicht ab (minimale kognitive Belastung), da eine natürlichsprachliche Interaktion wie beim Telefonieren möglich ist.

Die einfache natürliche Interaktion mit dem Assistenten 51 ermutigt den Benutzer direktes und ehrliches Feedback zu geben. Weiter kann der Assistent 51 das Benutzerfeedback 22 mit weiteren Metadaten wie Position, Fahrzeugzustand (z.B. Busnachtrichten eines Kommunikationsbusses, z.B. CAN- Busses, und/oder LIN, Ethernet, WLAN, BLE, NFC, und/oder elektrische, elektromagnetische, akustische und/oder optische Signale), und/oder Umgebungsdaten wie Wetter und/oder Verkehrssituation verknüpfen.

Diese Feedbackdaten des Benutzerfeedbacks 22 können je nach Feedbackart und Kontext auch unterschiedlich sein und vom Assistent 51 selbstständig ausgewählt, erfasst und verknüpft werden.

Vorteil dieses Assistenten 51 ist die natürlich-sprachliche Umsetzung, wobei die Fragen nicht vordefiniert sind, sondern situationsbezogen generiert werden. Hierdurch kann direkt auf die Antworten des Benutzers eingegangen werden und das Gespräch in die gewünschte Richtung (Ergebnis) gesteuert werden.

Im Gegensatz zur heutigen Implementierung von Sprachassistenten, welche nur auf Schlüsselwörter reagieren, ist der Assistent 51 in der Lage, das Gespräch im Kompletten zu verstehen und/oder den Kontext bei der Interpretation der Benutzereingaben 18 mit einzubeziehen (z.B. Fahrsituation, Umfeld, Gesundheit).

Weiter ist der Assistent 51 in darauf angewiesen, die gewünschte Information nicht direkt zu erfragen, sondern er kann über Umwege (psychologisch geschickt, im Gesprächsverlauf) die Antworten erlangen.

Die Aktivierung des Assistenten 51 kann per Hardwareinteraktion (z.B. Knopf, Touchscreen) oder über Sprachbefehl erfolgen (hierzu lauscht ein Mikrophon auf Sprachbefehle).

Wenn die Interaktion vom Benutzer aus initiiert wird, können der Fahrzeugzustand, die erkannte Umgebung und/oder andere Metadaten aus Schwarmdaten, Karten Information, Fahrsituation erhoben und mit den Benutzerangaben 33 als Situationsdaten 34 (optional vom Assistenten 51 interpretiert) verknüpft und an die Auswerteeinrichtung 21 gesendet werden.

Die situationsabhängige oder kontextbasierte Aktivierung ist von Fahrsituationen, Fehlerzuständen im Fahrzeug als auch geobasiert möglich. Eine dynamische Konfiguration während der Laufzeit ist möglich. Die Informationen werden analog dem benutzerinitiierten Feedback erhoben, gespeichert und versendet.

Der Assistent 51 kann sich als Steuervorrichtung 12, 13, 15 in der Fahrzeugelektronik, in einem Server als auch im externen mobilem Gerät (Handy, Laptop, Wearable, Smart Device) befinden. Inn Folgenden erläutern Szenarios die Funktionsweise des durch die Steuervorrichtung 12, 13, 15 realisierten Assistenten 51 :

Szenario 1 :

Fahrer ändert Fahrwerkseinstellung (z.B. von„dynamisch" zu„comfort"), z.B. mittels Sprachbedienung. Nach dem Ausführen fragt der Assistent 51 , warum der Fahrer die Fahrwerkseinstellung geändert hat. Begründung des Insassen:„Die Straße ist zu holprig, ich möchte komfortabel Reisen". Das System sendet diese Information mit dem schlechten Zustand der Straße sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21 .

Szenario 2:

Die Auswerteeinrichtung 21 schickt ein Fragebogen an die Flotte von Fahrzeugen. Das Fahrzeug bearbeitet die Information. Der Assistent 51 entscheidet anhand von Benutzungskontext und/oder kognitiver Belastung des Insassen, wann der geeignete Zeitpunkt ist, den Insassen die Fragen zu stellen. Der Assistent lässt die angeforderten Fragen in die Konversation geschickt einfließen und entlockt den Insassen damit das gewünschte Feedback. Die gewonnenen Daten werden an die Auswerteeinrichtung 21 übermittelt.

Szenario 3:

Ein Insasse ärgert sich über eine Funktionalität des Fahrzeugs. Der Assistent wägt ab, ob eine Frage in der aktuellen Situation möglich ist. Falls nicht, erfasst er die Umfelddaten / Situationsdaten 34 und übermittelt diese an die Auswerteeinrichtung 21 . Falls eine Frage nach seiner Einschätzung möglich ist, spricht er den Insassen an, ob eine Frage zu der Situation möglich ist. Falls nicht, siehe oben. Falls ja, startet der Assistent eine Konversation mit dem Ziel, den Grund seines Unmutes (z.B. über eine Fahrzeugfunktion oder Umfeldereignis) herauszufinden. Der Assistent 51 sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21 . Szenario 4:

Ein Insasse triggert mit einem Schlüsselwort, mit einer erkannten Intention (z.B.„Ich möchte Feedback ... geben") die Feedbackfunktion des Systems. Der Assistent startet eine Konversation mit dem Ziel, ein möglichst detailliertes und vollständiges Feedback zu gewinnen (vorher festgelegbare Informationen des Herstellers für ein gezieltes Feedback sind möglich, d.h. ein Hersteller kann vorher festlegen, welche Informationen er„zwingend" für die Fehleranalyse benötigt). Das System sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an die Auswerteeinrichtung 21 .

Szenario 5:

Das Fahrzeug befindet sich in einem bestimmten Zielgebiet (Geofencing). Zu dieser Lokalität oder Sache an der Lokalität (z.B. Werbeplakat, empfohlene Sehenswürdigkeit) möchte der Hersteller / Werbeindustrie ein Benutzerfeedback von Insassen haben. Der Assistent startet eine Konversation mit dem Ziel, ein möglichst detailliertes und vollständiges Benutzerfeedback zu gewinnen (auch vorher festgelegte Informationen des Herstellers für ein gezieltes Feedback sind möglich). Der Assistent 51 sendet diese Information sowie Umfelddaten aus GPS, Fahrwerk und optional Gesundheitsdaten der Insassen an das Backend.

Insgesamt zeigen die Beispiele, wie durch die Erfindung eine assistierte Feedback-Interaktion in einem Kraftfahrzeug bereitgestellt werden kann.