Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
ROBOT WITH A BEHAVIOUR CONTROL UNIT, AND METHOD FOR CONTROLLING THE BEHAVIOUR OF A ROBOT
Document Type and Number:
WIPO Patent Application WO/2021/037776
Kind Code:
A1
Abstract:
The invention relates to a robot (10) comprising: a navigation unit, which is designed to determine a suitable movement route (20) of the robot (10) from a starting point A to a destination point B, a state-determining unit, which is designed to determine an internal state of the robot (10), and a behaviour control unit, which is designed to adapt the movement route (20) and/or the movement dynamics of the robot (10) on the basis of the determined internal state of the robot (10) in order to communicate the internal state of the robot to a user.

Inventors:
TOUSSAINT CLAUDE (DE)
Application Number:
PCT/EP2020/073589
Publication Date:
March 04, 2021
Filing Date:
August 24, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
NAVEL ROBOTICS GMBH (DE)
International Classes:
B25J9/16; B25J11/00
Foreign References:
US20190111563A12019-04-18
US20190202054A12019-07-04
US20170239982A12017-08-24
US20190030723A12019-01-31
Attorney, Agent or Firm:
WEICKMANN & WEICKMANN PARTMBB (DE)
Download PDF:
Claims:
Ansprüche

1. Roboter (1, 10), umfassend: eine Navigationseinheit, die dafür eingerichtet ist, eine geeignete

Fortbewegungsroute (20) des Roboters von einem Startpunkt (A) zu einem Zielpunkt (B) zu bestimmen, eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters die Fortbewegungsroute (20) und/oder die Fortbewegungsdynamik des Roboters anzupassen, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.

2. Roboter nach Anspruch 1 , dadurch gekennzeichnet, dass der Roboter (1, 10) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 10) ist.

3. Roboter nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass die Zustandsbestimmungseinheit dafür eingerichtet ist, den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters zu bestimmen.

4. Roboter nach Anspruch 3, dadurch gekennzeichnet, dass ein Emotionszustand des Roboters durch eine Emotionsklasse und eine Emotionsintensität definiert ist. 5. Roboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Verhaltenssteuerungseinheit dafür eingerichtet ist, je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter anzupassen:

- eine Geschwindigkeit des Roboters,

- eine Gierrate des Roboters,

- eine Beschleunigung des Roboters,

- ein Neigungswinkel des Roboters.

6. Roboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der Roboter ferner eine Emotionszustandsbestimmungseinheit umfasst, die dafür eingerichtet ist, den Emotionszustand des Roboters auf Basis erfasster

Umgebungsinformationen und/oder wenigstens eines vorbestimmten internen Zustands des Roboters zu bestimmen.

7. Roboter nach Anspruch 6, dadurch gekennzeichnet, dass die

Umgebungsinformationen durch einen oder mehreren Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind, erfasst werden.

8. Roboter nach Anspruch 7, dadurch gekennzeichnet, dass der eine oder die mehreren Sensoren wenigstens ausgewählt sind aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor.

9. Roboter nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Navigationseinheit eine bildbasierte Navigationseinheit, eine Tiefenbild-basierte Navigationseinheit, eine Satelliten-basierte Navigationseinheit, eine Mobilfunk-basierte Navigationseinheit, eine WLAN-basierte Navigationseinheit, eine Radar-basierte Navigationseinheit, eine Lidar-basierte Navigationseinheit, eine Ultraschall-basierte Navigationseinheit, eine Infrarot-basierte Navigationseinheit, eine RFID-basierte Navigationseinheit, eine Bluetooth-basierte Navigationseinheit, eine ZigBee-basierte Navigationseinheit, oder eine Kombination davon ist.

10. Verfahren zur Verhaltenssteuerung eines Roboters (1, 10), umfassend:

- Bestimmen einer geeigneten Fortbewegungsroute (20) des Roboters von einem Startpunkt (A) zu einem Zielpunkt (B),

- Bestimmen eines internen Zustands des Roboters,

- Anpassen der Fortbewegungsroute (20) und/oder der Fortbewegungsdynamik des Roboters auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.

11.Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der Roboter (1 , 10) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 10) ist.

12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass das Verfahren den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters bestimmt. 13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, dass ein Emotionszustand des Roboters durch eine Emotionsklasse und eine Emotionsintensität definiert ist. 14. Verfahren nach einem der Ansprüche 10-13, dadurch gekennzeichnet, dass das Verfahren je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter anpasst: - eine Geschwindigkeit des Roboters,

- eine Gierrate des Roboters,

- eine Beschleunigung des Roboters,

- ein Neigungswinkel des Roboters. 15. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren ferner ein Bestimmen eines Emotionszustands des Roboters umfasst, wobei das Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder eines vorbestimmten internen Zustands des Roboters bestimmt wird.

16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die Umgebungsinformationen durch einen oder mehreren Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind, erfasst werden.

17. Verfahren nach Anspruch 16, dadurch gekennzeichnet, dass der eine oder die mehreren Sensoren wenigstens ausgewählt sind aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein

Temperatursensor. 18. Verfahren nach einem der Ansprüche 10-17, dadurch gekennzeichnet, dass die geeignete Fortbewegungsroute mittels einer bildbasierten Navigationseinheit, einer Tiefenbild-basierten Navigationseinheit, einer Satelliten-basierten Navigationseinheit, einer Mobilfunk basierten Navigationseinheit, einer WLAN-basierten Navigationseinheit, einer Radar-basierten Navigationseinheit, einer Lidar-basierten Navigationseinheit, einer Ultraschall-basierten Navigationseinheit, einer Infrarot-basierten Navigationseinheit, einer RFID-basierten Navigationseinheit, einer Bluetooth-basierten Navigationseinheit, einer ZigBee-basierten Navigationseinheit, oder einer Kombination davon bestimmt.

19. Roboter (1 , 100), umfassend: eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters eine Bewegung des Roboters auf einer Stelle oder eine hierum bewegung des Roboters um eine Stelle zu steuern, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Verhaltenssteuerungseinheit dafür eingerichtet ist, die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter zu steuern:

- eine Geschwindigkeit des Roboters,

- eine Gierrate des Roboters,

- eine Beschleunigung des Roboters,

- ein Neigungswinkel des Roboters.

20. Roboter nach Anspruch 19, dadurch gekennzeichnet, dass der Roboter (1 , 100) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 100) ist.

21. Verfahren zur Verhaltenssteuerung eines Roboters (1, 100), umfassend:

- Bestimmen eines internen Zustands des Roboters,

- Steuern einer Bewegung des Roboters auf einer Stelle oder einer Herumbewegung des Roboters um eine Stelle auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter gesteuert wird:

- eine Geschwindigkeit des Roboters,

- eine Gierrate des Roboters,

- eine Beschleunigung des Roboters,

- ein Neigungswinkel des Roboters.

22. Verfahren nach Anspruch 21, dadurch gekennzeichnet, dass der Roboter (1, 100) ein selbst-balancierender Roboter ist, wobei der Roboter vorzugsweise ein Ballbot (1, 100) ist.

Description:
Roboter mit einer Verhaltenssteuerungseinheit und Verfahren zur Verhaltenssteuerung eines Roboters

Beschreibung

Die vorliegende Erfindung betrifft einen Roboter mit einer Verhaltenssteuerungseinheit bzw. ein Verfahren zur Verhaltenssteuerung eines Roboters.

Soziale Roboter sind Roboter, die mit Menschen interagieren können. Sie unterstützen Menschen bei unterschiedlichen Aufgaben in ihrem Alltagsleben oder dienen zur Unterhaltung. Im Gegensatz zur Industrierobotik steht in der sozialen Robotik nicht das autonome Verhalten der Roboter im Mittelpunkt, sondern die Interaktion zwischen Menschen und Roboter.

Vor diesem Hintergrund hat die moderne soziale Robotik die Tendenz, Roboter als menschähnliche Wesen zu gestalten und ihnen Emotionen oder Persönlichkeiten zuzuschreiben. Dafür liegt der Schwerpunkt in der Forschung nicht nur auf der Modellierung der Emotionen eines Roboters, sondern auch auf der Verhaltenssteuerung des Roboters basierend auf den modellierten Emotionen, um die Emotionen auszudrücken und von einem Nutzer oder Nutzerin wahrgenommen zu werden, wodurch eine Mensch- Maschine-Interaktion ermöglicht wird.

Im Stand der Technik werden verschiedene Lösungen für ein Verhaltenssteuerungssystem oder ein Emotionsdarstellungssystem entwickelt, welches vor allem einen Emotionszustand eines Roboters durch eine Vorrichtung an dem Roboter oder durch ein Verhalten des Roboters an einen Benutzer kommuniziert, wobei die Lösungen im Wesentlichen in den folgenden Kategorien zusammenfassen lassen: - Akustische Systeme, wobei ein Roboter seine Emotionen durch Sounds oder Sprache ausdrückt,

- Optische Systeme, wobei ein Roboter LED-Augen aufweist und je nach seinem Emotionszustand die Helligkeit und/oder die Farbe seiner LED-Augen einstellt,

- Gesichtsausdrücke, wobei ein Roboter seine Emotionen durch Lidschläge oder verschiedene Augapfelbewegungen ausdrückt,

- Einfache Körperbewegungen wie Kopfbewegungen oder Armbewegungen eines Roboters.

Die oben genannten Lösungen im Stand der Technik haben jedoch die Nachteile, dass entweder zusätzliche Hardware zur Emotionsdarstellung eines Roboters eingesetzt werden muss, oder die Emotionsdarstellung nicht intuitiv genug ist, um von Menschen wahrgenommen zu werden. Zudem erlauben viele solche Systeme nur eine beschränkte Darstellungsvarianz, die für die Darstellung zahlreicher Emotionszustände eines Roboters nicht ausreichen könnte.

Es ist daher Aufgabe der vorliegenden Erfindung, gemäß den nachfolgenden Aspekten eine alternative oder verbesserte Verhaltenssteuerungslösung für soziale Roboter anzubieten, welche eine oder mehrere der vorstehend genannten Nachteile des Stands der Technik adressiert.

Gemäß einem ersten Aspekt der Erfindung wird die Aufgabe gelöst durch einen Roboter, umfassend eine Navigationseinheit, die dafür eingerichtet ist, eine geeignete Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt zu bestimmen, eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, und eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Roboters anzupassen, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren.

Mobile Roboter müssen in der Lage sein, nach einem Befehl zu einem Zielort zu fahren. Dafür ist fast jeder mobile Roboter mit einer Navigationseinheit ausgestattet, die verschiedene Sensoren umfassen, die dafür eingerichtet sind, die Position des Roboters und die Umgebung ständig zu erfassen. Auf Basis der erfassten Daten und einer vorgespeicherten Karte ist die Navigationseinheit dafür eingerichtet, eine geeignete Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt zu bestimmen. Die vorgespeicherte Karte wird vorzugsweise durch erfasste Umgebungsinformationen ständig aktualisiert. Die Navigation eines Roboters umfasst normalerweise eine globale Navigation und eine lokale Navigation. Die globale Navigation dient dazu, eine grobe Planung der Fortbewegungsroute von dem Startpunkt zu dem Zielpunkt durchzuführen, wobei z.B. eine kürzeste Fortbewegungsroute ausgewählt wird, in der Sackgassen oder Umwege vermieden werden. Im Gegensatz dazu wird bei der lokalen Navigation das Erreichen eines nahen Punkts auf dem Weg, wie z.B. das Durchlaufen einer Engstelle, angestrebt, wobei die Änderung der nahen Umgebung wie z.B. eines plötzlich auftretenden Hindernisses oder einer vorbeilaufenden Person bei der Bestimmung der Fortbewegungsroute auch eine Rolle spielt. Die geeignete Fortbewegungsroute des Roboters kann durch die globale Navigation, die lokale Navigation oder das Zusammenspiel von beidem bestimmt werden.

Die Zustandsbestimmungseinheit ist dafür eingerichtet, einen internen Zustand des Roboters zu bestimmen. Der interne Zustand kann ein modellierter Emotionszustand, ein durch die modellierte Persönlichkeit des Roboters bestimmter Zustand, ein Betriebszustand wie z.B. der Batteriezustand, irgend ein anderer interner Zustand des Roboters, oder eine Kombination der oben genannten Zustände des Roboters sein. Ein Emotionszustand oder eine Persönlichkeit eines Roboters kann durch Benutzer vordefiniert werden, oder durch erfasste Umgebungsinformationen und im System vorgespeicherten Regel bestimmt werden.

Die Verhaltenssteuerungseinheit ist dafür eingerichtet, den durch die Zustandsbestimmungseinheit bestimmten internen Zustand an einen Benutzer zu kommunizieren, welches folglich die Interaktion zwischen dem Benutzer und dem Roboter ermöglicht. Die Verhaltenssteuerungseinheit ist dafür eingerichtet, auf Basis des bestimmten internen Zustands des Roboters die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Roboters anzupassen. Dafür ist vorzugswese jeder Zustand einer bestimmten Anpassungsstrategie der Fortbewegungsroute und/oder der Fortbewegungsdynamik des Roboters mittels wenigstens einer Datenbank zugeordnet, die dafür eingerichtet ist, von der Verhaltenssteuerungseinheit abgefragt zu werden, um die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Roboters auf Basis des bestimmten internen Zustands zu bestimmen.

Im Vergleich zum Stand der Technik wird mit der vorliegenden Erfindung für die Zustandsdarstellung des Roboters keine zusätzliche Flardware verwendet, welche daher eine Kosteneffizienz aufweist. Zudem ermöglicht die Anpassung der Fortbewegungsroute und/oder der Fahrdynamik des Roboters eine hohe Varianz an der Darstellung verschiedener Zustände. Darüber hinaus könnte solche Zustandsdarstellung von Menschen einfacher wahrgenommen werden, welches für eine reibungslose Mensch-Roboter- Interaktion eine wichtige Rolle spielt.

In einer bevorzugten Ausführungsform ist der Roboter ein selbst balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist. Selbstbalancierende Roboter wie Ballbots sind in den letzten Jahren zunehmend in den Soziale-Robotik-Bereichen eingesetzt, wobei solche Roboter im Vergleich zu traditionellen Robotern eine viel lebendigere Fortbewegungsdynamik aufweisen. Ein Ballbot balanciert sich auf einer Kugel selbständig und bewegt sich darauf fort, wobei dieser Aufbau die freie Bewegung des Roboters in jeder Richtung und die Rotation um die eigene Achse ermöglicht. Zudem muss ein Ballbot für jede Änderung der Geschwindigkeit seinen Schwerpunk verlagern, welches folglich zu einer Neigung des Körpers des Ballbots führt. Umgekehrt könnte die Geschwindigkeit des Ballbots auch durch die Einstellung des Neigungswinkels beeinflusst werden.

Somit kann eine Änderung eines vorbestimmten Fortbewegungspfades und/oder einer Fortbewegungsdynamik wie z.B. einer Geschwindigkeit, eines Neigungswinkels, einer Gierrate und/oder einer Beschleunigung des Ballbots von Menschen im Vergleich zu traditionellen Robotern noch intuitiver wahrgenommen werden. Zudem erlaubt ein Ballbot im Vergleich zu traditionellen Robotern eine noch höhere Varianz an verschiedenen Fortbewegungsdynamiken, die für die Darstellung einer unerschöpflichen Vielfalt an Emotionszuständen verwendet werden können.

In einer weiteren bevorzugten Ausführungsform ist die Zustandsbestimmungseinheit dafür eingerichtet, den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters zu bestimmen. Die Persönlichkeit eines Roboters könnte ein modellierter Charakter wie z.B. „faul“, „arrogant“, “ruhig“, „aufgeschossen“ sein, ein Flobby, oder irgendeine andere modellierte Eigenschaft, die einer Persönlichkeit der Menschen nachempfunden ist.

Ein Emotionszustand des Roboters ist vorzugsweise durch eine Emotionsklasse und eine Emotionsintensität definiert. Bei der Modellierung der Emotionen könnten beispielsweise die im Stand der Technik häufig verwendeten sechs Basisemotionsklasse - Ärger, Ekel oder Abneigung, Furcht, Freude, Trauer und Überraschung - verwendet werden. Weitere Emotionsklassen könnten durch Benutzer frei definiert werden. Zudem definiert vorzugsweise eine Emotionsintensität den Emotionszustand des Roboters mit, die die Intensität oder die Stärke der jeweiligen Emotion beschreibt.

Die Verhaltenssteuerungseinheit ist vorzugsweise dafür eingerichtet, je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter anzupassen: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters. Hier ist anzumerken, dass eine Einstellung eines Parameters bei einem selbst balancierenden Roboter wie z.B. einem Ballbot, wie bereits diskutiert, zu einer Änderung eines anderen Parameters führen kann.

Ein Roboter hat selbst natürlich keine Emotionen. Stattdessen werden die Emotionen eines Roboters simuliert oder modelliert, die den Emotionen der Menschen nachempfunden sind. Somit umfasst der Roboter nach dem ersten Aspekt der vorliegenden Erfindung vorzugsweise ferner eine Emotionszustandsbestimmungseinheit, die dafür eingerichtet ist, den Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder wenigstens eines vorbestimmten internen Zustands des Roboters zu bestimmen.

Die Umgebungsinformationen können alle Informationen in der Umgebung sein, die durch die Emotionszustandsbestimmungseinheit des Roboters erfasst werden, wie z.B. die Helligkeit des Raums in dem der Roboter sich bewegt, das Gesicht oder das Gesichtsausdruck eines gegenüberstehenden Person, die Temperatur des Raums, das Geräusch in der Umgebung usw. Der wenigstens eine vorbestimmte interne Zustand des Roboters könnte ein vorbestimmter Emotionszustand, ein vorbestimmter Betriebszustand, ein durch die modellierte Persönlichkeit des Roboters vorbestimmter Zustand, oder irgendein anderer interner Zustand des Roboters sein. Beispielsweise kann der vorbestimmte interne Zustand ein Wachheitszustand (Arousal) des Roboters sein, welcher vom Benutzer vorgegeben wird, oder durch ein maschinelles Lernen entwickelt wird, oder durch einen anderen internen Zustand des Roboters bestimmt wird. Die erfasste Umgebungsinformationen und der wenigstens eine vorbestimmte interne Zustand des Roboters können entweder getrennt oder gemeinsam den Emotionszustand eines Roboters bestimmen.

Die Umgebungsinformationen werden vorzugsweise durch einen oder mehrere Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind, erfasst werden. Die erfassten Umgebungsinformationen durch externe Sensoren werden vorzugsweise an eine Kommunikationsschnittstelle des Roboters zurückgeschickt und an die Emotionszustandsbestimmungseinheit weitergeleitet. Die Kommunikation kann kabelgebunden oder kabellos sein.

Die eine oder die mehreren Sensoren sind vorzugsweise wenigstens ausgewählt aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor. Die erfassten Daten von einem oder mehreren der oben genannten Sensoren werden beispielsweise mit im System vorgegebenen Regel verglichen, wodurch ein Emotionszustand des Roboters bestimmt wird. Zum Beispiel wird ein Roboter „sehr froh“, wenn er einen Bekannten wiedersieht. Der Emotionszustand „sehr froh“ wird dadurch bestimmt, dass eine an dem Roboter vorgesehene Kamera ein oder mehrere Bilder einer gegenüberstehenden Person erfasst, die anschließend mit den im System gespeicherten historischen Daten verglichen und analysiert werden, und darauf basierend es erkannt wird, dass die Person ein alter Bekannte des Roboters ist, den er bereits lange nicht gesehen hat. Erfindungsgemäß umfasst der Roboter eine Navigationseinheit für die Bestimmung einer geeigneten Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt, wobei die Navigationseinheit vorzugsweise eine bildbasierte Navigationseinheit, eine Tiefenbild-basierte Navigationseinheit, eine Satelliten-basierte Navigationseinheit, eine Mobilfunk-basierte Navigationseinheit, eine WLAN-basierte Navigationseinheit, eine Radar-basierte Navigationseinheit, eine Lidar- basierte Navigationseinheit, eine Ultraschall-basierte Navigationseinheit, eine Infrarot-basierte Navigationseinheit, eine RFID-basierte Navigationseinheit, eine Bluetooth-basierte Navigationseinheit, eine ZigBee-basierte Navigationseinheit, oder eine Kombination davon ist.

Während die Satelliten-basierte Navigationseinheit und die Mobilfunk- basierte Navigationseinheit im Wesentlichen für die Outdoor-Navigation und für die globale Navigation verwendet werden, finden die anderen oben genannten Navigationseinheiten sowohl für die Outdoor-Navigation als auch für die Indoor-Navigation Anwendung. Zudem sind die bildbasierte Navigationseinheit, die Tiefenbild-basierte Navigationseinheit, die Ultraschall-basierte Navigationseinheit, die Radar-basierte Navigationseinheit und die Lidar-basierte für die lokale Navigation von großer Bedeutung.

Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird die Aufgabe gelöst durch ein Verfahren zur Verhaltenssteuerung eines Roboters, umfassend: Bestimmen einer geeigneten Fortbewegungsroute des Roboters von einem Startpunkt zu einem Zielpunkt, Bestimmen eines internen Zustands des Roboters, Anpassen der Fortbewegungsroute und/oder der Fortbewegungsdynamik des Roboters auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren. Wie bereits unter dem ersten Aspekt der vorliegenden Erfindung diskutiert wurde, schlagen sich die Vorteile eines solchen Verfahrens vor allem in einer besseren Wahrnehmung der Emotionsdarstellung des Roboters, einer Ersparnis zusätzlicher Hardware und einer erhöhten Varianz der Emotionsdarstellung nieder.

In einer bevorzugten Ausführungsform gemäß dem zweiten Aspekt der vorliegenden Erfindung ist der Roboter ein selbst-balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist.

Vorzugsweise bestimmt das Verfahren den internen Zustand des Roboters wenigstens auf Basis eines Emotionszustands und/oder einer Persönlichkeit des Roboters.

Ein Emotionszustand des Roboters ist vorzugsweise durch eine Emotionsklasse und eine Emotionsintensität definiert.

In einer weiteren bevorzugten Ausführungsform gemäß dem zweiten Aspekt der vorliegenden Erfindung passt das Verfahren je nach dem internen Zustand des Roboters seine Fortbewegungsdynamik durch einen oder mehrere der folgenden Parameter an: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters.

Vorzugsweise umfasst das Verfahren ferner ein Bestimmen eines Emotionszustands des Roboters, wobei den Emotionszustand des Roboters auf Basis erfasster Umgebungsinformationen und/oder eines vorbestimmten internen Zustands des Roboters bestimmt wird.

Die Umgebungsinformationen werden vorzugsweise erfasst durch einen oder mehrere Sensoren, die an dem Roboter oder außerhalb des Roboters eingerichtet sind.

Der eine oder die mehreren Sensoren sind vorzugsweise wenigstens ausgewählt aus: wenigstens ein Bildsensor, wenigstens ein Abstandssensor, wenigstens ein Lichtsensor, wenigstens ein Kraftsensor, wenigstens ein Akustiksensor, wenigstens ein Geruchssensor, wenigstens ein Temperatursensor.

In einer weiteren bevorzugten Ausführungsform gemäß dem zweiten Aspekt der vorliegenden Erfindung wird die geeignete Fortbewegungsroute mittels einer bildbasierten Navigationseinheit, einer Tiefenbild-basierten Navigationseinheit, einer Satelliten-basierten Navigationseinheit, einer Mobilfunk-basierten Navigationseinheit, einer WLAN-basierten Navigationseinheit, einer Radar-basierten Navigationseinheit, einer Lidar- basierten Navigationseinheit, einer Ultraschall-basierten Navigationseinheit, einer Infrarot-basierten Navigationseinheit, einer RFID-basierten Navigationseinheit, einer Bluetooth-basierten Navigationseinheit, einer ZigBee-basierten Navigationseinheit, oder einer Kombination davon bestimmt.

Gemäß einem dritten Aspekt der Erfindung wird die Aufgabe gelöst durch einen Roboter, umfassend: eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Roboters zu bestimmen, eine Verhaltenssteuerungseinheit, die dafür eingerichtet ist, auf Basis des bestimmten internen Zustands des Roboters eine Bewegung des Roboters auf einer Stelle oder eine hierum beweg ung des Roboters um eine Stelle zu steuern, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Verhaltenssteuerungseinheit dafür eingerichtet ist, die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter zu steuern: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters. Somit kann der interne Zustand eines Roboters auch durch eine Bewegung des Roboters auf einer gleichen Stelle oder eine Herumbewegung um einer Stelle dargestellt werden. Der Roboter kann beispielsweise sich auf einer Stelle drehen, oder sich um eine Stelle hin und her bewegen, um seinen internen Zustand an den Benutzer zu kommunizieren. In einer bevorzugten Ausführungsform gemäß dem dritten Aspekt der Erfindung ist der Roboter ein selbst-balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist. Eine Bewegung eines Ballbots in diesem Fall kann beispielsweise eine Drehung des Ballbots um eine bestimmte Gierrate auf einer Stelle sein, oder ein Hin- und Herwackeln des Ballbots um eine Stelle sein.

Gemäß einem vierten Aspekt der Erfindung wird die Aufgabe gelöst durch ein Verfahren zur Verhaltenssteuerung eines Roboters, umfassend: Bestimmen eines internen Zustands des Roboters, Steuern einer Bewegung des Roboters auf einer Stelle oder einer Herumbewegung des Roboters um eine Stelle auf Basis des bestimmten internen Zustands des Roboters, um den internen Zustand des Roboters an einen Benutzer zu kommunizieren, wobei die Bewegung oder die Herumbewegung des Roboters durch einen oder mehrere der folgenden Parameter gesteuert wird: eine Geschwindigkeit des Roboters, eine Gierrate des Roboters, eine Beschleunigung des Roboters, ein Neigungswinkel des Roboters.

In einer bevorzugten Ausführungsform gemäß dem vierten Aspekt der Erfindung ist der Roboter ein selbst-balancierender Roboter, wobei der Roboter vorzugsweise ein Ballbot ist.

Die Erfindung wird nachfolgend anhand bevorzugter Ausführungsbeispiele unter Bezugnahme auf die beigefügten Zeichnungen näher erläutert. Es zeigen:

Fig. 1 eine schematische Darstellung des Einflusses einer

Beschleunigung auf den Neigungswinkel eines Ballbots

Fig. 2 eine schematische Darstellung einer Ausführungsform der vorliegenden Erfindung Fig. 3 eine schematische Darstellung einer weiteren

Ausführungsform der vorliegenden Erfindung

Figur 1 zeigt den Einfluss einer Beschleunigung auf den Neigungswinkel eines Ballbots 1, wobei der Pfeil die Fortbewegungsrichtung des Ballbots und die Buchstabe „a“ eine Beschleunigung des Ballbots andeutet. Wie bereits vorgestellt, ist ein Ballbot ein selbstbalancierender Roboter, wobei das Gleichgewicht des Ballbots gehalten wird, indem der Ballbot seinen Schwerpunkt mit der Veränderung seiner Geschwindigkeit verlagert. Wenn der Ballbot beschleunigt (a>0), neigt sich sein Körper in die Fortbewegungsrichtung um einen bestimmten Winkel, um das Gleichgewicht zu halten. Wenn sich der Ballbot verzögert (a<0), neigt sich sein Körper um einen bestimmten Winkel entgegen der Fortbewegungsrichtung. Wenn sich der Ballbot mit einer gleichen Geschwindigkeit fortbewegt, wird sein Körper aufrecht gehalten, wobei der Neigungswinkel null ist. Umgekehrt könnte eine Einstellung eines Neigungswinkels des Ballbots seine Geschwindigkeit auch beeinflussen. Somit ist das Fahrverhalten des Ballbots durch die Einstellung einer Geschwindigkeit, eines Neigungswinkels und/oder auch einer Gierrate des Ballbots sehr dynamisch und lässt sich von einem Benutzer einfach und intuitiv wahrnehmen. Zudem kann die Geschwindigkeit, der Neigungswinkel und auch die Gierrate nach Belieben eingestellt werden, sodass eine hohe Varianz an Fahrverhalten des Ballbots möglich ist. Somit ist die Anpassung der Fahrdynamik eines Ballbots für die Emotionsdarstellung und folglich für eine Mensch-Roboter-Interaktion sehr gut geeignet.

Figur 2 zeigt eine schematische Darstellung einer Ausführungsform der vorliegenden Erfindung. Der Ballbot 10 empfängt einen Befehl von einem Benutzer, nach dem der Ballbot vom Startpunkt A zum Zielpunkt B fahren soll. Eine in dem Ballbot vorgesehene Navigationseinheit bestimmt zunächst eine kürzeste Fortbewegungsroute 20 von dem Startpunkt A zu dem Zielpunkt B. Der Ballbot 10 umfasst ferner eine Zustandsbestimmungseinheit, die dafür eingerichtet ist, einen internen Zustand des Ballbots 10 zu bestimmen. Auf Basis des bestimmten internen Zustands passt eine in dem Ballbot 10 vorgesehene Verhaltenssteuerungseinheit die Fortbewegungsroute und/oder die Fortbewegungsdynamik des Ballbots 10 an, um den internen Zustand des Ballbots 10 dem Benutzer darzustellen. Je nach dem bestimmten internen Zustand kann der Ballbot entweder der von der Navigationseinheit bestimmte Fortbewegungsroute 20 folgen, oder eine angepasste Fortbewegungsroute von dem Startpunkt A zu dem Zielpunkt B, wie z.B. eine in Figur 2 gezeigte Route 30, verwenden. Zudem kann die Fahrdynamik durch die Einstellung der Geschwindigkeit, der Beschleunigung und/oder der Gierrate des Ballbots 10 während der Fortbewegung auf der jeweiligen Fortbewegungsroute angepasst werden, um verschiedene interne Zustände des Ballbots darzustellen. Im Folgenden werden ein paar beispielhafte Szenarien gezeigt:

- Wenn der Ballbot sachlich d.h. mit geringer Emotionsausprägung ist, fährt er geradlinig auf der Route 20 ohne Fahrdynamikänderung. Die Körperhaltung ist gerade, aufrecht und „steif“; - Wenn der Ballbot einen hohen „Arousal“ hat, sich z.B. auf etwas freut, fährt er sehr dynamisch mit abwechselnden Beschleunigungen, Entschleunigungen auf einer angepassten kurvigen Fortbewegungsroute, was einen sehr energetischen Ausdruck vermittelt;

- Wenn der Ballbot „müde“ ist, fährt er langsamer und etwas torkelnder mit langsamen Fahrdynamikänderungen (ähnlich einem etwas betrunkenen Menschen auf einem Fahrrad); - Wenn der Ballbot sich „entspannt freut“, fährt er tanzend in regelmäßigen Schwingungen auf der geplanten Route. Zudem kann auch ausschließlich eine Bewegung eines Ballbots 100 initiiert oder angepasst werden, um einen internen Zustand des Ballbots 100 darzustellen. Beispielsweise dreht sich der Ballbot 100 mit einer bestimmten Gierrate auf einer gleichen Stelle, wenn er stolz ist. Oder wie in Figur 3 dargestellt, wackelt sich der Ballbot 100 auf einer Stelle hin und her, um seine Freude z.B. bei einem Wiedersehen auszudrücken.