Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
ARRANGEMENT FOR OBSTACLE DETECTION AND COLLISION WARNING
Document Type and Number:
WIPO Patent Application WO/2021/175641
Kind Code:
A1
Abstract:
The invention relates to an arrangement (AN) for detecting obstacles and for warning a user of a collision with an obstacle or object. The arrangement (AN) can be attached to a body part, in particular the head, of the user. This arrangement (AN) comprises at least one surroundings sensor (US), in particular an optical sensor unit, for detecting objects in the surroundings of a user and two sensor units (SI, S2) for detecting movement parameters of the user. The arrangement (AN) has a carrier unit (TE) to which at least the surroundings sensor (US) and the two sensor units (SI, S2) for detecting movement parameters are attached, wherein the two sensor units (SI, S2) are positioned symmetrically relative to a center axis of the carrier unit (TE). The arrangement (AN) furthermore has an analysis unit (AW) which is designed: - to analyze surroundings and/or object information captured by means of the surroundings sensor (US); - to determine movement information of the user on the basis of the movement parameters detected by means of the two sensor units (SI, S2); - and to aggregate the analyzed surroundings and/or object information together with the determined movement information and to derive instructions for the user therefrom. In addition, the arrangement (AN) comprises at least one output unit (AE), via which instructions in respect of an obstacle and/or warnings of a collision with an object in the surroundings can be output to the user.

Inventors:
KOGARD VALENTIN (AT)
PELZER ALEXANDER (AT)
WINTER RICHARD (AT)
Application Number:
PCT/EP2021/054353
Publication Date:
September 10, 2021
Filing Date:
February 22, 2021
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SIEMENS AG (DE)
International Classes:
G02C11/00; A61B5/11; G06F1/16; G06Q99/00
Domestic Patent References:
WO2017016941A12017-02-02
WO2014140843A12014-09-18
Foreign References:
CN109558870A2019-04-02
CN106291986A2017-01-04
CN108415905A2018-08-17
US20190068873A12019-02-28
US20190129176A12019-05-02
EP2490155A12012-08-22
EP2629242A12013-08-21
US20180218643A12018-08-02
CN109558870A2019-04-02
EP2508956B12013-10-30
EP3364263A12018-08-22
Attorney, Agent or Firm:
MAIER, Daniel (DE)
Download PDF:
Claims:
Patentansprüche

1. Anordnung zum Erkennen von Hindernisobjekten und zum War- nen vor Kollisionen mit Objekten, wobei die Anordnung (AN) an einem Körperteil, insbesondere einem Kopf eines

Anwenders, angebracht werden kann, und die Anordnung (AN) zumindest umfasst:

- einen Umgebungssensor (US) zum Erfassen von Objekten in einer Umgebung des Anwenders; zwei unabhängige Sensoreinheiten (S1, S2) zum Erfassen von Bewegungsparametern des Anwenders;

- eine Trägereinheit (TE), an welcher zumindest der Umge- bungssensor (US) angebracht ist und an welcher die zwei Sensoreinheiten (S1, S2) zum Erfassen von Bewegungspara- metern derart angebracht sind, dass sie symmetrisch zu einer Mittelachse der Trägereinheit (TE) positioniert sind;

- eine Auswerteeinheit (AW), welche dazu eingerichtet ist: o eine mittels des Umgebungssensors (US) erfasste Um- gebungs- und/oder Objektinformation auszuwerten; o auf Basis der mittels der zwei Sensoreinheiten (S1, S2) erfassten Bewegungsparameter eine Bewegungsin- formation des Anwenders zu ermitteln; o und die ausgewertete Umgebungs- und/oder Objektin- formation mit der ermittelten Bewegungsinformation zu aggregieren und daraus Hinweise für den Anwender ableiten; und zumindest eine Ausgabeeinheit (AE), welche derart einge- richtet ist, dass dem Anwender Hinweise ausgegeben wer- den können.

2. Anordnung nach Anspruch 1, dadurch gekennzeichnet, dass weiterhin die Auswerteeinheit (AW) dazu eingerichtet ist, ein Auswerten der erfassten Umgebungs- und/oder Objektin- formation, eine Ermittlung der Bewegungsinformation des Anwenders aus den erfassten Bewegungsparametern, eine Ag- gregation der ausgewerteten Umgebungs- und/oder Objektin- formation mit der ermittelten Bewegungsinformation und ein Ableiten der Hinweise für den Anwender in Echtzeit durchzuführen.

3. Anordnung nach einem der Ansprüche 1 bis 2, dadurch ge- kennzeichnet, dass die zwei Sensoreinheiten (S1, S2) zum Erfassen von Bewegungsparametern jeweils dazu eingerich- tet sind, als Bewegungsparameter zumindest jeweils Lage- werte, Beschleunigungswerte und Drehbewegungswerte für die Ermittlung der Bewegungsinformation des Anwenders zu erfassen.

4. Anordnung nach Anspruch 3, dadurch gekennzeichnet, dass die Auswerteeinheit (AW) zum Ermitteln der Bewegungsin- formation des Anwenders auf Basis der mittels der zwei Sensoreinheiten (S1, S2) erfassten Bewegungsparameter derart eingerichtet ist, dass auf Basis der Beschleuni- gungswerte, welche von jeder der zwei Sensoreinheiten (S1, S2) unabhängig voneinander erfasst werden, die Bewe- gungsinformation des Anwenders ermittelt wird, wobei mit Hilfe der von den zwei Sensoreinheiten (S1, S2) unabhän- gig voneinander erfassten Lagewerte eine Wirkung der Erd- beschleunigung aus den erfassten Beschleunigungswerten herausgerechnet wird, und dass die ermittelte Bewegungs- information nur dann zum Aggregieren mit der ausgewertete Umgebungs- und/oder Objektinformation genutzt wird, wenn von einem Wert, für dessen Bildung jeweils zumindest ein von jeder der zwei Sensoreinheiten (S1, S2) erfasster Drehbewegungswert verwendet wird, ein vordefinierter Grenzwert überschritten wird.

5. Anordnung nach einem der Ansprüche 1 bis 4, dadurch ge- kennzeichnet, dass die Auswerteeinheit (AW) dazu einge- richtet ist, aus den mittels der zwei Sensoreinheiten (S1, S2) erfassten Bewegungsparametern wiederholt in ei- nem vorgegebenen zeitlichen Abstand eine Bewegungsinfor- mation des Anwenders zu ermitteln.

6. Anordnung nach einem der Ansprüche 1 bis 5, dadurch ge- kennzeichnet, dass die Auswerteeinheit (AW) auf der Trä- gereinheit (TE) lösbar angebracht ist.

7. Anordnung nach einem der Ansprüche 1 bis 5, dadurch ge- kennzeichnet, dass die Auswerteeinheit (AW) als eigen- ständige Einheit ausgestaltet ist.

8. Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Umgebungssensor (US) und die zwei Sensoreinheiten (S1, S2) zum Erfassen von Bewe- gungsparametern über eine drahtgebundene Verbindung (VB) mit der Auswerteeinheit (AW) lösbar verbunden sind.

9. Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (AE) als akustische Ausgabeeinheit ausgestaltet ist, welche dazu eingerichtet ist, die Hinweise für den Anwender in Form von vordefinierten Audiotexten und/oder Warnsignalen aus- zugeben.

10.Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (AE) auf der Trägereinheit (TE) lösbar oder mit der Trägereinheit (TE) festverbunden angebracht ist.

11.Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Ausgabeeinheit (AE) über eine Kommunikationsverbindung mit der Auswerteeinheit (AW) verbunden ist.

12.Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Umgebungssensor (US) ei- nen optischen Sensor, insbesondere Kamera und/oder Wärme- kamera, umfasst.

13.Anordnung nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Trägereinheit (TE) als brillenförmig, helmförmig oder als Stirnband ausgestaltet sein kann.

Description:
Anordnung zur Hinderniserkennung und Kollisionswarnung

Technisches Gebiet

Die vorliegende Erfindung betrifft eine Anordnung zum Erken- nen von Hindernisobjekten und zum Warnen eines Anwenders vor einer Kollision mit einem Hindernisobjekt bzw. Objekt. Dabei kann die Anordnung an einem Körperteil, insbesondere dem Kopf, des Anwendern angebracht werden.

Stand der Technik

Im industriellen Umfeld, insbesondere in einem Industrie-4.0- Umfeld, gewinnt Augmented Reality (kurz: AR) in Kombination mit einer Zusammenarbeit zwischen Mensch und Maschine bzw. Roboter immer mehr an Bedeutung. Unter Augmented Reality bzw. erweiterter Realität wird eine computerunterstützte Erweite- rung der Realitätswahrnehmung, wobei darunter häufig nur eine visuelle Darstellung von Informationen - d.h. eine Ergänzung von Bildern und Videos mit computergenerierten Zusatzinforma- tionen oder virtuellen Objekten mittels Einblendung und/oder Überlagerung verstanden wird. Im Industriebereich kann AR beispielsweise in der Fertigung und Produktion (z.B. Abglei- chen digitaler Planungsdaten mit vorhandenen, realen Geomet- rien, Absicherungsmethoden durch Kombination von digitalen Planungsdaten mit realen Prototypen bzw. Konstruktionen, etc.), bei der Montage (z.B. Einblenden eines nächsten Ar- beitsschritts direkt ins Sichtfeld des jeweiligen Anwenders, etc.) oder in der Wartung (z.B. Einblenden von Plänen, etc.) eingesetzt werden. Dabei spielt die Mensch-Maschine- Kollaboration in der Zusammenarbeit mit Transportdrohen, selbstfahrenden, fahrerlosen Transportfahrzeugen - so genann- ten Automatic Guided Vehicles oder AGV - und Robotern in ver- schiedenen Anwendungen eine immer wichtiger werdende Rolle.

Insbesondere wenn so genannte Virtual Reality (VR)- Vorrichtungen (z.B. VR-Brille, VR-Headset, etc.) für AV- Anwendungen zum Einsatz kommen, kann die Umgebung zumindest teilweise, wenn nicht komplett ausgeblendet sein. Da die vir- tuelle Realität zumindest nur teilweise in Zusammenhang mit der tatsächlich den Anwender umgebenen Realität und den Ob- jekten stehen muss, kann ein Anwender von Augemented Realität bzw. ein Nutzer einer Virtual Reality-Vorrichtung, wie z.B. einer VR-Brille oder VR-Headset, nur bedingt erkennen, dass Objekte bzw. Hindernisse sich in seiner realen Umgebung be- finden bzw. sich in dieser bewegen, wie z.B. AGVs, Roboter- teil/-arme, etc. Daher ist es notwendig, Sicherheitskonzept zu entwickeln, durch welche Menschen, welche unter Nutzung von VR- und AV-Konzepten mit Maschinen (z.B. Robotern, Trans- portdrohen, AGVs) Zusammenarbeiten, vor möglichen Gefahren und Verletzungen durch Kollisionen mit Hindernisobjekte zu schützen.

Aus den Schriften EP 2490 155 Al, EP 2629 242 Al,

US 2018/0218643 Al oder WO 2014/140843 Al sind beispielsweise tragbare Vorrichtungen vorwiegend zur Unterstützung von seh- behinderten Menschen bekannt, welche über einen Sensor Bilder der Umgebung im Gesichtsfeld eines Anwenders aufnehmen. Diese Bilder werden mittels einer Verarbeitungseinheit klassifi- ziert bzw. mit in einer Datenbank abgespeicherten Bilder von Objekten, Personen, Gesten, Texten, etc. verglichen, um dem Anwender Informationen über erkannte Objekte, Personen, Ges- ten, Texten, etc. zur Verfügung zu stellen. Die beschriebene Vorrichtung weist allerdings den Nachteil auf, dass die Vor- richtung trainiert werden muss, um Objekten, Personen, Ges- ten, Texten, etc. zu erkennen und damit nur Informationen über bereits bekannte bzw. in der Datenbank hinterlegte Ob- jekte, Personen, etc. ausgeben kann. Allerdings kann mit der- artigen Vorrichtungen keine Annäherung zwischen einem mögli- chen Hindernisobjekt und dem Anwender - insbesondere in einer beliebigen Umgebung - festgestellt und damit keine sichere Kollisionswarnung des Anwenders vorgenommen werden. Weiterhin muss die Funktion der Vorrichtung vom Anwender mittels Knopf- drucks aktiviert werden, wodurch einen EchtZeiterkennung von etwaigen Hindernissen nicht gewährleistet ist. Aus der Schrift CN 109558 870 A ist beispielsweise eine tragbare Vorrichtung zur Hinderniserkennung und -Warnung, be- kannt, welche insbesondere als Brille ausgestaltet ist und sehbehinderte Menschen vor Hindernissen warnen kann. Diese tragbare Vorrichtung umfasst zumindest eine Kameraanordnung, welche aus zwei optischen Sensoren zum Sammeln von Umgebungs- informationen besteht, und eine Anzeigenanordnung zum Anzei- gen und Ausgeben von Informationen an den Benutzer. Die Kame- raanordnung wie die Anzeigenanordnung sind an einen Prozessor angebunden, von welchem die gesammelten Umgebungsinformatio- nen aufwertet werden und daraus ein Diagramm unter Verwendung eines Echtzeit-SLAM-Algorithmus sowie von Karten generiert wird, in welchem Hindernis in der Umgebung gemäß der Umge- bungsinformation angezeigt werden können. Optional kann die Vorrichtung auch einen Bewegungssensor aufweisen, um z.B. Be- wegungen des Benutzers erkennen zu können bzw. eine Stützde- tektion zu ermöglichen. Allerdings kann auch mit der aus der Schrift CN 109558 870 A bekannten Vorrichtung keine Annähe- rung zwischen einem möglichen Hindernisobjekt und dem Benut- zer - insbesondere in einer beliebigen Umgebung - festge- stellt und damit keine sichere Kollisionswarnung des Benut- zers vorgenommen werden.

Im Bereich der Industrie 4.0 gibt es beispielsweise - wie z.B. aus den Schriften EP 2508 956 Bl oder EP 3364 263 Al bekannt - Verfahren zur Kollisionsvermeidung zwischen selbst- fahrenden, fahrerlosen Transportfahrzeugen (AGVs) bzw. zur Überwachung eines Fahrweges derartiger Vehikel. Dabei sind allerdings die geplanten Fahrwege der AGVs innerhalb eines vorbestimmten Gebietes (z.B. Fabrikhalle, etc.) vorgegeben und werden auf Überschneidungen und Kollisionsgefahren unter- sucht, um bei einer Kollision z.B. durch Veränderung des Fahrwegs, Anhalten des AGVs, etc. zu vermeiden. Als Basis der Hinderniserkennung werden z.B. Laser, Barcodes, Magnetbänder, induktive Leiter oder die in einem übergeordneten System be- kannte Navigation der AGVs verwendet. Derartige Verfahren und Systeme sind daher nicht in einer beliebigen Umgebung ein- setzbar und bedürfen einer relativ genauen Fahrwegplanung. Weiterhin ist aus der Veröffentlichung „RUBIN Wissenschafts- magazine; Seite 28 bis 31; Nr. 2/2019" der Ruhr-Universität Bochum eine Augmented Reality-Anwendung bekannt, welche im Bauwesen bzw. in der Gebäudetechnik als digitaler Wartungs- helfer eingesetzt werden kann. Die dafür entwickelten Algo- rithmen sollen beispielsweise ermöglichen, dass der digitale Wartungshelfer, welcher z.B. in Form von so genannten „Smart Glasses" ausgeführt ist, künftig in Echtzeit und automatisch (d.h. ohne aktive Kalibrierung) erkennt, an welcher Position oder gesamten Gebäude er sich in einem Raum befindet. Dabei wird vom digitalen Wartungshelfer bzw. einem zugehörigen Al- gorithmus ein von einer Kamera aufgezeichnetes Bild mit einem digitalen Modell des Gebäudes verglichen. Damit weist der di- gitale Wartungshelfer allerdings ebenfalls den Nachteil auf, nicht in einer beliebigen Umgebung einsetzbar zu sein. Er kann beispielsweise nur in einer Umgebung bzw. in einem Ge- bäude für z.B. Planung oder Wartung genutzt werden, von wel- chem vorab ein dreidimensionales Modell erstellt wurde.

Darstellung der Erfindung

Der Erfindung liegt daher die Aufgabe zugrunde, eine Anord- nung anzugeben, durch welche in einer beliebigen Umgebung rasch und auf einfache Weise Hindernisse erkannt, ein Anwen- der der Anordnung vor Kollisionen mit diesen Hindernissen ge- warnt und dadurch Unfalls- und Verletzungsrisiko für den An- wender reduziert wird.

Diese Aufgabe wird durch eine Anordnung eingangs angeführter Art mit den Merkmalen gemäß dem unabhängigen Patentanspruch gelöst. Vorteilhafte Ausführungsformen der vorliegenden Er- findung sind in den abhängigen Ansprüchen beschrieben.

Erfindungsgemäß erfolgt die Lösung der Aufgabe durch eine An- ordnung, welche an einem Körperteil, insbesondere einem Kopf eines Anwenders, angebracht werden kann. Diese Anordnung um- fasst zumindest: - einen Umgebungssensor zum Erfassen von Objekten in einer Umgebung des Anwenders; zwei Sensoreinheiten, welche unabhängig voneinander Bewe- gungsparametern des Anwenders erfassen;

- eine Trägereinheit, an welcher zumindest der Umgebungs- sensor angebracht ist und an welcher die zwei Sensorein- heiten zum Erfassen von Bewegungsparametern derart ange- bracht sind, dass die zwei Sensoreinheiten symmetrisch zu einer Mittelachse der Trägereinheit positioniert sind;

- eine Auswerteeinheit, welche dazu eingerichtet ist: o eine mittels des Umgebungssensors erfasste Umgebungs- und/oder Objektinformation auszuwerten; o auf Basis der mittels der zwei Sensoreinheiten er- fassten Bewegungsparameter eine Bewegungsinformation des Anwenders zu ermitteln; o und die ausgewertete Umgebungs- und/oder Objektinfor- mation mit der ermittelten Bewegungsinformation zu aggregieren und daraus Hinweise für den Anwender ab- leiten; und zumindest eine Ausgabeeinheit, welche derart eingerichtet ist, dass dem Anwender Hinweise ausgegeben werden können.

Der Hauptaspekt der gegenständlichen Erfindung besteht darin, dass die erfindungsgemäße Anordnung rasch und ohne zusätzli- chen Aufwand in einer beliebigen Umgebung einsetzbar ist.

Dies wird insbesondere durch eine kombinierte Auswertung ei- ner Information über die Umgebung erreicht, welche mittels eines Umgebungssensor erfasst wird, und einer Bewegungsinfor- mation des Anwenders, welche auf Basis von mit Hilfe von zwei Sensoreinheiten erfassten Bewegungsparametern ermittelt wird. Dabei sind die zwei Sensoreinheiten symmetrisch zu einer Mit- telachse der Trägereinheit positioniert. Insbesondere bei ei- ner Trägereinheit, welche am Kopf des Anwenders tragbar ist (z.B. Brille, Stirnband, helmförmige Vorrichtung), können die zwei Sensoreinheiten zum Erfassen von Bewegungsparametern beispielsweise symmetrisch zu einer Drehachse des Kopfes um einen zum Körper des Anwenders senkrecht orientiert Achse auf der Trägereinheit positioniert sein. D.h. die Sensoreinheiten sind beim Tragen der Anordnung bzw. der Trägereinheit in Nähe bzw. bei den Ohren des Anwenders platziert und liegen damit annähernd symmetrisch bzw. im gleichen Abstand zur Drehachse des Kopfes, welche durch den ersten Halswirbel „Atlas" ver- läuft. Durch eine derartige Positionierung der Sensoreinhei- ten kann die Bewegungsinformation des Anwenders, welcher zu- erst für jede Sensoreinheit getrennt bestimmt und dann kombi- niert wird, mit einfachen Rechenoperationen ermittelt werden. Durch einen geringen Rechenaufwand kann die Anordnung damit energieschonend arbeiten.

Weiterhin muss die Anordnung nicht auf eine neue Umgebung an- gelernt bzw. trainiert werden, um Hindernisse zu erkennen und/oder den Anwender von möglichen Kollisionen zu warnen.

Die erfindungsgemäße Anordnung kann damit sehr einfach von sehbehinderten oder blinden Menschen verwendet werden, um sich z.B. in einer Umgebung zu orientieren oder Hindernisse in alltäglichen Leben zu erkennen bzw. Kollisionen mit Objek- ten zu vermeiden. Weiterhin kann die Anordnung sehr einfach in Kombination mit Virtual Reality- bzw. Augmented Reality- Anwendung im Bereich der Industrie 4.0 eingesetzt werden, um zu helfen Hindernisse z.B. im Bereich Entwicklung, Produktion und Fertigung zu erkennen und einen Benutzer der Anordnung vor diesen zu warnen. Dadurch kann ein Verletzungs- und Un- fallsrisiko auf einfache Weise reduziert werden.

Es ist weiterhin vorteilhaft, wenn die Auswerteeinheit der Anordnung dazu eingerichtet ist, ein Auswerten der erfassten Umgebungs- und/oder Objektinformation, eine Ermittlung der Bewegungsinformation des Anwenders aus den erfassten Bewe- gungsparametern, eine Aggregation der ausgewerteten Umge- bungs- und/oder Objektinformation mit der ermittelten Bewe- gungsinformation und ein Ableiten der Hinweise für den Anwen- der in Echtzeit durchführen kann. Damit kann ein Anwender der Anordnung rasch vor z.B. herannahenden Objekten (z.B. Maschi- nenteilen, wie z.B. Roboterarmen, AGV, etc.) gewarnt und eine Kollision rechtzeitig verhindert werden. Weiterhin erhält der Anwender immer zeitaktuell Informationen über Objekte bzw. Hindernisse in seiner aktuellen Umgebung.

Es ist weiterhin günstig, wenn die zwei Sensoreinheiten zum Erfassen von Bewegungsparametern jeweils dazu eingerichtet sind, als Bewegungsparameter zumindest jeweils Lagewerte, Be- schleunigungswerte und Drehbewegungswerte für die Ermittlung der Bewegungsinformation des Anwenders zu erfassen. Auf Basis dieser Werte kann eine Bewegungsinformation des Anwenders auf einfache Weise ohne manuellen Kalibrierungsaufwand und mit einer geringen Fehlerrate ermittelt werden. Weiterhin wird dadurch verhindert, dass beispielsweise pausenlos auf ent- sprechende Hindernisse hingewiesen wird, da auf Basis dieser als Bewegungsparameter erfassten Werte eine Bewegungsinforma- tion des Anwenders ermittelt werden kann, anhand welcher bei- spielsweise festgestellt werden kann, ob und in welche Rich- tung sich der Anwender bewegt.

Bei einer bevorzugten Ausgestaltung der Erfindung ist die Auswerteeinheit zum Ermitteln der Bewegungsinformation des Anwenders auf Basis der mittels der zwei Sensoreinheiten er- fassten Bewegungsparameter derart eingerichtet, dass auf Ba- sis der Beschleunigungswerte, welche von jeder der zwei Sen- soreinheiten unabhängig voneinander erfasst werden, die Bewe- gungsinformation des Anwenders ermittelt wird. Diese Bewe- gungsinformation kann beispielsweise in Form eines Bewegungs- oder Beschleunigungsvektors z.B. mit Betrag und Bewegungswin- kel in einem dreidimensionalen Raum angegeben werden, wobei der Betrag des Vektors z.B. angibt, ob sich der Anwender be- wegt, und der Bewegungswinkel z.B. eine Information liefert, in welche Richtung die Bewegung des Anwenders erfolgt. Dabei wird mit Hilfe der von den zwei Sensoreinheiten unabhängig voneinander erfassten Lagewerten eine Wirkung der Erdbe- schleunigung aus den erfassten Beschleunigungswerten heraus- gerechnet - d.h. die Erdbeschleunigung bzw. Gravitation wird von den Beschleunigungswerten, die von der jeweiligen Sen- soreinheit erfasst wird, abgezogen, um in einem „schwerlosen Raum" rechnen zu können und die Bewegungen des Anwenders un- abhängig von der wirkenden Erdanziehung darstellen zu können. Weiterhin wird die ermittelte Bewegungsinformation, insbeson- dere der auf Basis der Beschleunigungswerte der zwei Sen- soreinheiten ermittelte Bewegungswinkel, nur dann zum Aggre- gieren mit der ausgewertete Umgebungs- und/oder Objektinfor- mation genutzt, wenn von einem Wert, für dessen Bildung je- weils zumindest ein von jeder der zwei Sensoreinheiten er- fasster Drehbewegungswert verwendet wird, ein vordefinierter Grenzwert überschritten wird. Zum Erfassen von Drehbewegungs- werten kann jeder der zwei Sensoreinheiten einen Gyrosensor aufweisen, durch welchen Lageveränderungen und Drehbewegun- gen, insbesondere eine Drehbewegung des Kopfes des Anwenders festgestellt werden können. Nur wenn ein Wert, welcher auf Basis der von den beiden Sensoreinheiten erfassten Drehbewe- gungswerten ermittelt wurde, einen vordefinierten Grenzwert übersteigt, wird die ermittelte Bewegungsinformation, vor al- lem der ermittelte Bewegungswinkel, für die Aggregation ge- nutzt. Liegt dieser Wert unterhalb des vordefinierten Grenz- werts, so wird die Bewegungsinformation bzw. der Bewegungs- winkel auf einen Wert Null gesetzt, um z.B. Fehlmessungen, Störungen bei der Erfassung der Bewegungsparameter, fälschli- che Winkelausgaben, etc. zu vermeiden.

Idealerweise ist die Auswerteeinheit der Anordnung auch dazu eingerichtet ist, aus den mittels der zwei Sensoreinheiten erfassten Bewegungsparametern wiederholt in einem vorgegebe- nen zeitlichen Abstand eine Bewegungsinformation des Anwen- ders zu ermitteln. Die Bewegungsinformation kann beispiels- weise immer in einem zeitlichen Abstand von einigen Millise- kunden (z.B. 3 ms) bestimmt werden und damit die Bewegungsin- formation laufend an eine mögliche Bewegung des Anwenders an- gepasst.

Bei einer bevorzugten Ausgestaltung der erfindungsgemäßen An- ordnung ist die Auswerteeinheit auf der Trägereinheit mittels einer lösbaren Verbindung angebracht. Damit kann die Anord- nung auf einfache Weise an einem Körperteil - z.B. am Kopf - vom Anwender getragen werden. Alternativ kann die Auswer- teeinheit auch als eigenständige Einheit, welche an einer an- deren Position am Körper vom Anwender getragen werden kann, ausgeführt sein. Dadurch kann z.B. ein Gewicht und/oder eine Größe der Trägereinheit reduziert werden. Bei beiden Varian- ten ist die Auswerteeinheit mit dem Umgebungssensor und den beiden Sensoreinheiten zum Erfassen von Bewegungsparametern idealerweise über eine drahtgebundene Verbindung lösbar ver- bunden. Die drahtgebundene Verbindung dient für eine rasche Übertragung mit möglichst geringen zeitlichen Verlusten der vom Umgebungssensor bzw. den beiden Sensoreinheiten zum Er- fassen von Bewegungsparametern erfassten Daten und Informati- onen, sodass die Auswertung möglichst ohne zeitliche Verlust durchgeführt werden kann.

Eine zweckmäßige Ausgestaltung der Erfindung sieht vor, dass die Ausgabeeinheit als akustische Ausgabeeinheit ausgestaltet ist, über welche die Hinweise für den Anwender in Form von vordefinierten Audiotexten und/oder Warnsignalen ausgegebenen werden können. Die Ausgabeeinheit kann dazu beispielsweise einen Lautsprecherteil umfassen, über welche die vordefinier- ten Audiotexte und/oder Warnsignale bei Erkennen von Hinder- nissen oder einer Kollisionsgefahr ausgegeben werden. Weiter- hin ist es günstig, wenn die Ausgabeeinheit auf der Trä- gereinheit angebracht ist. Die Ausgabeeinheit kann dabei z.B. lösbar oder fest mit der Trägereinheit verbunden sein bzw. in die Trägereinheit integriert (z.B. integrierter Lautsprecher) sein. Zusätzlich kann die Ausgabeeinheit über eine drahtge- bundene oder drahtlose Kommunikationsverbindung mit der Aus- werteeinheit verbunden sein. Über die Kommunikationsverbin- dung können beispielsweise die vordefinierten Audiotexte und/oder Steuersignale und Anweisungen zum Ausgeben der vor- definierten Audiotexte bzw. von Warnsignalen übertragen wer- den.

Es ist weiterhin günstig, wenn der Umgebungssensor der Anord- nung einen optischen Sensor, insbesondere Kamera und/oder Wärmekamera, umfasst. Mittels des optischen Sensors kann auf einfache Weise laufend einen Umgebungs- und/oder Objektinfor- mation in Form von Bildinformationen aufgenommen werden, wel- che z.B. von der Auswerteeinheit mit Hilfe einer Objekterken- nungssoftware auf einfache Weise ausgewertet wird. Alternativ kann der Umgebungssensor auch einen Radar- oder Ultra- schallsensor zum Erfassen einer Umgebungs-/Objektinformation aufweisen. Derartige Sensoren weisen allerdings gegenüber ei- nem optischen Sensor, insbesondere einer Kamera, den Nachteil auf, dass farbliche und/oder physikalische Eigenschaften von erfassten Objekten nicht differenziert und auch z.B. einfache Linien nicht detektiert werden können.

Es ist besonders von Vorteil, wenn die Trägereinheit bei- spielsweise brillenförmig, helmförmig oder als Stirnband aus- gestaltet ist. Derartige Ausgestaltungen können von einem An- wender auf einfache Weise am Kopf angebracht und getragen werden. Weiterhin sind derartige Trägereinheit z.B. einfach auf Kunststoff herstellbar bzw. bereits verfügbar. Vor allem bei einer brillenförmigen Trägereinheit kann z.B. eine be- reits für andere Anwendungen genutzte Brille (z.B. VR-Brille) für die erfindungsmäßige Anordnung mitbenutzt werden.

Kurzbeschreibung der Zeichnung

Die Erfindung wird nachfolgend in beispielhafter Weise anhand der beigefügten Figuren erläutert. Dabei zeigen:

Figur 1 beispielhaft und schematisch einen Aufbau der erfin- dungsgemäßen Anordnung zum Erkennen von Hindernisob- jekten und zum Warnen eines Anwenders vor Kollisionen

Figur 2 schematisch und beispielhaft eine vorteilhafte Aus- führungsform der erfindungsgemäßen Anordnung zum Er- kennen von Hindernisobjekten und zum Warnen eines An- wenders vor Kollisionen

Ausführung der Erfindung Figur 1 zeigt beispielhaft in schematischer Weise einen Auf- bau der erfindungsgemäßen Anordnung AN zum Erkennen von Hin- dernisobjekten in einer Umgebung eines Anwenders bzw. zum Warnen eines Anwenders vor möglichen Kollisionen mit zumin- dest einem Objekt. Die Anordnung kann dazu mittels einer Trä- gereinheit TE an einem Körperteil, insbesondere einem Kopf des Anwenders angebracht werden. Dazu kann die Trägereinheit TE beispielsweise brillenförmig, helmförmig oder in Form ei- nes Stirnbandes ausgestaltet sein. Es sind allerdings auch andere Ausführungsformen der Trägereinheit TE denkbar, welche in vorteilhafter Weise ein einfaches Anbringen der erfin- dungsgemäßen Anordnung AN an einem Körperteil des Anwenders, vor allem dem Kopf, ermöglichen.

Weiterhin umfasst die Anordnung AN zumindest einen Umgebungs- sensor US sowie zwei Sensoreinheiten S1, S2 zum Erfassen von Bewegungsparametern des Anwenders. Der Umgebungssensor US und die zwei Sensoreinheiten S1, S2 zum Erfassen von Bewegungspa- rametern sind dazu an der Trägereinheit TE angebracht.

Mit dem Umgebungssensor US können Objekte in der Umgebung des Anwenders erfasst werden. Dazu umfasst der Umgebungssensor US zumindest einen optischen Sensor, wie z.B. eine Kamera und/oder Wärmekamera. D.h. der Umgebungssensor US erfasst mit dem optischen Sensor z.B. laufend eine optische Information der Umgebung und/oder der Objekte in der Umgebung des Anwen- ders. Bei einer vorteilhaften Ausführungsform der Anordnung AN, bei welcher die Trägereinheit TE am Kopf des Anwenders anbringbar ist, kann der Umgebungssensor US derart an der Trägereinheit TE angeordnet sein, dass der Umgebungssensor US beispielsweise auf der Stirn bzw. über zumindest einem Auge oder in der Nähe eines Auges des Anwenders positioniert ist.

Die beiden Sensoreinheiten S1, S2 zum Erfassen von Bewegungs- parametern des Anwenders sind ebenfalls an der Trägereinheit TE angebracht. Bei einen am Kopf getragenen Trägereinheit TE (z.B. Brille, Stirnband, helmförmige Vorrichtung) können die Sensoreinheiten S1, S2 symmetrisch zu einer Mittelachse der Trägereinheit TE angeordnet sein, wobei die Positionierung derart gewählt wird, dass beim Tragen der Anordnung AN durch den Anwender die Sensoreinheiten S1, S2 möglichst nahe bei den Ohren positioniert sind. D.h. eine erster Sensoreinheit

51 kommt z.B. beim linken Ohr und eine zweite Sensoreinheit

52 z.B. beim rechten Ohr des Anwenders zum Liegen. Da die Sensoreinheiten S1, S2 sich bei einer derartigen Positionie- rung annähernd auf einer Drehachse des Kopfes über dem ersten Halswirbel Altas befinden, kann eine Bewegung des Anwenders bzw. eine Bewegungsinformation des Anwenders ohne großen Re- chenaufwand detektiert bzw. ermittelt werden. Weiterhin sind die erste Sensoreinheit S1 wie die zweite Sensoreinheit S2 dazu eingerichtet, für eine Detektion der Bewegung des Anwen- ders laufend Bewegungsparameter - wie beispielsweise Lagewer- te, Beschleunigungswerte und Drehbewegungswerte - unabhängig voneinander zu erfassen. D.h. die erste wie die zweite Sen- soreinheit S1, S2 erfasst jeweils die von ihr festgestellten Bewegungsparameter. Als erste und zweite Sensoreinheiten S1, S2 können beispielsweise am Markt verfügbare Bewegungs- oder Beschleunigungssensoreinheiten verwendet werden, welche bei- spielsweise einen Beschleunigungssensor zum Erfassen von Be- schleunigungswerten, einen Lagesensor zum Erfassen von Lage- werten und einen Gyrosensor zum Erfassen von Lageveränderun- gen und Drehbewegungen als Drehbewegungswerte aufweisen.

Weiterhin umfasst die erfindungsgemäße Anordnung AN eine Aus- werteeinheit AW, welche für eine Übertragung der mit dem Um- gebungssensor US und den zwei Sensoreinheiten S1, S2 erfass- ten Information, Daten und Parametern eine drahtgebundene Verbindung aufweist, welche als lösbare Verbindung (z.B. Steckverbindung, Kabelverbindung zum Einstecken, etc.) ausge- staltet sein kann. Die Auswerteeinheit AW kann beispielsweise lösbar auf der Trägereinheit TE angebracht sein kann. D.h. die Auswerteeinheit AW kann z.B. mittels einer Steckverbin- dung, welche auch die Verbindung zum Umgebungssensor US und den zwei Sensoreinheiten S1, S2 herstellt, auf der Trägerein- heit lösbar angebracht werden. Alternativ kann die Auswer- teeinheit AW z.B. als eigenständige Einheit ausgestaltet sein, welche beispielsweise über eine Kabelsteckverbindung mit der Trägereinheit TE bzw. den darauf angebrachten Sen- soreinheiten S1, S2 und dem Umgebungssensor US verbunden wird, und vom Anwender z.B. an einer beliebigen Stelle am Körper (z.B. Gürtel, Jackentasche, etc.) getragen werden kann.

Die Auswerteeinheit AW ist außerdem dazu eingerichtet, die Objekt- und/oder Umgebungsinformation, welche vom Umgebungs- sensor US erfasst wird, auszuwerten. Dazu kann von der Aus- werteeinheit AW beispielsweise eine Objekterkennungssoftware eingesetzt werden. Bei der Auswertung kann z.B. eine Annähe- rung zwischen einem Objekt bzw. Hindernisobjekt und dem An- wender erkannt werden.

Weiterhin ist die Auswerteeinheit AW dazu eingerichtet, auf Basis der laufende erfassten Bewegungsparameter - z.B. Lage- werte, Beschleunigungswerte und Drehbewegungswerte - eine Be- wegungsinformation des Anwenders zu ermitteln. Dazu wird zu- erst auf Basis der Beschleunigungswerte, welche von jeder der zwei Sensoreinheiten S1, S2 unabhängig voneinander erfasst werden, die Bewegungsinformation ermittelt. Dabei kann bei- spielsweise zuerst eine Bewegungsinformation für die erste Sensoreinheit S1 und eine Bewegungsinformation für die zweite Sensoreinheit S2 getrennt voneinander bestimmt werden. Diese Bewegungsinformationen können beispielsweise in Form eines Bewegungs- oder Beschleunigungsvektors z.B. durch Vektorlänge bzw. Betrag und Angabe eines Bewegungswinkels in einem 3- dimensionalen Koordinatensystem angegeben werden. Für die Be- stimmung der Bewegungsinformationen der ersten und der zwei- ten Sensoreinheit S1, S2 wurden mit Hilfe der von der jewei- ligen Sensoreinheit S1, S2 erfassten Lagewerte eine Erdbe- schleunigung bzw. Gravitation aus den jeweils erfassten Be- schleunigungswerten herausgerechnet, um eine Bewegung des An- wenders unabhängig von der wirkenden Erdanziehung darzustel- len. Die für die zwei Sensoreinheiten S1, S2 getrennt ermit- telte Bewegungsinformationen werden dann miteinander kombi- niert, um eine Gesamtbewegungsinformation der Anordnung AN für die Weiterverarbeitung durch die Auswerteeinheit zu AW erhalten.

Im einfachsten Fall können beispielsweise die Bewegungsinfor- mation der ersten Sensoreinheit S1 und die Bewegungsinforma- tion der zweiten Sensoreinheit S2 addiert und gemittelt wer- den. D.h. es werden beispielsweise die Beträge der für die zwei Sensoreinheiten ermittelten Bewegungs- oder Beschleuni- gungsvektoren addiert und gemittelt und die zugehörigen Win- kelangaben entsprechend zusammengeführt und z.B. von Radiant in Grad umgerechnet. In der Bewegungsinformation ist dann beispielsweise durch die Vektorlänge bzw. den Betrag die In- formation enthalten, ob der Anwender bzw. die Anordnung AN sich bewegt. Die Angabe des Bewegungswinkels im dreidimensio- nalen Raum bzw. Koordinatensystem gibt beispielsweise an, in welche Richtung diese Bewegung durchgeführt wird. Idealer- weise werden zur Ermittlung der Bewegungsinformation Mittel- werte über eine vorgebbare Anzahl an von der jeweiligen Sen- soreinheit S1, S2 erfassten Beschleunigungs- und Lagewerten gebildet (z.B. ein Mittelwert über die letzten 25 erfassten Werte) und die Bewegungsinformation auf Basis dieser Mittel- werte bestimmt, damit einzelne Fehlmessungen (z.B. Peaks) der Sensoreinheiten S1, S2 nicht zu gravierenden Fehlern in der Auswertung führen.

Die Ermittlung der Bewegungsinformation kann beispielsweise laufend in einem zeitlich vorgegebenen Abstand (z.B. alle 3 Millisekunden) wiederholt werden. Auf diese Weise kann rasch auf eine Veränderung in der Umgebung und/oder Bewegungsverän- derung des Anwenders reagiert werden.

Um eine fälschliche Winkelausgabe bzw. eine fälschliche Win- kelangabe in der Bewegungsinformation zu vermeiden, werden von der Auswerteeinheit AW die von den zwei Sensoreinheiten S1, S2 erfassten Drehbewegungswerte verwendet. Dazu kann bei- spielsweise aus zumindest jeweils einem Drehbewegungswert der erste Sensoreinheit S1 und zumindest jeweils einem Drehbewe- gungswert der zweiten Sensoreinheit S2 ein Wert (z.B. Mittel- wert) gebildet werden. Dieser Wert wird dann mit einem vorde- finierten Grenzwert verglichen. Wird dieser Grenzwert vom aus den Drehbewegungswerten gebildeten Wert überschritten, so wird die Bewegungsinformation, insbesondere die ermittelte Winkelangabe für eine Weiterverarbeitung durch die Auswer- teeinheit AW genutzt. Wird dieser Grenzwert vom aus den Dreh- bewegungswerten gebildeten Wert nicht überschritten, so wird die Bewegungsinformation bzw. die ermittelte Winkelangabe z.B. auf den Wert Null gesetzt. Der vordefinierte Grenzwert kann einerseits statisch - beispielsweise auf Basis von Er- fahrungswerten - festgelegt werden oder andererseits dyna- misch ermittelt werden. Bei einer dynamischen Ermittlung kann z.B. ein Mittelwert über eine vorgegebenen Anzahl an Drehbe- wegungswerten (z.B. über die letzten 100 Werte) der beiden Sensoreinheiten S1, S2 gebildet werden. Dadurch wird der Grenzwert beispielsweise langsam an einen neuen Grenzwert an- gepasst.

Die ausgewertete Umgebungs- und/oder Objektinformation wird dann mit der ermittelten Bewegungsinformation des Anwenders von der Auswerteeinheit AW verknüpft bzw. aggregiert werden. Dabei kann beispielsweise die Bewegungsinformation nur dann verarbeitet werden, wenn z.B. anhand der ausgewerteten Umge- bungs- und/oder Objektinformation festgestellt wird, dass ei- ne Annäherung zwischen einem Objekt und dem Anwender vor- liegt. Eine Auswertung der mit dem Umgebungssensor US erfass- ten Umgebungs- und/oder Objektinformation und eine Ermittlung der Bewegungsinformation des Anwender auf Basis der von den Sensoreinheiten S1, S2 erfassten Bewegungsparameter erfolgt parallel und in Echtzeit. Die Aggregation und Verarbeitung von ausgewertete Umgebungs- und/oder Objektinformation und ermittelter Bewegungsinformation des Anwenders durch die Aus- werteeinheit AW erfolgt ebenfalls in Echtzeit. Aus der Aggre- gation der ausgewertete Umgebungs- und/oder Objektinformation und der ermittelten Bewegungsinformation des Anwenders kann von der Auswerteeinheit AW ein Hinweis für den Anwender aus- gegeben werden, dass z.B. ein Hindernisobjekt vorhanden ist, eine Kollisionsgefahr mit einem Objekt besteht, etc. Für die Ausgabe von Hinweisen umfasst die Anordnung AN wei- terhin zumindest eine Ausgabeeinheit AE. Die Ausgabeeinheit AE kann beispielsweise als akustische Ausgabeeinheit AE aus- gestaltet sein, über welche Hinweise zu in der Umgebung be- findlichen Hindernissen und/oder Objekten in Form von vorge- fertigten Audiotexten ausgegeben werden können, durch welche z.B. dem Anwender verbal Hindernisobjekt- bzw. Gefahrenposi- tionen beschrieben werden können. Alternativ oder zusätzlich, können z.B. bei Kollisionsgefahr des Anwenders mit einem Ob- jekt Warnsignale über die Ausgabeeinheit AE ausgegebenen wer- den. Die Ausgabeeinheit AE kann beispielsweise ebenfalls auf der Trägereinheit TE festverbunden - z.B. in Form von inte- grierten Kopfhörern - oder lösbar - z.B. als lösbar anbring- bare Kopfhörer - angebracht sein. Alternativ kann die Ausga- beeinheit als eigenständige Einheit (z.B. tragbare Lautspre- chereinheit, etc.) ausgeführt sein, welche über eine drahtge- bundene oder drahtlose Kommunikationsverbindung (z.B. Kabel, Funk, etc.) mit der Auswerteeinheit AW verbindbar ist. Über die Kommunikationsverbindung können beispielsweise Steuersig- nalen zur Ausgabe der Hinweise und/oder zum Übertragen von Daten (z.B. vordefinierte Audiotexte, etc.) von der Auswer- teeinheit AW zur Ausgabeeinheit AE übertragen werden. Es ist weiterhin denkbar, dass die Ausgabeeinheit AE mit der Auswer- teeinheit AW festverbunden oder in diese integriert ist - z.B. in Form einer in die Auswerteeinheit integrierten Laut- sprechereinheit .

In Figur 2 ist beispielhaft und schematisch eine besonders vorteilhafte Ausführungsform der erfindungsgemäßen Anordnung AN zum Erkennen von Hindernisobjekten und zum Warnen eines Anwenders vor Kollisionen dargestellt. Die Trägereinheit TE weist dabei eine Brillenform auf, auf welcher zumindest der Umgebungssensor US und die zwei Sensoreinheiten S1, S2 zum Erfassen von Bewegungsparametern angebracht sind. Der Umge- bungssensor US ist dabei z.B. an einem linken oder rechten Außenrand der Brillenform bzw. des Augenteils der Brillenform derart angebracht, dass der Umgebungssensor beim Tragen der brillenförmigen Trägereinheit TE in der Nähe eines der Augen des Anwenders positioniert ist. Alternativ könnte der Umge- bungssensor US aus zwischen den Augen des Anwenders z.B. in der Mittelachse M über dem Nasenteil der brillenförmigen Trä- gereinheit TE positioniert sein.

Die beiden Sensoreinheiten S1, S2 zum Erfassen der Bewegungs- parameter sind z.B. symmetrisch zur Mittelachse M der bril- lenförmigen Trägereinheit TE z.B. seitlich an den Bügeln der Brillenform positioniert. Dabei ist eine Position der jewei- ligen Sensoreinheit S1, S2 derart gewählt, dass beim Tragen der brillenförmigen Trägereinheit TE die erste Sensoreinheit S1 z.B. annähernd beim linken Ohr und die zweite Sensorein- heit S2 annähernd beim rechten Ohr des Anwenders platziert ist.

Weiterhin kann beispielsweise in der brillenförmigen Trä- gereinheit TE eine Führungsrille vorgesehen sein, in welcher eine Verbindung VB von den zwei Sensoreinheiten S1, S2 und gegebenenfalls von dem Umgebungssensor US zur Auswerteeinheit AW angebracht werden kann. Die Auswerteeinheit AW kann eben- falls an der Trägereinheit TE z.B. über eine Steckverbindung angebracht sein oder - wie beispielhaft in Figur 2 darge- stellt - als eigenständige Einheit ausgestaltet sein.

Die beispielhaft dargestellt Auswerteeinheit AW kann bei- spielweise zum Auswerten der vom Umgebungssensor US erfassten Umgebungs- und/oder Objektinformation ein Objekterkennungsmo- dul OM aufweisen, welches die erfasste Umgebungs- und/oder Objektinformation in Bezug darauf auswertet, welche Objekte beispielweise erfasst wurden und/oder ob z.B. zwischen zumin- dest einem der mit dem Umgebungssensor US erfassten Objekte und dem Anwender einen Annäherung besteht. Dazu kann vom Ob- jekterkennungsmodul OM beispielsweise bei Verwendung eine Ob- jekterkennungssoftware eingesetzt werden bzw. eine Auswertung der Pixel der erfassten Umgebungs- und/oder Objektinformation durchgeführt werden, wenn der Umgebungssensor US einen opti- sehen Sensor, insbesondere eine Kamera, zum Erfassen dieser Information aufweist.

Für die Ermittlung der Bewegungsinformation des Anwenders auf Basis der laufend von den zwei Sensoreinheiten S1, S2 erfass- ten Bewegungsparameter, wie z.B. Lagewerten, Beschleunigungs- werten und Drehbewegungswerten, kann die Auswerteeinheit ein Beschleunigungsmodul BM aufweisen. Vom Beschleunigungsmodul M werden beispielsweise auf Basis der von der jeweiligen Sen- soreinheit S1, S2 erfassten Beschleunigungswerte Sensorein- heiten-spezifisch Bewegungsinformationen ermittelt. Dabei werden die von der jeweiligen Sensoreinheit S1, S2 erfassten Beschleunigungswerten in einen „schwerlosen Raum" umgerechnet bzw. mit Hilfe der von der jeweiligen Sensoreinheit S1, S2 erfassten Lagewerte die Gravitation aus dem jeweiligen er- fassten Beschleunigungswert herausgerechnet. Dann wird für jede Sensoreinheit S1, S2 eine Bewegungsinformation z.B. in Form eines Bewegungs- oder Beschleunigungsvektors (z.B. be- stehend aus Betrag bzw. Vektorlänge und Bewegungswinkel) er- mittelt, wobei dabei ein Mittelwert der Beschleunigungswerte je Sensoreinheit S1, S2 über eine vorgebbare Anzahl an Werten (z.B. die letzten 25 erfassten Werte) verwendet wird. Die Sensoreinheiten-spezifische Bewegungsinformation wird dann zu einer Gesamtbewegungsinformation zusammengeführt, welche an- gibt, ob der Anwender bzw. die Anordnung AN sich bewegt und in welche Richtung diese Bewegung durchgeführt wird. Anhand der von den Sensoreinheiten S1, S2 jeweils getrennt erfassten Drehbewegungswerten wird dann beispielsweise festgestellt, ob die ermittelte Bewegungsinformation, insbesondere der ermit- telte Bewegungswinkel, für eine weiterführende Verarbeitung in der Auswerteeinheit AW verwendet wird oder nicht. Dazu wird ein Wert, welcher aus den Drehbewegungswerten der zwei Sensoreinheiten S1, S2 gebildet wird, mit einem vorgegebenen Grenzwert verglichen. Für diesen Wert werden z.B. zuerst Sen- soreinheiten-spezifisch aus den Drehbewegungswerten, welche von der jeweiligen Sensoreinheit S1, S2 erfasst wurden, Mit- telwerte (z.B. über die letzten 25 erfassten Werte) gebildet und dann aus den beiden Mittelwerten der Wert z.B. als arith- metisches Mittel berechnet. Nur bei Überschreiten des Grenz- wertes durch den aus den Drehbewegungswerten gebildeten Wert wird die Bewegungsinformation weiterverwendet bzw. nicht auf den Wert Null gesetzt.

Das Objekterkennungsmodul OM und das Beschleunigungsmodul BM verarbeiten die vom Umgebungssensor US bzw. von den beiden Sensoreinheiten S1, S2 erfassten Informationen, Daten und/oder Parameter z.B. parallel und in Echtzeit.

Für die Aggregation und Weiterverarbeitung der vom Objekter- kennungsmodul OM ausgewertete Umgebungs- und/oder Objektin- formation und der vom Beschleunigungsmodul BM ermittelten Be- wegungsinformation kann die Auswerteeinheit AW ein Aggregati- onsmodul AM umfassen, welches die Datenaggregation und Verar- beitung beispielsweise ebenfalls in Echtzeit durchführt und daraus Hinweise für den Anwender ableitet.

Weiterhin weist die in Figur 2 dargestellte, bevorzugte Aus- führungsform der Anordnung AN eine Ausgabeeinheit AE auf, welche z.B. als akustische Ausgabeeinheit AE ausgeführt sein kann und z.B. einen Lautsprecherteil umfasst. Diese kann ent- weder an der Trägereinheit TE lösbar oder festverbunden ange- bracht sein oder als eigene Einheit ausgestaltet sein, wobei die Ausgabeeinheit AE über eine drahtgebundene oder drahtlose Kommunikationsverbindung zur Auswerteeinheit AW verfügt. Bei einer an der Trägereinheit TE angebrachten Ausgabeeinheit AE kann beispielsweise die Ausgabeeinheit AE oder zumindest der zugehörige Lautsprecherteil zumindest bei einer der zwei Sen- soreinheiten S1, S2 und damit in der Nähe eines der Ohren des Anwenders positioniert sein. Über die Kommunikationsverbin- dung können von der Auswerteeinheit AW z.B. bei einem festge- stellten Gefahrenfall oder festgestellter Kollisionsgefahr Steuersignale und Daten für eine Ausgabe von Hinweisen für den Anwender übertragen werden. Die Hinweise können dann z.B. verbal in Form von vordefinierten Audiotexten oder in Form von Warnsignalen dem Anwender über einen Lautsprecherteil der Ausgabeeinheit AE ausgegeben werden. Ein wie in Figur 2 dargestellte Ausführungsform der erfin- dungsgemäßen Anordnung AN, aber auch alternative Ausführungs- formen, bei welchen die Trägereinheit TE z.B. als Stirnband, helmförmig oder in einer anderen, insbesondere am Kopf ein- fach anbringbaren Form ausgeführt ist, kann beispielsweise im Industriebereich eingesetzt werden, um z.B. im Bereich der Produktentwicklung und Fertigung, vor allem bei der Mensch- Maschine bzw. Roboter-Kollaboration, zu helfen, Hindernisse zu erkennen und den Anwender der erfindungsgemäßen Anordnung vor diesen zu warnen und dadurch ein Verletzungsrisiko und Unfallrisiko zu reduzieren. Weiterhin kann die erfindungsge- mäße Anordnung beispielsweise auch von sehbehinderten oder blinden Menschen verwendet werden, um sich z.B. in einer Um- gebung zu orientieren oder Hindernisse in alltäglichen Leben insbesondere in Echtzeit zu erkennen.