Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SYSTEM AND METHOD FOR PROCESSING VALUE DOCUMENTS
Document Type and Number:
WIPO Patent Application WO/2016/188627
Kind Code:
A1
Abstract:
The invention relates to a system and a corresponding method for processing value documents, in particular banknotes (BN), comprising a device (1) for processing value documents, in particular for transporting and/or checking and/or counting and/or sorting value documents, and comprising a portable user interface (10, 20) which is designed to receive information (13, 23) relating to the device (1) and/or the processing of the value documents, to detect one or more images, in particular of the device (1), and to reproduce the received information (13, 23) and/or the detected images.

Inventors:
SCHMIDT ALFRED (DE)
STAPFER MICHAEL (DE)
HERTEL MANFRED (DE)
LANGLOTZ MATTHIAS (DE)
EISEN BERNHARD (DE)
Application Number:
PCT/EP2016/000848
Publication Date:
December 01, 2016
Filing Date:
May 20, 2016
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
GIESECKE & DEVRIENT GMBH (DE)
International Classes:
G07D11/00
Foreign References:
DE102012014995A12014-01-30
DE102012219814A12014-04-30
US6771294B12004-08-03
Other References:
None
Download PDF:
Claims:
P a t e n t a n s p r ü c h e

System zur Bearbeitung von Wertdokumenten, insbesondere Banknoten (BN), mit einer Vorrichtung (1) zum Bearbeiten, insbesondere zum Befördern und/ oder Prüfen und/ oder Zählen und/ oder Sortieren, von Wertdokumenten, und einer tragbaren Benutzerschnittstelle (10, 20), welche dazu ausgebildet ist,

- Informationen (13, 23), welche die Vorrichtung (1) und/ oder die Bearbeitung der Wertdokumente betreffen, zu empfangen,

- ein oder mehrere Bilder, insbesondere von der Vorrichtung (1), zu erfassen und

- die empfangenen Informationen (13, 23) und/ oder erfassten Bilder wiederzugeben.

System nach Anspruch 1, wobei die tragbare Benutzerschnittstelle (10, 20) dazu ausgestaltet ist, eine Eingabe und/ oder Auswahl von Informationen, insbesondere zur Steuerung der Vorrichtung (1), durch eine Bedienperson zu ermöglichen.

System nach Anspruch 1 oder 2, wobei die tragbare Benutzerschnittstelle (10) eine am Kopf einer Bedienperson anbringbare Anzeigeeinrichtung (12), insbesondere in der Form einer Brille, aufweist, welche dazu ausgebildet ist, die empfangenen Informationen (13) in zumindest einem Teil des Gesichtsfeldes der Bedienperson visuell wiederzugeben.

System nach Anspruch 3, wobei die tragbare Benutzerschnittstelle (10) eine Kamera (11) aufweist, welche dazu ausgebildet ist, Bilder von im Gesichtsfeld der Bedienperson befindlichen Objekten zu erfassen. System nach Anspruch 3 oder 4, wobei die tragbare Benutzerschnittstelle (10) dazu ausgebildet ist, in den erfassten Bildern eine von der Bedienperson ausgeübte Geste, insbesondere eine Handgeste (14), zu erkennen und daraus entsprechende Informationen, insbesondere zur Steuerung der Vorrichtung (1), abzuleiten.

Vorrichtung nach Anspruch 5, wobei die tragbare Benutzerschnittstelle (10) dazu ausgebildet ist, im Gesichtsfeld der Bedienperson ein Eingabeschema (15), insbesondere in Form einer Tastatur oder von Symbolen, wiederzugeben, und in den erfassten Bildern eine von der Bedienperson in Bezug auf das wiedergegebene Eingabeschema ausgeübte Geste (14) einer Eingabe- und/ oder Auswahl zu erkennen und daraus entsprechende Informationen, insbesondere zur Steuerung der Vorrichtung (1), abzuleiten.

Vorrichtung nach Anspruch 6, wobei die tragbare Benutzerschnittstelle (10) eine Projektionseinrichtung aufweist, welche dazu ausgebildet ist, das Eingabeschema (15) auf eine Fläche, insbesondere eine Hand der Bedienperson oder eine Fläche in der Umgebung der Bedienperson, zu projizieren.

System nach einem der Ansprüche 3 bis 7, wobei die tragbare Benutzerschnittstelle (10) dazu ausgebildet ist, ein Bild von einem im Gesichtsfeld der Bedienperson befindlichen Objekt (16), insbesondere einem Wertdokument, einem Transportbehälter für Wertdokumente oder einer Trennkarte, zu erfassen und anhand des erfassten Bildes eine auf dem Objekt (16) befindliche Zusatzinformation (17) zu ermitteln.

9. System nach Anspruch 1 oder 2, wobei die tragbare Benutzerschnittstelle (20) als ein mobiles Endgerät, insbesondere als Tablet-Computer oder Smartphone, ausgestaltet ist, welches dazu ausgebildet ist, mindestens ein Bild von der Vorrichtung (1) zu erfassen und die empfangenen Informationen (23), welche die Vorrichtung (1) und/ oder die Bearbeitung der Wertdokumente betreffen, zusammen mit dem erfassten Bild der Vorrichtung (1) wiederzugeben.

10. Verfahren zur Bearbeitung von Wertdokumenten, insbesondere Banknoten (BN), bei welchem

- Wertdokumente in einer Vorrichtung (1) bearbeitet, insbesondere befördert und/ oder geprüft und/ oder gezählt und/ oder sortiert, werden,

- Informationen (13, 23), welche die Vorrichtung (1) und/oder die Bearbeitung der Wertdokumente betreffen, von einer tragbaren Benutzerschnittstelle (10, 20) empfangen werden,

- ein oder mehrere Bilder, insbesondere von der Vorrichtung (1), von der tragbaren Benutzerschnittstelle (10, 20) erfasst werden und

- die empfangenen Informationen (13, 23) und/ oder erfassten Bilder von der tragbaren Benutzerschnittstelle (10, 20) wiedergegeben werden.

Description:
System und Verfahren zur Bearbeitung von Wertdokumenten

Die Erfindung betrifft ein System und ein Verfahren zur Bearbeitung von Wertdokumenten, insbesondere Banknoten, gemäß den unabhängigen Ansprüchen. In Banknotenbearbeitungssystemen werden Banknoten hinsichtlich verschiedener Eigenschaften, wie z.B. Druckbild, Stückelung, Echtheit und Zustand, geprüft und abhängig vom Ergebnis der Prüfung unterschiedlich behandelt. Beispielsweise werden bei der Prüfung als echt eingestufte Banknoten wieder in den Umlauf gegeben, sofern diese gleichzeitig bestimmte Fit- nesskriterien erfüllen. Dagegen werden als unecht oder fälschungsverdächtig eingestufte Banknoten aus dem Verkehr gezogen und verschmutzte, abgenutzte oder defekte Banknoten einem Schredder zur Vernichtung zugeführt. Trotz des hohen Automatisierungsgrades bei der Bearbeitung von Banknoten ist in der Regel eine Interaktion zwischen einer Bedienperson und dem Banknotenbearbeitungssystem erforderlich, um z.B. den Betriebszustand des Systems oder die Bearbeitung der Banknoten zu überwachen und gegebenenfalls Steuerungsbefehle zur Steuerung der Bearbeitung eingeben zu kön- nen. Die hierbei üblicherweise vorgesehenen Benutzerschnittstellen weisen jedoch nicht in allen Anwendungsfällen den jeweils erforderlichen Grad an Ergonomie auf.

Es ist Aufgabe der Erfindung, ein System sowie ein Verfahren zur Bearbei- tung von Wertdokumenten anzugeben, welches eine in ergonomischer Hinsicht verbesserte Kommunikation zwischen Bedienperson und Bearbeitungsvorrichtung ermöglicht. Diese Aufgabe wird durch das System und Verfahren gemäß den unabhängigen Ansprüchen gelöst.

Das erfindungsgemäße System zur Bearbeitung von Wertdokumenten, ins- besondere Banknoten, weist eine Vorrichtung zum Bearbeiten, insbesondere zum Befördern und/ oder Prüfen und/ oder Zählen und/ oder Sortieren, von Wertdokumenten sowie eine tragbare Benutzerschnittstelle auf, welche dazu ausgebildet ist, Informationen, welche die Vorrichtung und/ oder die Bearbeitung der Wertdokumente betreffen, zu empfangen, ein oder mehrere Bil- der, insbesondere von der Vorrichtung, zu erfassen und die empfangenen Informationen und/ oder erfassten Bilder wiederzugeben.

Bei den erfindungsgemäßen Verfahren zur Bearbeitung von Wertdokumenten, insbesondere Banknoten, werden Wertdokumente in einer Vorrichtung bearbeitet, insbesondere befördert und/ oder geprüft und/ oder gezählt und/ oder sortiert, Informationen, welche die Vorrichtung und/ oder die Bearbeitung der Wertdokumente betreffen, von einer tragbaren Benutzerschnittstelle empfangen, ein öder mehrere Bilder, insbesondere von der Vorrichtung, von der tragbaren Benutzerschnittstelle erfasst und die empfange- nen Informationen und/ oder erfassten Bilder von der tragbaren Benutzerschnittstelle wiedergegeben.

Die Erfindung basiert auf dem Ansatz, zur Bedienung von Wertdoku- mentbearbeitungs Vorrichtungen eine oder mehrere Benutzerschnittstellen vorzusehen, die mobil bzw. portabel ausgestaltet sind, d.h. von einer Bedienperson getragen oder mitgeführt werden können, und Informationen empfangen, Bilder erfassen und die empfangenen Informationen und/ oder erfassten Bilder wiedergeben können. Bei den empfangenen Informationen handelt es sich insbesondere um Informationen, welche die zu bedienende Wertpapierbearbeitungsvorrichtung, z.B. deren Betriebszustand, und/oder die Bearbeitung von Wertdokumenten, z.B. Beginn und Ende der Bearbeitung oder Wertpapierstau, in der zu bedienenden Vorrichtung betreffen. Die Benutzerschnittstelle ist insbesondere dazu ausgebildet, Bilder von der Vor- richtung und/ oder von den von einer Bedienperson im Zusammenhang mit der Bearbeitung der Wertdokumente vorgenommenen Handlungen zu erfassen.

Beispielsweise kann die tragbare Benutzerschnittstelle so ausgestaltet sein, dass die empfangenen Informationen im Gesichtsfeld einer Bedienperson wiedergegeben werden, so dass die Bedienperson bei einem Blick beispielsweise auf einen Ausschnitt der Bearbeitungsvorrichtung Zusatzinformationen angezeigt bekommt, die im Zusammenhang mit dem jeweils betrachteten Ausschnitt der Vorrichtung stehen. Unter dem Gesichtsfeld einer Bedi- enperson sind hierbei alle zentralen und peripheren Punkte und Gegenstände des Außenraums zu verstehen, die bei geradeaus und/ oder schräg gerichtetem Blick visuell wahrgenommen werden können, auch ohne sie direkt zu fixieren. Bei einer anderen beispielhaften Ausgestaltung ist die tragbare Benutzerschnittstelle als mobiles Endgerät ausgestaltet, wie z.B. als Tablet-Computer oder Smartphone, an dessen Display ein von einem Ausschnitt der Bearbeitungsvorrichtung mit dem mobilen Endgerät erfasstes Bild zusammen mit betreffenden Zusatzinformationen wiedergegeben wird.

In beiden Fällen erhält die Bedienperson somit zusätzlich zum jeweils betrachteten Ausschnitt bzw. aufgenommenen Bild des Ausschnitts der Vorrichtung Zusatzinformationen, ohne dass der Blick vom betrachteten Ausschnitt bzw. vom betrachteten Bild des Ausschnitts abgewandt und auf eine etwa an der Vorrichtung selbst befindliche Anzeigeeinrichtung gerichtet werden müsste. Dies ist gerade in Situationen von besonderem Vorteil, in denen die Bedienperson anhand von Zusatzinformationen zur Ausführung bestimmter Handlungen aufgefordert bzw. angeleitet wird, beispielsweise bei der Behebung eines bei der Bearbeitung der Wertpapiere aufgetretenen Staus.

Je nach konkreter Ausgestaltung der Benutzerschnittstelle bildet also das nicht ortsfeste Gesichtsfeld der Bedienperson bzw. das nicht ortsfeste Sichtfeld einer an der Benutzerschnittstelle zur Bilderfassung vorgesehenen Kamera einen mit dem Blick der Bedienperson bzw. dem Sichtfeld der Kamera beweglichen Ausgabebereich zur visuellen Ausgabe von Zusatzinformationen, so dass die Bedienperson die betreffenden Zusatzinformationen besonders leicht erfassen kann.

Durch die Erfindung wird somit die Kommunikation zwischen Bedienperson und Bearbeitungsvorrichtung in ergonomischer Hinsicht verbessert.

Vorzugsweise ist die tragbare Benutzerschnittstelle dazu ausgestaltet, eine Eingabe und/ oder Auswahl von Informationen, insbesondere zur Steuerung der Vorrichtung, durch eine Bedienperson zu ermöglichen. Dadurch kann die Vorrichtung von jedem beliebigen Ort aus von der Bedienperson bedient werden.

Es ist ferner bevorzugt, dass die tragbare Benutzerschnittstelle eine am Kopf einer Bedienperson anbringbare Anzeigeeinrichtung, insbesondere in der Form einer Brille, aufweist, welche dazu ausgebildet ist, die empfangenen Informationen in zumindest einem Teil des Gesichtsfeldes der Bedienperson visuell wiederzugeben. Die Benutzerschnittstelle ist vorzugsweise als sog. Head-Mounted Display (HMD) ausgebildet, durch welches Bilder, Symbole oder andere Zeichen auf einem augennahen Bildschirm dargestellt oder mittels virtueller Netzhautanzeige direkt auf die Netzhaut projiziert werden. Je nach konkreter Ausgestaltung handelt es sich bei dem HMD um eine Daten- oder Videobrille, ein Helmdisplay oder einen Virtual Reality-Helm (VR- Helm).

Bei einer weiteren bevorzugten Ausgestaltung weist die tragbare Benutzerschnittstelle eine Kamera auf, welche dazu ausgebildet ist, Bilder von im Ge- sichtsfeld der Bedienperson befindlichen Objekten zu erfassen. Vorzugsweise ist die tragbare Benutzerschnittstelle dazu ausgebildet, in den, insbesondere mit der Kamera, erfassten Bildern eine von der Bedienperson ausgeübte Geste, insbesondere eine Handgeste, zu erkennen und daraus entsprechende Informationen, insbesondere zur Steuerung der Vorrichtung, abzuleiten. Durch eine solche Gestensteuerung können Daten bzw. Steuerungsbefehle auf bequeme Weise eingegeben werden, ohne dass die Bedienperson hierzu in Reichweite von einer an der Vorrichtung angebrachten Eingabeeinrichtung, z.B. einem Touchscreen, zu sein braucht. Vorzugsweise ist die tragbare Benutzerschnittstelle ferner dazu ausgebildet, im Gesichtsfeld der Bedienperson ein Eingabeschema, insbesondere in Form einer Tastatur oder von Symbolen, wiederzugeben, und in den erfassten Bildern eine von der Bedienperson in Bezug auf das wiedergegebene Eingabeschema ausgeübte Geste einer Eingabe- und/ oder Auswahl zu erkennen und daraus entsprechende Informationen, insbesondere zur Steuerung der Vorrichtung, abzuleiten. Es ist bevorzugt, dass die tragbare Benutzerschnittstelle eine Projektionseinrichtung aufweist, welche dazu ausgebildet ist, das Eingabeschema auf eine Fläche, insbesondere eine Hand der Bedienperson oder eine Fläche in der Umgebung der Bedienperson, zu projizieren. Die Projekti- onseinrichtung ist z.B. als Laserprojektor ausgebildet, bei welchem mittels Laserstrahl ein virtuelles Tastenfeld oder Symbol auf eine Fläche projiziert wird. Die Bedienperson hat dadurch das Eingabeschema, z.B. in Form einer Tastatur bzw. von Symbolen, bei der Eingabe stets im Gesichtsfeld und kann durch entsprechende Handgesten, wie z.B. einem virtuellen Antippen des im Gesichtsfeld wiedergegebenen Symbols bzw. einer Taste, eine Dateneingabe bzw. Auswahl vornehmen.

Bei einer weiteren bevorzugten Ausgestaltung ist die tragbare Benutzer- Schnittstelle dazu ausgebildet, ein Bild von einem im Gesichtsfeld der Bedienperson befindlichen Objekt, insbesondere einem Wertdokument, einem Transportbehälter für Wertdokumente oder einer Trennkarte, zu erfassen und anhand des erfassten Bildes eine auf dem Objekt befindliche Zusatzinformation zu ermitteln. Beispielsweise ist die Zusatzinformation als codierte Information, z.B. in Form von Barcodes, oder im Klartext, wie z.B. in Form alphanumerischer Zeichen, auf dem Objekt aufgebracht. Die Benutzerschnittstelle eröffnet dadurch zusätzlich die Möglichkeit einer maschinellen Erfassung von auf Objekten befindlichen Zusatzinformationen. Vorzugsweise ist die tragbare Benutzerschnittstelle als ein mobiles Endgerät, insbesondere als Tablet-Computer, Datenbrille oder Smartphone, ausgestaltet, welches dazu ausgebildet ist, mindestens ein Bild von der Vorrichtung oder eines Teils der Vorrichtung zu erfassen und die empfangenen Informationen, welche die Vorrichtung bzw. den Teil der Vorrichtung und/ oder die Bearbeitung der Wertdokumente betreffen, zusammen mit dem erfassten Bild der Vorrichtung wiederzugeben. In Analogie zu einem Head-Mounted Device erhält die Bedienperson somit zusätzlich zum jeweils aufgenommenen Bild der Vorrichtung Zusatzinformationen, ohne dass der Blick vom be- trachteten Bild an eine etwa an der Vorrichtung selbst befindliche Anzeigeeinrichtung abgewandt werden muss.

Weitere Vorteile, Merkmale und Anwendungsmöglichkeiten der vorliegen- den Erfindung ergeben sich aus der nachfolgenden Beschreibung in Zusammenhang mit den Figuren. Es zeigen:

Fig. l Beispiel eines Systems zur Bearbeitung von Wertdokumenten;

Fig. 2 ein erstes Beispiel einer Handgeste im Gesichtsfeld einer Bedienperson;

Fig. 3 ein zweites Beispiel einer Handgeste im Gesichtsfeld einer Bedienperson;

Fig. 4 ein Beispiel eines im Gesichtsfeld einer Bedienperson wiedergegebenen Eingabeschemas; Fig. 5 ein Beispiel eines im Gesichtsfeld einer Bedienperson befindlichen Objekts, auf welchem sich Zusatzinformationen in Form von Barcodes befinden; und

Fig. 6 ein Beispiel eines Anwendungsfalles eines Systems zur Bearbeitung von Wertdokumenten mit einer Benutzerschnittstelle in Form eines einem mobilen Endgeräts.

Fig. 1 zeigt ein Beispiel eines Systems zur Bearbeitung von Wertdokumenten mit einer Wertdokumentbearbeitungsvorrichtung 1, welche im Folgenden auch als„Vorrichtung" bezeichnet wird, und mindestens einer tragbaren Benutzerschnittstelle, die im vorliegenden Beispiel als sogenannte Datenbrille 10 und/ oder Tablet-Computer 20 ausgebildet ist. Die Vorrichtung 1 weist ein Eingabefach 2 auf, in welches ein oder mehrere Stapel von zu bearbeitenden Wertdokumenten, insbesondere Banknoten BN, durch eine Bedienperson oder eine für diesen Zweck vorgesehene Eingabeeinrichtung eingegeben und für die weitere Bearbeitung bereitgestellt werden können.

Mithilfe eines Vereinzelers wird die jeweils eine Banknote des eingegebenen Stapels abgezogen und an eine Transporteinrichtung übergeben, welche die Banknote zu einer Sensoreinrichtung befördert, in welcher deren physikalische Eigenschaften erfasst und daraus Eigenschaften der Banknote, wie zum Beispiel Druckbild, Stückelung, Echtheit und Zustand, abgeleitet werden. In Abhängigkeit von den ermittelten Eigenschaften wird die Banknote einem Ausgabefach 3 oder 4 zugeführt und dort abgelegt. Optional kann auch ein Schredder vorgesehen sein, an welchen Banknoten mit bestimmten Eigenschaften, wie z.B. unzureichender Fitness, direkt zur Vernichtung weiterge- leitet werden.

Die vorstehend nur in groben Zügen beschriebenen Vorgänge bei der Bearbeitung von Banknoten BN in der Vorrichtung 1 werden von einer Steuerungseinrichtung 5 gesteuert, die in vorzugsweise kontaktloser Datenkom- munikation mit der Benutzerschnittstelle 10 bzw. 20 steht, an welcher einerseits Informationen zum Banknotenbearbeitungsvorgang und/ oder an eine Bedienperson gerichtete Anweisungen visuell wiedergegeben werden und andererseits Daten und/ oder Steuerungsbefehle zur Steuerung der Banknotenbearbeitung in der Vorrichtung 1 durch die Bedienperson eingegeben werden können. Eine drahtlose Datenverbindung zwischen Steuerungseinrichtung 5 und Benutzerschnittstelle 10 bzw. 20 kann beispielsweise mittels Bluetooth-Standard oder WLAN erfolgen. Eine als Datenbrille 10 ausgebildete Benutzerschnittstelle weist einen im Wesentlichen brillenartig geformten Träger auf, an welchem eine Kamera 11 zur Aufnahme von Bildern der Umgebung vorgesehen ist. Die Kamera 11 ist vorzugsweise so angeordnet und/ oder ausgestaltet, dass insbesondere ein im Gesichtsfeld der Bedienperson, welche die Datenbrille 10 trägt, liegender Bereich der Umgebung aufgenommen wird.

Die Datenbrille 10 weist ferner eine, im vorliegenden Beispiel nur schematisch angedeutete, Anzeigeeinrichtung 12 auf, durch welche Informationen, die beispielsweise von der Steuerungseinrichtung 5 an die Datenbrille 10 übermittelt werden, visuell wiedergegeben werden, so dass die Bedienperson diese Informationen wahrnehmen kann.

Zu diesem Zweck kann die Anzeigeeinrichtung 12 beispielsweise als semitransparentes Display ausgebildet sein, welches einerseits einen direkten Blick der Bedienperson auf die Umgebung, insbesondere auf die Vorrichtung 1, und andererseits ein Einblenden von Zusatzinformationen in das Gesichtsfeld der Bedienperson ermöglicht.

Je nach Anwendungsfall kann es vorteilhaft sein, die Anzeigeeinrichtung 12 lediglich in bestimmten Bereichen des Gesichtsfeldes der Bedienperson, wie zum Beispiel im Randbereich, vorzusehen und/ oder die Anzeigeeinrichtung 12 so anzusteuern, dass diese nur in bestimmten Bereichen des Gesichtsfeldes, wie etwa dem Randbereich, der Bedienperson Informationen ausgibt. Ferner ist es möglich, die Anzeigeeinrichtung 12 als Projektionseinrichtung auszugestalten, durch welche die jeweils wiederzugebenden Informationen direkt auf das Auge bzw. die Netzhaut der Bedienperson projiziert werden.

Ungeachtet der konkreten Ausgestaltung der Anzeigeeinrichtung 12 können auf diese Weise Zusatzinformationen 13 im Gesichtsfeld der Bedienperson - und damit unabhängig von der aktuellen Blickrichtung - visualisiert und von der Bedienperson zusammen mit dem jeweils betrachteten Objekt, im dargestellten Beispiel also der Vorrichtung 1, betrachtet werden.

Aus Anschaulichkeitsgründen ist in der vorliegenden Darstellung lediglich der Blick der Bedienperson durch die linke Brillenglasfassung und die mittels Anzeigeeinrichtung 12 wiedergegebene Zusatzinformation 13 darge- stellt. Sofern auch die rechte Brillenglasfassung der Datenbrille 10 mit einer entsprechenden Anzeigeeinrichtung 12 versehen ist, so kann die Bedienperson auch mit dem rechten Auge zusätzlich zur Vorrichtung 1 die betreffende Zusatzinformation 13 wahrnehmen. Bei der Datenbrille 10 kann es sich grundsätzlich um jede Art von am Kopf einer Bedienperson anbringbaren Anzeigeeinrichtungen, sogenannten Head- Mounted Displays (HMD) handeln, welche Informationen und/ oder Bilder in das Gesichtsfeld der Bedienperson einblenden und so der Bedienperson Zusatzinformationen liefern können.

Optional kann die Datenbrille 10 mit Bewegungssensoren ausgestattet sein, um das jeweils eingespeiste Bild bzw. die Zusatzinformationen mit der Kopfoder Augenbewegung der Bedienperson zu synchronisieren. Grundsätzlich kann die Datenbrille 10 zusätzlich dazu ausgelegt sein, Sprache und andere kontextbezogene akustische Informationen auszugeben.

Alternativ oder zusätzlich zur Datenbrille 10 kann als Benutzerschnittstelle ein mobiles Endgerät, beispielsweise in Form eines Tablet-Computers 20 o- der etwa eines Smartphones, verwendet werden, das neben einer auf der Rückseite befindlichen Kamera 21 ein auf der Vorderseite befindliches Display 22 aufweist, an welchem die mit der Kamera 21 erfassten Bilder wiedergegeben werden können. Im vorliegenden Beispiel zeigt das Display 22 ein von der gesamten Vorrichtung 1 aufgenommenes Bild zusammen mit Zusatzinformationen 23, welche die Vorrichtung 1 oder den in der Vorrichtung 1 ablaufenden Bearbeitungsvorgang betreffen.

Die Benutzerschnittstelle 10 bzw. 20 ist vorzugsweise so ausgestaltet und/ oder wird vorzugsweise so gesteuert, dass Zusatzinformationen 13 bzw. 23 in Abhängigkeit von der Blickrichtung der Bedienperson und/ oder der Kamera 11 bzw. 21 wiedergegeben werden. Die jeweils angezeigte Zusatzinformation 13 bzw. 23 hängt hierbei vorzugsweise davon ab, welches Objekt, insbesondere welcher Ausschnitt oder Teil der Vorrichtung 1, von der Bedienperson betrachtet bzw. mittels Kamera 11 bzw. 21 aufgenommen wird. Der Bedienperson werden hierdurch auf leicht erfassbare Weise Informationen zur Kenntnis gebracht, die den jeweils betrachteten bzw. mit der Kamera 11 bzw. 21 erfassten Bereich der Vorrichtung 1 betreffen. So können an der Benutzerschnittstelle 10 bzw. 20 beispielsweise Daten zum aktuell beobachteten Bearbeitungsprozess angezeigt oder Hinweise gegeben werden, z.B. dass das aktuell betrachtete Ausgabefach 3 oder 4 zu leeren ist oder dass in Kürze Banknoten im Eingabefach 2 nachzulegen sind. Die Bedienperson braucht also nicht auf ein etwa am Gehäuse der Vorrichtung 1 vorgesehenes Display zu blicken, um beispielsweise Fehler- oder Statusmeldun- gen der Vorrichtung 1 bzw. Handlungsanweisungen zur Kenntnis nehmen zu können.

Ferner ist es auch möglich, mithilfe einer derart ausgestalteten Benutzer- Schnittstelle 10 bzw. 20 einer Bedienperson im Rahmen eines sogenannten Remote Service eine Unterstützung bei der Durchführung von Reparaturarbeiten an der Vorrichtung 1 zu geben, indem die jeweils von der Kamera 11 bzw. 21 aufgenommenen Bilder an eine an einem entfernt liegenden Ort befindliche Servicestation übermittelt und dort von einem Servicemitarbeiter begutachtet werden, welcher der Bedienperson an der betreffenden Vorrichtung 1 vor Ort dann die für die Reparaturarbeiten erforderlichen Anweisungen in Form von eingeblendeten Informationen 13 bzw. 23 und/ oder akustischen Informationen gibt. Alternativ oder zusätzlich zu den vorstehend beschriebenen Ausgestaltungsmöglichkeiten der Datenbrille 10 ist es auch möglich, mit der an der Datenbrille 10 befindlichen Kamera 11 die von der Bedienperson im Zusammenhang mit der Bedienung der Vorrichtung 1 ausgeführten Tätigkeiten aufzuzeichnen und als Videostream in einer Datenbank (nicht dargestellt) zusammen mit anderen Bearbeitungsdaten dem jeweiligen Deposit zuzuordnen und zu speichern, so dass etwaige Manipulationen durch die Bedienperson auch im Nachhinein zuverlässig nachvollzogen werden können. Bei dieser Ausführung kann es erwünscht sein, dass in der Anzeigeeinrichtung 12 der Datenbrille 10 während der Aufzeichnung der Tätigkeiten der Bedienperson ein entsprechendes Symbol, beispielsweise„REC", visuell wiedergegeben wird.

Wie bereits erwähnt, ist die Benutzer Schnitts teile 20 nicht nur dazu ausgebildet, Zusatzinformationen im Gesichtsfeld der Bedienperson bzw. zusammen mit dem aufgenommenen Bild der Vorrichtung 1 wiederzugeben, sondern vorzugsweise auch dazu ausgelegt, eine Eingabe oder Auswahl von Informationen, insbesondere in Form von Steuerbefehlen zur Steuerung der Vorrichtung 1, durch eine Bedienperson zu ermöglichen. Dies wird im Folgen- den näher beschrieben.

Vorzugsweise ist die Datenbrille 10 zu diesem Zweck dazu ausgebildet, eine im Gesichtsfeld der Bedienperson ausgeübte Geste mit der Kamera 11 zu erfassen und diese als eine einzugebende Information zu interpretieren bzw. zu identifizieren.

Fig. 2 zeigt ein erstes Beispiel einer von einer Bedienperson ausgeübten Handgeste 14, welche von der Kamera 11 aufgezeichnet und in einer Auswertungseinrichtung (nicht dargestellt) als Stopp-Befehl interpretiert wird, was im vorliegenden Beispiel durch Ausgabe von„STOP" als Zusatzinformation 13 im Gesichtsfeld der Bedienperson bestätigt wird.

Das in Fig. 3 gezeigte zweite Beispiel einer Handgeste 14 dagegen wird als Start-Befehl identifiziert, welcher ebenfalls durch eine visuelle Wiedergabe einer entsprechenden Zusatzinformation 13 („START") bestätigt wird.

Durch vorzugsweise drahtlose Übermittlung der jeweils identifizierten Steuerungsbefehle an die Steuerungseinrichtung 5 kann eine Steuerung der Vorrichtung 1 entsprechend der jeweils eingegebenen Befehle erfolgen.

Alternativ oder zusätzlich zur vorstehend beschriebenen Gestensteuerung kann, wie in Fig. 4 beispielhaft gezeigt, die Datenbrille 10 dazu ausgebildet sein, im Gesichtsfeld der Bedienperson ein Eingabeschema 15 zu visualisie- ren, die von der Bedienperson in Bezug auf das Eingabeschema 15 ausge- führten Gesten 14 mittels Kamera 11 zu erfassen und daraus die jeweils einzugebenden Informationen abzuleiten.

Im vorliegenden Beispiel hat das eingeblendete Eingabeschema 15 die Form einer Tastatur oder eines Zahlenblocks, welche bzw. welcher beispielsweise mittels einer Projektionseinrichtung auf eine beliebige Fläche im Gesichtsfeld der Bedienperson projiziert wird, beispielsweise eine Tischfläche oder auch eine Handfläche der Bedienperson. Alternativ ist es aber auch möglich, das Eingabeschema 15 mithilfe der vorstehend bereits näher beschriebenen Anzeigeeinrichtung 12 zu visualisieren.

Alternativ oder zusätzlich zu einer Tastatur für die Eingabe von Buchstaben oder Zahlen kann das Eingabeschema 15 aber auch symbolartig ausgestaltete Auswahlelemente, sogenannte Icons, enthalten, durch deren virtuelle Betätigung mittels Handgeste 14 eine entsprechende Funktion oder Anweisung zur Steuerung der Vorrichtung 1 ausgewählt werden kann.

Analog zu der oben beschriebenen Anzeige von Zusatzinformationen im Gesichtsfeld, die unabhängig ist vom aktuellen Blick der Bedienperson, wird bei dieser Ausführung ebenfalls der Vorteil erzielt, dass die Bedienperson ihren Blick nicht auf ein etwa am Gehäuse der Vorrichtung 1 befindliches Eingabeelement richten und dieses durch Berühren mit der Hand bedienen muss, sondern eine Eingabe bzw. Auswahl von Informationen unabhängig vom aktuellen Blick der Bedienperson und ohne Bindung an ein ortsfest angeordnetes Eingabeelement möglich ist.

Fig. 5 zeigt ein Beispiel eines im Gesichtsfeld einer Bedienperson befindlichen Objekts 16, auf welchem sich Zusatzinformationen in Form von Bar- codes 17 befinden. Bei dem Objekt 16 kann es sich beispielsweise um ein Wertdokument, einen Transportbehälter für Wertdokumente oder eine Trennkarte zur Trennung unterschiedlicher Deposits von Wertdokumenten oder Banknoten handeln. Vorzugsweise kann die Datenbrille 10 dazu ausge- legt sein, das im Gesichtsfeld der Bedienperson befindliche Objekt 16 einschließlich der darauf befindlichen Barcodes 17 oder etwaiger anderer codierter oder uncodierter Informationen zu erfassen und anhand der erfassten Bilder die in den Barcodes 17 bzw. in den anderen Informationen enthaltenen Daten zu ermitteln. Die hierbei erhaltenen Daten können beispielsweise an der Anzeigeeinrichtung 12 in der vorstehend beschriebenen Weise wiedergegeben und/ oder an die Steuerungseinrichtung 5 oder eine Speichereinrichtung (nicht dargestellt) zur Weiterverarbeitung bzw. Speicherung weitergeleitet werden. Die Datenbrille 10 übernimmt bei dieser Ausführung also auch die Funktion eines Datenscanners. Vorzugsweise ist die Datenbrille 10 so ausgestaltet, dass ein Scanprozess durch eine Geste, insbesondere Handgeste, und/ oder einen Sprachbefehl der Bedienperson gestartet und/ oder beendet werden kann.

Bevorzugte Ausgestaltungen der tragbaren Benutzerschnittstelle wurden vorstehend im Zusammenhang mit den Figuren 2 bis 5 anhand einer entsprechend ausgestalteten Datenbrille 10 beschrieben. Die vorstehenden Ausführungen gelten jedoch auch für ein mobiles Endgerät, beispielsweise in Form eines Tablet-Computers 20 oder eines Smartphones, entsprechend, was beispielhaft anhand eines in Fig. 6 gezeigten Anwendungsfalls erläutert wird, bei welchem als tragbare Benutzerschnittstelle ein mobiles Endgerät in Form eines Tablet-Computers 20 verwendet wird. Im dargestellten Beispiel wird durch die auf der Rückseite des Tablet-Computers 20 befindliche Kamera 21 ein Bild aus dem Bereich des Eingabefachs 2 der Vorrichtung 1 aufgenommen und am Display 22 wiedergegeben. Der Tablet-Computer 20 und/ oder die Steuerungseinrichtung 5 ist hierbei derart ausgestaltet, dass etwaige Informationen, die das Eingabefach 2 betreffen, zusammen mit dem auf dem Display 22 wiedergegebenen Bild des betreffenden Ausschnitts der Vorrichtung 1 angezeigt werden. Im gezeigten Beispiel wird im wiedergege- benen Bild die Nachricht„INSERT BN" zusammen mit einem Pfeil angezeigt, wodurch die Bedienperson dazu aufgefordert wird, einen Banknotenstapel in das Eingabefach 2 nachzulegen, um diesen für eine weitere Bearbeitung bereitzustellen. Bei den durch die Anzeigeeinrichtung 12 bzw. 22 angezeigten Zusatzinformationen kann es sich beispielsweise auch um depositbezogene Zusatzinformationen zu Banknoten handeln, welche für eine sogenannte Handnachbearbeitung vorgesehen sind, wie zum Beispiel spezielle Rückweisungs- gründe, wie etwa ein fehlendes Sicherheitsmerkmal oder eine Seriennum- mer.

Alternativ oder zusätzlich kann die Anzeigeeinrichtung 12 bzw. 22 auch dazu ausgelegt sein, die mit einer in der Vorrichtung 1 vorgesehenen Sensoreinrichtung gewonnenen Bildinformationen zu einer individuellen Bank- note anzuzeigen, wie zum Beispiel ein Magnetbild oder ein Infrarotbild. Alternativ oder zusätzlich können an der Anzeigeeinrichtung 12 bzw. 22 auch Bilder wiedergegeben werden, die mit einer an einem Handnachbearbeitungsplatz installierten Infrarotkamera zur Prüfung fälschungsverdächtiger Banknoten aufgezeichnet wurden. Insgesamt lässt sich hierdurch die Hand- nacharbeit beschleunigen, eine Erkennung von Fälschungen verbessern und nicht zuletzt die Ermüdung des Bedienpersonals reduzieren.

Mittels Datenbrille 10 und/ oder mobilem Endgerät 20 sieht die Bedienperson nicht nur die jeweils betrachtete Realität, beispielsweise in Form eines Ausschnitts der Vorrichtung 1, sondern auch diesbezügliche Zusatzinformationen, die die Realität virtuell erweitern, weshalb im Zusammenhang mit der Benutzerführung bzw. Bedienung der Vorrichtung 1 durch die tragbare Benutzerschnittstelle 10 bzw. 20 auch von„ Augmented Reality" oder„Vir- tual Reality" gesprochen werden kann. Um virtuelle Informationen lagegerecht in Echtzeit in die jeweilige reale Szene einzublenden, werden vorzugsweise drei Schritte durchlaufen: Bildaufnahme und Bildverarbeitung, Lageerkennung und Bildwiedergabe (sog. Rendering). Hierbei werden die Kamerabilder zunächst eingelesen und durch Bildverarbeitungsalgorithmen von störenden Einflüssen befreit und für die Weiterverarbeitung aufbereitet. Anhand der im aufgenommenen Kamerabild gefundenen Merkmale, wie beispielsweise Teile eines vorher bekannten Bildes, wird die Relation zwischen Kamera und erkannter Fläche berechnet. Diese Berechnung bildet die Basis für die lagegerechte Darstellung der Augmented Reality-Elemente, d.h. der jeweils zusätzlich eingeblendeten Informationen. Passend zur betrachteten Szene werden nun die virtuellen Szenenelemente im Kamerabild wiedergegeben und die entsprechend erweiterte Realität für den Betrachter sichtbar. Vorzugsweise werden die drei beschriebenen Schritte ca. 30-mal pro Sekunde wiederholt. Hierbei wird eine stets perspektivisch korrekte Darstellung der betreffenden Informationen gewährleistet.

Alternativ oder zusätzlich zu den vorstehend beschriebenen Anwendungsfällen kann die tragbare Benutzerschnittstelle 10 bzw. 20 auch zur Überwachung des Materialflusses in einem sogenannten Cash Center eingesetzt werden, indem der jeweilige Bestand verfolgt und/ oder der Banknotendurchsatz in den verschiedenen Abteilungen, die Lagerabwicklung sowie die Koordination von Personal und Gütern überwacht werden. Die Ausführungen im Zusammenhang mit den in den Figuren 1 bis 6 gezeigten Beispielen gelten hierbei entsprechend. Die tragbare Benutzerschnittstelle 10 bzw. 20 gemäß der vorliegenden Erfindung kann, je nach Ausgestaltung, einen üblicherweise am Gerät der Vorrichtung 1 vorgesehenen Bedienerbildschirm mit Touch-Screen vollständig ersetzen. Die üblicherweise am Bedienerbildschirm an der Vorrichtung 1 vorgenommenen Interaktionen können dann vollständig über die mobile Benutzerschnittstelle 10 bzw. 20 durchgeführt werden, wie zum Beispiel das Einblenden einer Meldung, eine Menüauswahl durch Erfassen der Blickrichtung der Bedienperson bzw. der Kamera 11 bzw. 21 sowie ein Quittieren der Meldung durch entsprechende Eingaben wie zum Beispiel Handgesten, Augenzwinkern oder Spracheingaben.

Alternativ oder zusätzlich zur visuellen Wiedergabe von den aktuellen Bearbeitungsvorgang betreffenden Informationen kann die Benutzerschnittstelle 10 bzw. 20 auch zur Ausgabe von Hilfsinformationen für die Bedienperson oder einen Servicetechniker ausgebildet sein, beispielsweise in Form einer Videosequenz oder von Bedienhinweisen für die Abfolge von Handgriffen. Ferner ist es möglich, kontextbezogene Informationen aus dem Service- oder Bedienungshandbuch der Vorrichtung 1 anzuzeigen. Im Zusammenhang mit Reparatur- oder Wartungsarbeiten kann ferner beispielsweise die Anzeige von Einstellpunkten oder thermografischen Bildern zum Erkennen eines etwa heiß gelaufenen Lagers oder einer Lärmquelle, beispielsweise infolge eines kaputten Lagers, von Vorteil sein.