Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR MAN-ROBOT COOPERATION
Document Type and Number:
WIPO Patent Application WO/2018/041743
Kind Code:
A1
Abstract:
The present invention relates to a method and a device for man-machine cooperation, in which at least one safety-relevant information of an object is determined in or on a monitoring region of the robot (1) by means of at least one sensor, the safety-relevant information being classified by an evaluation unit (6) as belonging to at least one of two possible classes. A task of the robot (1), which is to be performed, is defined in a control unit (7), and the task to be performed is classified as belonging to one of four cooperation stages. The robot (1) is controlled by a control unit (7) as a function of the classification of the safety-relevant information into one of the classes and as a function of the classification of the task to be performed into one of the cooperation stages.

Inventors:
BDIWI MOHAMAD (DE)
KRUSCHE SEBASTIAN (DE)
Application Number:
PCT/EP2017/071470
Publication Date:
March 08, 2018
Filing Date:
August 25, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
FRAUNHOFER GES FORSCHUNG (DE)
International Classes:
B25J9/16; F16P3/14; G06T7/00
Foreign References:
DE102014106210A12015-10-15
DE202013104264U12015-01-09
DE102010017857A12011-10-27
Attorney, Agent or Firm:
PFENNING, MEINIG & PARTNER MBB (DE)
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur Mensch-Roboter-Kooperation bei dem durch mindestens einen Sensor (5) mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich eines Roboters (1) bestimmt wird, die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt wird, wobei eine erste Klasse einen Gefahrenbereich (8), in dem kein Objekt bei einer Bewegung des Roboters (1) zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich (10) kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, in einer Steuereinheit (7) eine durchzuführende Aufgabe des Roboters (1) definiert wird sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt wird, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und eines Benutzers (2) an unterschiedlichen Bauteilen (3) umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an einem gemeinsam bearbeiteten Bauteil (3) umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) ohne gegenseitige physische Berührung des Roboters (1) und des Benutzers (2) umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) mit gegenseitiger physischer Berührung umfasst, wobei der Roboter (1) durch die Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen angesteuert wird.

2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens drei möglichen Klassen zugehörig eingeteilt wird, wobei eine dritte Klasse einen Kooperationsbereich (9) definiert, in der sich zu bestimmten Zeitpunkten ein Objekt befinden darf.

3. Verfahren nach Anspruch 1 oder Anspruch 2, dadurch gekennzeichnet, dass der Überwachungsbereich von der Auswerteeinheit (6) dynamisch in Abhängigkeit von von dem Sensor (5) detektierten Signalen des Roboters (1) und des Objekts an einen aktuellen Arbeitsbereich des Roboters (1) angepasst wird.

4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die sicherheitsrelevante Information einen Abstand und/oder einen Winkel zwischen dem Roboter (1) und dem Objekt aufweist.

5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuereinheit (7) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information den Roboter (1) hinsichtlich einer translatorischen Bewegung in mindestens einem Freiheitsgrad, einer rotatorischen Bewegung in mindestens einem Freiheitsgrad, einer Geschwindigkeit und/oder einer Beschleunigung der Bewegung ansteuert.

6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Anpassung des Überwachungsbereichs hinsichtlich Form, Ausdehnung und/oder Ort durchgeführt wird.

7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass in Abhängigkeit von der Einteilung eine klassenspezifische und stufenspezifische bildbasierte, positionsbasierte, kraftbasiert und/oder drehmomentbasierte Ansteuerung durchgeführt wird.

8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die sicherheitsrelevante Information durch einen optischen Sensor, einen induktiven Sensor, einen kapazitiven Sensor, einen Kraftsensor und/oder einen Drehmomentsensor detektiert wird, wobei der optische Sensor vorzugsweise als stereoskopische Kamera ausgebildet wird.

9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass von dem als stereoskopische Kamera ausgebildeten Sensor (5) mehrere Aufnahmen des Überwachungsbereichs aufgenommen werden, wobei jede der Aufnahmen in einem Ringspeicher der Auswerteeinheit (6) abgespeichert wird sowie in jeder der Aufnahmen durch die Auswerteeinheit (6) das sicherheitsrelevante Merkmal ermittelt wird, wobei durch einen paarweisen Vergleich zu unterschiedlichen Zeitpunkten erfasster Aufnahmen das im Arbeitsbereich befindliche Objekt nachverfolgt wird.

10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass ein auf einer Aufnahme im Arbeitsbereich befindliches Objekt, das auf einer nachfolgenden Aufnahme nicht mehr sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit (6) überprüft wird, ob es sich hinter oder auf einem der weiteren Objekte befindet.

11. Verfahren nach Anspruch 9 oder Anspruch 10, dadurch gekennzeichnet, dass ein auf einer Aufnahme im Arbeitsbereich bislang nicht be- findliches Objekt, das auf einer nachfolgenden Aufnahme sichtbar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit (6) überprüft wird, ob es sich auf der vorhergehenden Aufnahme hinter oder auf einem der weiteren Objekte befand.

Vorrichtung zur Mensch-Roboter-Kooperation, mit einem Sensor (5), der eingerichtet ist, mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters (1) zu bestimmen, einer Auswerteeinheit (6), die ausgebildet ist, die sicherheitsrelevante Information durch eine Auswerteeinheit (6) als einer von mindestens zwei möglichen Klassen zugehörig einzuteilen, wobei eine erste Klasse einen Gefahrenbereich (8), in dem kein Objekt bei einer Bewegung des Roboters (1) zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich (10) kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, und eine Steuereinheit (7), die eingerichtet ist, eine durchzuführende Aufgabe des Roboters (1) zu definieren sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig einzuteilen, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und eines Benutzers (2) an unterschiedlichen Bauteilen (3) umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an einem gemeinsam bearbeiteten Bauteil (3) umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) ohne gegenseitige physische Berührung des Roboters (1) und des Benutzers (2) umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters (1) und des Benutzers (2) an dem gemeinsam bearbeiteten Bauteil (3) mit gegenseitiger physischer Berührung umfasst, und den Roboter (1) in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen anzusteuern.

Description:
Verfahren und Vorrichtung zur Mensch-Roboter Kooperation

Die vorliegende Erfindung betrifft ein Verfahren und eine Vorrichtung zur Mensch-Roboter-Kooperation (MRK).

Eine große Produktvielfalt und steigende Fertigungszahlen erfordern flexible bzw. effektiv arbeitende Produktionsketten. Um diesen Anforderungen gerecht zu werden, wird verstärkt versucht, Kollaborationen zwischen Mensch und Roboter in Herstellungsprozesse zu integrieren.

Aus dem Stand der Technik sind hierbei Systeme bekannt, bei denen Leichtbauroboter mit taktilen Sensoren oder Drehmomentsensoren in ihren Gelenken zum Einsatz kommen. Bei einer Kollision wird die Bewegung derartiger Roboter gestoppt. Nachteilig daran ist, dass der Roboter nur mit einer ver- gleichsweise geringen Geschwindigkeit arbeitet.

Außerdem ist bekannt, bildgebende Sensoren zu installieren, in deren Blick- feld der Roboter angeordnet ist. Aus der Druckschrift DE 10 2010 017 857 AI ist beispielsweise eine Sicherheitsvorrichtung bekannt, bei der ein Arbeitsbereich des Roboters durch Kameras überwacht wird. Eine vollständige Erfassung des Roboters ist jedoch oftmals nicht in allen Posen möglich bzw. Objekte können sich auch außerhalb eines überwachten Bereichs befinden oder verdeckt sein.

Der vorliegenden Erfindung liegt daher die Aufgabe zugrunde, die genannten Nachteile zu überwinden, also ein Verfahren und eine Vorrichtung zur Mensch-Roboter-Kooperation vorzuschlagen, mittels derer eine Betriebssicherheit erhöht wird und eine zuverlässige Anpassung an detektierte Umgebungsbedingungen effizient erreicht wird.

Diese Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren nach Anspruch 1 und eine Vorrichtung nach Anspruch 12. Vorteilhafte Ausgestaltungen und Weiterbildungen sind in den abhängigen Ansprüchen beschrieben.

Bei einem Verfahren zur Mensch-Roboter-Kooperation wird durch mindestens einen Sensor mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters bestimmt. Die sicherheitsrelevante Information wird durch eine Auswerteeinheit als einer von mindestens zwei möglichen Klassen zugehörig eingeteilt, wobei eine erste Klasse einen Gefahrenbereich, in dem kein Objekt bei einer Bewegung des Roboters zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich kennzeichnet, in dem sich jederzeit ein Objekt befinden darf. In einer Steuereinheit wird eine durchzuführende Aufgabe des Roboters definiert sowie die durchzuführende Aufgabe als einer von vier Kooperationsstufen zugehörig eingeteilt, wobei eine erste Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und eines Benutzers an unterschiedlichen Bauteilen umfasst, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und des Benutzers an einem gemeinsam bearbeiteten Bauteil umfasst, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil ohne gegenseitige physische Berührung des Roboters und des Benutzers umfasst, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemein- sam bearbeiteten Bauteil mit gegenseitiger physischer Berührung umfasst. Der Roboter wird durch die Steuereinheit in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperations- stufen angesteuert.

Mit dem beschriebenen Verfahren wird eine Produktivität der Mensch- Roboter-Kooperation sowie eine Betriebssicherheit erhöht, indem eine klassenabhängige und kooperationsstufenabhängige Regelungsstruktur bzw. Steuerungsstruktur verwendet wird. Durch das Vorsehen mehrerer Klassen, die je nach Gefährdungsgrad des menschlichen Benutzers, der auch das im Überwachungsbereich detektierte Objekt sein kann, eine unterschiedliche Ansteuerung des Roboters nach sich ziehen, wird eine Gefährdung des Menschen bereits minimiert. Indem dies jedoch gekoppelt wird mit einer Berück- sichtigung der durchzuführenden Aufgabe, kann die Betriebssicherheit weiter verbessert und die Effizienz des Verfahrens erhöht werden, da eine der jeweiligen Situation angepasste Ansteuerung des Roboters erfolgt. Hierdurch wird ein kooperativer Arbeitsplatz, d. h. ein Bereich, in dem ein Mensch als Bedienperson und mindestens ein Roboter gleichzeitig tätig sind, mit erhöhter Sicherheit durch eine adaptive Steuerung bzw. Regelung des Roboters geschaffen, so dass Arbeitsergebnisse zwischen Mensch und Maschine ausgetauscht bzw. Arbeitsschritte gemeinsam erledigt werden können.

Der Überwachungsbereich ist typischerweise mit dem Arbeitsbereich des Ro- boters identisch, d. h. er umfasst den Bereich den der Roboter bei vollständig ausgestrecktem Roboterarm erreichen kann. Es kann jedoch auch vorgesehen sein, den Überwachungsbereich geringfügig größer als den Arbeitsbereich zu wählen, um auch eventuell in den Überwachungsbereich eintretende Objekte frühzeitig zu definieren. Vorzugsweise ist der Überwachungsbereich hierzu in allen Richtungen 1 m größer als der Arbeitsbereich des Roboters gewählt.

Der Roboter kann als Industrieroboter mit sechs Achsen, vorzugsweise als Kollaborationsroboter oder als Leichtbauroboter, ausgestaltet sein. Im Rahmen dieser Schrift sollen als "Kollaborationsroboter" diejenigen Robotertypen verstanden werden, die direkt für MRK-Applikationen entwickelt wurden. Sie erfüllen alle Ansprüche der gelten Vorschrift. Von Grund auf sind es Leicht- bauroboter mit zusätzlichen Sicherheitsfunktionen, die es einem erlauben, den Roboter in direkter Gegenwart zum Menschen zu verfahren. Die Kraft, die bei einem Einschlag auf den Menschen wirkt, sollte so gering wie möglich sein, damit keine schweren Verletzungen entstehen. Die Konstruktion ist leichter ausgelegt, damit die Antriebskraft nicht so hoch sein muss und die

Masse schneller gestoppt werden kann.

Als "Leichtbauroboter" sollen im Rahmen dieser Schrift Roboter verstanden werden, die für eine niedrigere Traglast ausgelegt sind und eine geringere Reichweite als Kollaborationsroboter haben. Ihre gesamte Konstruktion ist leichter ausgelegt, weil keine so hohe Steifigkeit erforderlich ist.

Es kann vorgesehen sein, dass die sicherheitsrelevante Information durch die Auswerteeinheit als einer von mindestens drei möglichen Klassen zugehörig eingeteilt wird, wobei die dritte Klasse einen Kooperationsbereich definiert, in der sich zu bestimmten Zeitpunkten ein Objekt befinden darf. Typischerweise ist die dritte Klasse in der räumlichen Abfolge zwischen der ersten Klasse und der zweiten Klasse angeordnet und dient einer feineren Unterteilung und präziseren Steuerung des Roboters.

Der Überwachungsbereich des Roboters kann von der Auswerteeinheit dynamisch in Abhängigkeit von von dem Sensor detektierten Signalen des Roboters und des Objekts an einen aktuellen Arbeitsbereich des Roboters ange- passt werden, um flexibel auf verschiedene Vorkommnisse reagieren zu kön- nen und nur den jeweils relevanten Bereich zu überwachen.

Typischerweise ist die sicherheitsrelevante Information ein Abstand und bzw. oder ein Winkel zwischen dem Roboter und dem Objekt bzw. umfasst diese Maße. Diese Maße sind in der Regel einfach zu bestimmen und erlauben eine zuverlässige Abschätzung, ob der Roboter das Objekt erreichen und somit potentiell schädigen kann.

Die Steuereinheit ausgebildet sein, den Roboter in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information hinsichtlich einer

translatorischen Bewegung in mindestens einem Freiheitsgrad, einer rotatorischen Bewegung in mindestens einem Freiheitsgrad, einer Geschwin- digkeit und bzw. oder einer Beschleunigung der Bewegung anzusteuern. Durch Ändern einer Bewegungstrajektorie bedingt durch eine entsprechende Ansteuerung zum Durchführen translatorischer bzw. rotatorischer Bewegungen kann der Roboter bzw. der Roboterarm dem Objekt ausweichen bzw. eine Kollision vermeiden oder zumindest mit verringerter Geschwindigkeit durchführen.

Die Anpassung des Überwachungsbereichs wird vorzugsweise hinsichtlich seiner Form, Ausdehnung und bzw. oder seines Orts durchgeführt, um möglichst variabel auf verschiedene Zustände reagieren zu können. Die Anpassung des Überwachungsbereichs kann hierbei auch in Abhängigkeit von der Geschwindigkeit, der Position, der Beschleunigung, des Bewegungsverhaltens und bzw. oder der Trajektorie des Roboters vorgenommen werden.

Typischerweise ist der Sensor räumlich getrennt von dem Roboter angeordnet und unabhängig von diesem bewegbar, so dass eine unabhängige Kontrolle des Überwachungsbereichs losgelöst vom Roboter möglich ist.

In Abhängigkeit von der Einteilung wird typischerweise eine klassenspezifische und bzw. oder stufenspezifische bildbasierte, positionsbasierte, kraftbasierte und bzw. oder drehmomentbasierte Ansteuerung durchgeführt. Je nach Art der detektierten sicherheitsrelevanten Information kann somit die passende Anpassung durchgeführt werden.

Es kann vorgesehen sein, die sicherheitsrelevante Information durch einen optischen Sensor, einen induktiven Sensor, einen kapazitiven Sensor, einen thermischen Sensor, einen Kraftsensor und bzw. oder einen Drehmomentsensor zu detektieren. Es können natürlich auch Mischtypen der genannten Sensoren verwendet werden, beispielsweise ein kapazitiv arbeitender Kraftsensor. Der optische Sensor ist vorzugsweise als stereoskopische Kamera bzw. als stereoskopisches Kamerasystem mit mehreren Kameras ausgebildet, um dreidimensionale Ortsinformationen in effizienter Weise erhalten zu können.

Insbesondere der als stereoskopische Kamera ausgebildete Sensor kann mehrere Aufnahmen des Überwachungsbereichs aufnehmen, wobei jede der Aufnahmen in einem Ringspeicher der Auswerteeinheit abgespeichert wird sowie in jeder der Aufnahmen durch die Auswerteeinheit das sicherheitsrelevante Merkmale, also insbesondere der Abstand und bzw. oder der Winkel, zwischen dem Roboter und einem im Arbeitsbereich des Roboters befindlichen Objekts ermittelt wird. Durch einen paarweisen Vergleich zu unterschiedli- chen Zeitpunkten erfasster Aufnahmen kann das im Arbeitsbereich befindliche Objekt nachverfolgt werden. Durch eine zeitliche Verfolgung von Objekten können diese zuverlässiger erfasst werden und einfacher Vorhersagen hinsichtlich potentieller zukünftiger Gefährdungen getroffen werden. Ein auf einer Aufnahme befindliches Objekt, das auf einer nachfolgenden Aufnahme nicht mehr sichtbar ist, kann durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im Arbeitsbereich befindlichen Objekten und eines zeitlichen Abstands zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit überprüft wird, ob es sich hinter oder auf einem der weiteren Objek- te befindet. Dies erlaubt es, zeitweise verdeckte Objekte zuverlässig zu detek- tieren und nachzuverfolgen.

Alternativ oder zusätzlich kann ein auf einer Aufnahme im Arbeitsbereich bislang nicht befindliches Objekt, das auf einer nachfolgenden Aufnahme sicht- bar ist, durch eine Ermittlung eines Abstands dieses Objekts zu weiteren im

Arbeitsbereich befindlichen Objekten und einen zeitlichen Abstand zwischen beiden Aufnahmen daraufhin von der Auswerteeinheit überprüft wird, ob es sich auf der vorhergehenden Aufnahme hinter oder auf einem der weiteren Objekte befand.

Eine Vorrichtung zur Mensch-Roboter-Kooperation weist einen Sensor, der eingerichtet ist, mindestens eine sicherheitsrelevante Information eines Objekts in oder an einem Überwachungsbereich des Roboters zu bestimmen, eine Auswerteeinheit, die ausgebildet ist, die sicherheitsrelevante Information durch eine Auswerteeinheit als einer von mindestens zwei möglichen Klassen zugehörig einzuteilen, wobei eine erste Klasse einen Gefahrenbereich, in dem kein Objekt bei einer Bewegung des Roboters zugelassen ist, und eine zweite Klasse einen Sicherheitsbereich kennzeichnet, in dem sich jederzeit ein Objekt befinden darf, und eine Steuereinheit auf, die eingerichtet ist, eine durchzu- führende Aufgabe des Roboters zu definieren sowie die durchzuführende

Aufgabe als einer von vier Kooperationsstufen zugehörig einzuteilen. Eine erste Kooperationsstufe umfasst eine räumlich getrennte Aufgabenverrichtung des Roboters und eines Benutzers an unterschiedlichen Bauteilen, eine zweite Kooperationsstufe eine räumlich getrennte Aufgabenverrichtung des Roboters und des Benutzers an einem gemeinsam bearbeiteten Bauteil, eine dritte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil ohne gegenseitige physische Berührung des Roboters und des Benutzers, und eine vierte Kooperationsstufe eine gemeinsame Aufgabenverrichtung des Roboters und des Benutzers an dem gemeinsam bearbeiteten Bauteil mit gegenseitiger physischer Berührung. Die Steuereinheit ist weiter dazu ausgebildet, den Roboter in Abhängigkeit von der Einteilung der sicherheitsrelevanten Information in eine der Klassen und in Abhängigkeit von der Einteilung der durchzuführenden Aufgabe in eine der Kooperationsstufen anzusteuern.

Die Auswerteeinheit und die Steuereinheit können, um eine kompakte Bauform zu erreichen, in einem einzigen Gehäuse untergebracht sein und bzw. oder durch ein einziges Gerät als Auswerte-Steuereinheit realisiert sein.

Die beschriebene Vorrichtung ist typischerweise zum Durchführen des beschriebenen Verfahrens eingerichtet bzw. das beschriebene Verfahren kann mit der beschriebenen Vorrichtung durchgeführt werden.

Ein Computerprogrammprodukt mit einem Computerprogramm weist Softwaremittel zum Durchführen des beschriebenen Verfahrens auf, wenn das Computerprogramm in einem Automatisierungssystem bzw. einer Recheneinheit ausgeführt wird. Das Computerprogramm wird typischerweise zum Steuern der bereits beschriebenen Vorrichtung eingesetzt.

Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden nachfolgend anhand der Figuren 1 bis 5 erläutert.

Es zeigen:

Figur 1 eine schematische Darstellung von vier möglichen Kooperationsstufen zwischen Roboter und Mensch; Fig. 2 eine schematische dreidimensionale Ansicht einer Klasseneinteilung samt zugeordneter Ansteuerungsmöglichkeiten;

Fig. 3 eine tabellarische Übersicht von Sicherheitsfunktionen in jeder der Kooperationsstufen;

Fig. 4 ein Ablaufdiagramm einer Überprüfung eines Objekts und

Fig. 5 eine schematische Darstellung möglicher Bereiche.

Figur 1 zeigt in einer schematischen Darstellung vier mögliche Kooperationsstufen zwischen einem Roboter 1 und einem Menschen 2 als Benutzer des Roboters 1 bzw. als in einem Arbeitsbereich des Roboters 1 anzutreffendes Objekt. Die vier möglichen Kooperationsstufen kennzeichnen sämtliche Interaktionsmöglichkeiten, so dass jeder Benutzer anhand einer gestellten Aufgabe bzw. Applikation entscheiden kann, in welcher Form die Kooperation zwischen dem Roboter 1 und dem Menschen 2 stattfinden soll.

In jeder Kooperationsstufe wird definiert, wie viele Bereiche es an einem Arbeitsplatz gibt und welche Eigenschaften diese haben. Neben der Form und Größe dieser Bereiche wird typischerweise auch festgelegt, ob der Roboter 1 bzw. der Mensch 2 in diesen Bereichen anwesend sein darf oder nicht. Ein in einer Auswerteeinheit bzw. Steuereinheit als Computerprogramm ablaufender Algorithmus kann hierbei zyklisch wiederkehrend überprüfen, in welchem Bereich sich ein Objekt wie der Mensch 2 befindet und ob dessen Anwesenheit an dieser Position nach den Vorgaben erlaubt ist.

Damit ein Bereich als Sicherheitsbereich angesehen wird, kann durch einen Klassifikator bzw. ein Filter auf ein Vorliegen unerwünschter Ereignisse überprüft werden. Dies kann auch im Vorfeld bereits an der Steuereinheit bzw. der Auswerteeinheit festgelegt werden, ebenso, was als unerwünschtes Ereignis angesehen werden soll. Sind für einen Bereich alle vorgegebenen Bedingungen erfüllt, kann der Roboter 1 mit einer gewünschten Geschwindigkeit bzw. Beschleunigung verfahren werden. Trifft eine der formulierten Bedingungen nicht zu, wird die Bewegung des Roboters 1 sofort unterbunden, bis wieder alle Bedingungen erfüllt sind. In jedem Bereich kann hierzu eine unterschiedli- che Regelungsstruktur wie beispielsweise bildbasiert, positionsbasiert, kraftbasiert oder eine hybride Regelung definiert sein.

In der ersten Kooperationsstufe ist lediglich eine passive Kooperation zwi- sehen dem Menschen 2 und dem Roboter 1 vorgesehen. Beide verrichten ihre

Arbeit unabhängig voneinander in einem Arbeitsraum bzw. an einem Arbeitsplatz ohne Schutzvorrichtungen wie z. B. einen Sicherheitszaun. Dies kann beim Bereitstellen eines schweren Bauteils 3 in einer Fertigungslinie einer Endmontage der Automobilindustrie der Fall sein. Der Roboter 1 holt das Bau- teil 3 von einer Lagerfläche und legt es an einem Montageplatz ab. Der

Mensch 2 ist hieran nicht beteiligt und kann anderweitig einer Arbeit nachgehen.

Um zu gewährleisten, dass es zu keiner Gefährdung des Menschen 2 während der Tätigkeit kommt, werden zwei Bereiche definiert: Vom Sicherheitsbereich wird der Arbeitsbereich des Menschen 2 umfasst, in dem sich der Mensch 2 gefahrlos bewegen kann und in dem die Anwesenheit des Roboters 1 nicht erlaubt ist. Der Roboter 1 darf sich nur im Gefahrenbereich aufhalten. Sobald der Mensch 2 den Gefahrenbereich betritt, wird die Bewegung des Roboters 1 unterbrochen und erst dann wieder aufgenommen, wenn der Mensch 2 diese verlassen hat. Außerdem wird die Bewegung des Roboters 1 gestoppt, wenn dieser die Grenzen des Gefahrenbereichs überschreitet und in den Arbeitsbereich des Menschen 2 eindringt. Der Gefahrenbereich ist in diesem Ausführungsbeispiel kleiner als ein Arbeitsbereich des Roboters 1 gewählt. Die Form der Bereiche kann statisch durch Angabe raumfest vorgegebener Punkte oder dynamisch durch eine Kopplung mit einem Robotermodell definiert werden. Im Gefahrenbereich selbst kann der Roboter 1 mit maximal möglicher Geschwindigkeit agieren. In der zweiten Kooperationsstufe können der Mensch 2 und der Roboter 1 auf einem sehr niedrigen Niveau zusammenarbeiten. Der Mensch 2 kann sich dem Roboter 1 bis auf eine vorgegebene Distanz nähern und kooperieren. Es ist jedoch ausgeschlossen, dass der Mensch 2 und der Roboter 1 physisch oder direkt miteinander arbeiten, d. h. es ist insbesondere kein direkter kör- perlicher Kontakt möglich, vielmehr wird eine räumliche Trennung eingehalten. Dies kann beispielsweise bei Montageaufgaben der Fall sein, bei denen der Roboter 1 das Bauteil 3 ortsfest fixiert und der Mensch 2 an dem Bauteil 3 Arbeiten vornimmt. Hierbei sollte die Geschwindigkeit des Roboters 1 so stark reduziert werden, dass keine unmittelbare Gefahr für den Menschen 2 besteht.

Zusätzlich zu dem schon beschriebenen Gefahrenbereich und dem Sicherheitsbereich wird auf dieser Kooperationsstufe ein Kooperationsbereich definiert. Die drei Bereiche sind im dargestellten Ausführungsbeispiel schalenförmig um den Roboter 1 aufgebaut. Im Kooperationsbereich können der Roboter 1 und der Mensch 2 gemeinsame Aufgaben verrichten. Wird durch einen Sensor der Mensch 2 oder ein anderes sicherheitsrelevantes Objekt im Kooperationsbereich detektiert, wird durch die Steuereinheit nach einem entsprechenden Signal der Auswerteeinheit die Geschwindigkeit des Roboters 1 so stark reduziert, dass keine ernsthafte Gefahr für den Menschen 2 besteht.

Wie in der Kooperationsstufe 1 kann die Form des Kooperationsbereichs statisch oder dynamisch sein, also insbesondere hinsichtlich Form, Ausdehnung bzw. Ort angepasst werden. Aufgrund des zusätzlichen Bereichs ist der Gefahrenbereich nun an den Roboter 1 gekoppelt und kann sich dynamisch mit einer aktuellen Pose des Roboters 1 verändern.

In der dritten Kooperationsstufe ist eine direkte Zusammenarbeit zwischen dem Roboter 1 und dem Menschen 2 vorgesehen, eine physische Interaktion, also ein gegenseitiges Berühren jedoch ausgeschlossen. Der Mensch 2 als Benutzer kann beispielsweise dem Roboter 1 durch Handbewegungen deutlich machen, dass dieser seien Bewegung stoppt oder aufnimmt. Hierfür ist typischerweise ein optischer Sensor an dem Roboter 1 oder im Arbeitsraum angebracht, wobei die Auswerteeinheit entsprechende Gesten des Benutzers auswertet und die Steuereinheit zum Ausführen entsprechender Steuerbefehle anleitet. In dieser Kooperationsstufe kann zum Beispiel eine Übergabe des Bauteils 3 von dem Roboter 1 an den Menschen 2 erfolgen. Hierbei signalisiert der Mensch 2 dem Roboter 1 über eine Geste seine Übernahmebereitschaft. Der Roboter 1 steuert dann auf eine offene Hand des Menschen 2 zu, bis der Mensch 2 den Gegenstand berührt. Durch das Aufbringen einer Kraft bestätigt der Mensch 2, dass das Objekt gegriffen ist und der Roboter 1 öffnet seinen am Roboterarm angebrachten Greifer.

Auf dieser Kooperationsstufe können drei oder vier wiederum schalenförmig um den Roboter 1 verlaufende Bereiche vorgesehen sein. Neben dem Sicherheitsbereich soll nun ein erster Kooperationsbereich existieren, in dem der Roboter 1 nur mit verminderter Geschwindigkeit operieren darf. In einem zweiten Kooperationsbereich, der auch als Übergabebereich bezeichnet wird, soll die beschriebene direkte Kooperation stattfinden und die Auswerteeinheit sowie die Steuereinheit ermöglichen nur in diesem Bereich eine

Gestenerkennung oder eine Erkennung von Handbewegungen. Wie zuvor beschrieben können die Bereiche wiederum statisch oder dynamisch ausgebildet sein. Die Form des Übergabebereichs kann an den Roboter 1 gekoppelt sein, so dass ein Annähern des Menschen 2 sofort registriert wird. Wie zuvor wird ein Gefahrenbereich definiert, in dem der Roboter 1 bei Eindringen des Menschen 2 sofort stoppt.

Schließlich kann in der vierten Kooperationsstufe eine direkte Zusammenarbeit mit physischer Interaktion zwischen dem Menschen 2 und dem Roboter 1 erreicht werden. Neben der Steuerung durch Gesten und Handbewegungen ist eine Führung des Roboters 1 mittels einer Kraft-Drehmoment-Regelung möglich. Beispielhaft wird diese Kooperationsstufe zum Positionieren von schweren Bauteilen 3 an einem nur umständlich oder schwer zugänglichen Montageplatz genutzt. Der Roboter 1 wartet in diesem Fall mit dem gegriffe- nen Bauteil 3 bis der Mensch 2 den ersten Kooperationsbereich betritt und den Roboter 1 durch Krafteinwirkung am Bauteil 3 oder am Greifer in die gewünschte Richtung führt. Der Roboter 1 trägt hierbei die Last und der Mensch 2 kann sich auf die Positionierung konzentrieren.

Der Bereichsaufbau der vierten Kooperationsstufe ist in dem dargestellten Ausführungsbeispiel wie der Aufbau der dritten Kooperationsstufe ausgestaltet.

Wie beschrieben werden somit verschiedene Kooperationsstufen und verschiedene Bereiche definiert, wobei die Roboterregelung bzw. die Robotersteuerung an die Kooperationsstufe und die Einteilung in einen der Bereiche angepasst wird. Es kann auch vorgesehen sein, dass die Regelung bei jeder Achse verschieden eingestellt wird. Mittels des vom Computerprogramm ausgeführten Algorithmus, der das beschriebene Verfahren durchführt, wenn das Computerprogramm auf einer Recheneinheit wie einem Computer bzw. der Auswerteeinheit/der Steuereinheit abläuft, kann eine bereichsbasierte und stufen basierte Regelung, wie eine bildbasierte, eine positionsbasierte, eine kraft basierte, eine drehmomentbasierte und bzw. oder eine hybride Regelung durchgeführt werden.

Beispielhaft sollen in den folgenden Tabellen die Konfiguration, mögliche Objekte und Ereignisse und entsprechende Regelungsstrategien dargestellt werden:

Tabelle 1 Bereichskonfiguration

ParameBeschreibung Wert Optionen

ter

Bereich-Konfiguration Haupt: X ML Node 1

Name Name des BeString z.B. Kooperation, Sicher, Gefährlich reichs etc.

Type Typ des BeString 1. „Static": Statischer Bereich reichs 2. „Dynamic": Dynamischer Bereich, der sich am Roboter 1 orientiert (Ausrichtung anhand der Roboterzelle).

3. "Dynamic_rot": Dynamischer Bereich, der sich am Roboter 1 orientiert (Ausrichtung anhand des Robotermodells).

Dimension

1. Wenn type = "static" Polygonfläche definiert durch min. 3 Punkte n_points Anzahl der Integer unbegrenzt

Punkte für das

Polygon

Point_i Punkt i des PolPoint3d Dreidimensionale Punktkoordinaygons i = ten (x, y, z) (meistens z = 0) 0...n points-1

2. Wenn type =„dyna- Quadratische Fläche, die sich aus dem Modell mic" oder„Dyna- des Roboters 1 ergibt

mic_rot"

p_min Minimaler OffPoint3d • Offset in Richtung -x, -y und -z set im Roboterkoordinatensystem

• Bei "Dynamic" bezieht es sich auf das Robotermodell ohne Gelenkwinkel "AI"

p_max Maximaler OffPoint3d • Offset in Richtung -x, -y und -z set im Roboterkoordinatensystem

• Bei "Dynamic" bezieht es sich auf das Robotermodell ohne Gelenkwinkel "AI"

Priority Priorität des Integer • -1: nur für Visualisierung, keine

Bereichs

Prüfung z.B. Kamerasichtfeld.

• N Anzahl der Prioritätsstufen ist frei wählbar

- "0" niedrigste Priorität

- "N" höchste Prioritätsstufe z. B. Gefahrenbereich Tabelle 2 Objekte/Ereignisse in den Bereichen

ParameBeschreibung Wert Optionen

ter

Bereich-Objekte Haupt: X ML Node 2

n_object Anzahl n der Integer unbegrenzt

s möglichen Objekte im Bereich

Object_i Objekt i XML e.g. <object_0> .... </object_0> i = 0 .. Object i Node

-1

Name Name des ObString • z. B. Mensch 2, Roboter 1 usw.

jekts • andere dynamische Objekte

• alle implementierten Typen der Zustandsmaschine sollten definiert werden

Presence Anweisung, String • Wrong: nein, das Objekt darf wenn sich das sich nicht im Bereich befinden. Objekt im Be• Correct: ja, das Objekt darf sich reich befindet

in dem Bereich befinden.

Bereich-Ereignis Haupt: X ML Node 3

n_events Anzahl der Integer unbegrenzt

möglichen Ereignissen in

dem Bereich

Event_i Event i XML e.g. <event_0> .... </event_0> i = 0 .. Event i - Node

1

Name Event Name String • alle implementierten

Klassifikatoren der Zustandsmaschine sollten definiert werden (Events)

• z. B. "part", "covered" usw.

Presence Anweisung, String • Wrong: nein, das Ereignis darf wenn das Event nicht in dem Bereich stattfinden. in dem Bereich • Correct: ja, das Ereignis darf in stattfindet

dem Bereich stattfinden. Tabelle 3 Regelungsstrategie Bereiche

Wie in Figur 2 in einer schematischen dreidimensionalen Ansicht einer Klasseneinteilung samt zugeordneter Ansteuerungsmöglichkeiten dargestellt, wird also durch einen Sensor, beispielsweise eine stereoskopische Kamera, ein sicherheitsrelevantes Merkmal wie ein Abstand zwischen dem Menschen 2 und dem Roboter 1 ermittelt, und eine entsprechende Einteilung in verschiedene Klassen bzw. Bereiche anhand dieses sicherheitsrelevanten Merkmals vorgenommen. Ferner wird durch die Auswerteeinheit neben der Bereichseinteilung auch eine Einteilung je nach Kooperationsstufe vorgenommen und im Zusammenspiel zwischen der Auswerteeinheit und der Steuereinheit eine entsprechende Regelung durch Ansteuerung der Roboterachsen erreicht. Dies ist in Figur 2 schematisch durch die beeinflussbaren drei translatorischen und drei rotatorischen Freiheitsgrade dargestellt, anhand derer die Trajektorie des Roboters 1 definiert wird. Wiederkehrende Merkmale sind in dieser Figur wie auch in den weiteren Figuren mit identischen Bezugszeichen versehen.

Figur 3 zeigt eine tabellarische Übersicht von Sicherheitsfunktionen in jeder der Kooperationsstufen. So soll beispielsweise ein Stoppen des Roboters 1 in jeder der Kooperationsstufen möglich sein. Sicherheitsfunktionen, die in jeder Kooperationsstufe vorgesehen sind, sind mit einem Haken versehen, während ausgeschlossene Sicherheitsfunktionen der jeweiligen Kooperationsstufe mit einem Kreuz gekennzeichnet sind. Optionale Funktionen sind durch den Be- griff "optional" in der Tabelle gekennzeichnet.

So kann es weiter vorgesehen sein, fehlerhafte Vorkommnisse zu detektieren, aber je nach Kooperationsstufe unterschiedlich zu handhaben. Bei einer ka- merabasierten Überwachung von Arbeitsräumen können bestimmte Szenen und Situationen von einer Bildverarbeitungssoftware fehlerhaft interpretiert werden. Eine Häufigkeit derartiger Vorkommnisse und eine Sensitivität sind sehr stark von der verwendeten Hardware bzw. dem genutzten Algorithmus abhängig. Auch bei Verwenden mehrerer Kameras können Verdeckungsfehler, also Fälle, in denen ein im Arbeitsraum befindliches Objekt von einem anderen Objekt verdeckt und daher nicht detektiert wird, nicht vollkommen ausgeschlossen werden.

Insgesamt sollen bei fehlerhaften Ereignissen im Rahmen dieser Schrift vier Fälle unterschieden werden, die sich in zwei Klassen einteilen lassen: ein bislang detektiertes Objekt kann verlorengehen, da es mit einem anderen Objekt vereinigt wurde oder verdeckt ist, und ein neues, bislang nicht detektiertes Objekt kann auftauchen, das nun getrennt von einem anderen Objekt auftaucht oder nicht mehr verdeckt ist. Die Fehlerfälle "Verdeckung" und Verei- nigen treten dann auf, wenn ein Objekt im Arbeitsraum nicht mehr auffindbar ist, das Objekt im aktuellen Zyklus also nicht mehr vom Sensor erkannt wird. In den meisten Fällen hat das Objekt das Sichtfeld des Sensors verlassen, in einigen Fällen kommt es aber zu den genannten Fehlerfällen, die aufgrund der Lage der Objekte zueinander oder durch eine falsche Interpretation von Ka- merabildern oder anderen Aufnahmen zustande kommen.

Bei der Vereinigung befinden sich im Arbeitsraum zwei Objekte, deren Abstand zueinander sehr klein ist. Der Erkennungsalgorithmus kann diese nicht voneinander unterscheiden und erfasst die gesamte Bildregion als ein Objekt. Beispielsweise kann sich im Greifer des Roboters 1 ein schweres Bauteil 3 befinden, an dem etwas montiert werden soll. Der Mensch 2 nähert sich dem Bauteil 3 oder dem Roboter 1 so stark an, dass von der Kamera nur noch ein einziges Objekt erkannt werden kann. Alternativ kann sich der Mensch 2 auch auf einen Stuhl setzen und in der Kameraaufnahme fusionieren der Mensch 2 und der Stuhl zu einem einzigen Objekt. Bei der Verdeckung wird ein kleineres Objekt von einem größeren Objekt verdeckt, was voraussetzt, dass sich beide in einer Flucht zur Kamera befinden. Das kleinere Objekt muss weiter von der Kamera entfernt sein als das größere Objekt. Aufgrund der Perspektive kann die Kamera bzw. der Algorithmus das zweite Objekt im Bild bzw. in der Aufnahme nicht erkennen.

Beispielsweise kann eine Kiste mit Bauteilen 3 im Arbeitsraum stehen. Der Mensch 2 verdeckt diese mit seinem gesamten Körper, so dass die Kiste in der Aufnahme nicht mehr auffindbar ist. Es kann aber auch ein kleiner Teil des Roboters 1 sich im Blickfeld der Kamera befinden, beispielsweise der Greifer.

Bei der Montage oder Übergabe von Bauteilen 3 wird dieser vom Menschen 2 verdeckt. Im Bild der Kamera verschwindet das kleine Objekt hinter dem größeren Objekt. Bei der Fehlerklasse "Neues Objekt" treten die beiden Fehlerfälle "Trennung" und "Abdeckung" dann auf, wenn der Algorithmus ein neues Objekt im Arbeitsraum erkannt hat. Treffen diese beiden Fehlerfälle nicht zu, hat das neue Objekt den Arbeitsraum von außen betreten. Bei der Trennung erfasste der Algorithmus bislang zwei Objekte als ein einziges Objekt, da deren Abstand zueinander zu gering ist. Nachdem sich beide Objekte voneinander entfernt haben, werden diese als zwei separate Objekte in der Aufnahme erkannt. Beispielsweise kann der Mensch 2 an dem Bauteil 3 montieren, das vom Greifer des Roboters 1 gehalten wird. Aufgrund der ge- ringen Distanz wird nur ein einziges Objekte erkannt. Nach Abschluss der Arbeit entfernt sich der Mensch 2 von dem Roboter 1, so dass nun ein neues Objekt i der Aufnahme erkannt wird. Der Mensch 2 kann aber auch nach getaner Arbeit von einem Stuhl aufstehen, wodurch der Algorithmus nun ein zweites Objekt an einer Stelle erkennt, an der zuvor der Mensch 2 gesessen hat.

Bei der "Abdeckung" kann der Algorithmus aufgrund der Perspektive ein verdecktes Objekt in der Aufnahme nicht erkennen. Durch die Bewegung des verdeckenden Objekts wird dieses sichtbar. Der Algorithmus erfasst jetzt das bislang abgedeckte Objekt. So kann der Mensch 2 das Bauteil 3 am Greifer des

Roboters 1 montieren und dabei den sichtbaren Teil des Roboters 1 verde- cken. Bei Beendigung der Arbeit hebt er die Verdeckung wieder auf und der Greifer des Roboters 1 wird in der Aufnahme erkannt.

Für die Registrierung der dargestellten vier Fehlerfälle im laufenden Betrieb wird jeweils ein separater Klassifikator im Computerprogramm verwendet. Hierfür speichert der Algorithmus Daten eines Objekts über mehrere Zyklen in einem Ringspeicher ab. Ist das Maximum des Ringspeichers erreicht, der typischerweise Teil der Auswerteeinheit ist, wird der zeitlich älteste Eintrag automatisch gelöscht. Jedes Objekt mit einer eigenen Identifikationsnummer wird in einem Ringspeicher vermerkt. Figur 4 zeigt schematisch einen derartigen Klassifikator als Ablaufdiagramm.

Die in Figur 3 unter "fehlerhafte Vorkommnisse" vermerkten Ereignisse sollen wie dargestellt also in jeder der Kooperationsstufen vorkommen können. Zudem besteht die Möglichkeit, die Roboterposition oder die Robotergeschwindigkeit zu überwachen bzw. zu kontrollieren, ein optisches System kann in Bereitschaft verbleiben bzw. Oberkörper oder Hand des Menschen 2 überwachen oder eine Kraft-Drehmomentsensorik kann überwacht bzw. kontrolliert werden.

Zusammenfassend zeigt Figur 3 die benötigten Sicherheitsfunktionen gegenüber den beschriebenen vier Kooperationsstufen. Die Sicherheitsanforderungen ergeben sich dabei aus der Art der Zusammenarbeit zwischen dem Menschen 2 und dem Roboter 1. Je näher der Mensch 2 und der Roboter 1 zusammenarbeiten desto detaillierter müssen die Informationen der Umgebung sein, in welcher der MRK-Prozess stattfindet.

Die wichtigste Funktion ist die Sicherheits-Stopp-Funktion, diese Funktion wird in allen Kooperationsleveln bzw. Kooperationsstufen benötigt. Wenn der Mensch 2 den Gefahrenbereich des Roboters 1 betritt, soll dieser sofort gestoppt werden. Die Sicherheitsfunktion soll prüfen, ob die Anwesenheit des Menschen 2 oder des Roboters 1 in der jeweiligen Bereich erlaubt ist. Weiterhin wird der Abstand zwischen dem Roboter 1 und dem Menschen 2 berechnet. Die zweite Sicherheitsfunktion prüft, ob ein Fehlerfall vorliegt oder nicht. Ist dies der Fall, wird verifiziert, ob dieser in dem jeweiligen Bereich zugelassen ist oder nicht. Prinzipiell sind die Fehlerfälle zu keinem Zeitpunkt erwünscht, können aber in der dritten und der vierten Kooperationsstufe aufgrund der Nähe zwischen dem Menschen 2 und dem Roboter 1 auftreten.

Bei der Sicherheitsfunktion„Regelung der Roboterposition" wird die Roboterposition zu jedem Zeitpunkt in allen Kooperationsstufen überwacht. Die Regelung/Beeinflussung wird nur dann benötigt, wenn eine direkte Kooperation stattfindet, also in der dritten und der vierten Kooperationsstufe. Optional kann die Position auch in der zweiten Kooperationsstufe geregelt werden, wenn der Bedarf da ist.

Bei der Sicherheitsfunktion„Robotergeschwindigkeit" wird die Roboterge- schwindigkeit in der zweiten, dritten und vierten Kooperationsstufe je nach

Abstand zwischen dem Roboter 1 und dem Menschen 2 überwacht bzw. geregelt. Ist der Mensch 2 nah, verfährt der Roboter 1 langsam. Ist der Mensch 2 weiter entfernt, fährt der Roboter 1 mit voller Geschwindigkeit. In der ersten Kooperationsstufe sollte die Geschwindigkeit überwacht werden, muss aber nicht geregelt werden, weil der Mensch 2 dem Roboter 1 nicht zu nahe kommen kann.

In der Funktion„Nah-Überwachung" wird angegeben, wie hoch die Informationsdichte des Menschen 2 im Nahbereich in den einzelnen Kooperationsstu- fen sein muss. In der ersten Kooperationsstufe sind keine Informationen im

Nahbereich notwendig, weil es zu keiner Kooperation kommen soll. In der vierten Kooperationsstufe ist dagegen eine hohe Dichte erforderlich. Es wird typischerweise die Position von Kopf, Schultern und Hand des Menschen 2 benötigt.

Bei der Sicherheitsfunktion„Registrierung der Kräfte und Moment" werden mithilfe von Sensoren anliegende Kräfte und Momente gemessen. Diese können Aufschluss über eine Kollision zwischen dem Roboter 1 und dem Menschen 2 geben. Je nach Kooperationsstufe ist eine Überwachung und Regelung erlaubt. Die Funktion wird hauptsächlich für die dritte und die vierte Kooperationsstufe benötigt, wo eine physische Interaktion erwartet wird. In Figur 5 ist in einer schematischen Ansicht der Roboter 1 innerhalb des Arbeitsraums 4 dargestellt. Der Arbeitsraum 4 wird über eine stereoskopische Kamera 5 als Sensor überwacht, die räumlich getrennt von dem Roboter 1 angeordnet ist und sich oberhalb des Roboterfußes befindet sowie mit einer Auswerteeinheit 6 und einer Steuereinheit 7 verbunden ist. Die Auswerteeinheit 6 und die Steuereinheit 7 sind in dem dargestellten Ausführungsbeispiel in einem einzigen Gerät, einem Computer, auf dem auch das Computerprogramm zum Durchführen des Verfahrens der Mensch-Roboter-Kooperation abläuft, verwirklicht. Der Arbeitsraum 4 wird in gleich große virtuelle Teilflächen eingeteilt. In unmittelbarer Umgebung des Roboters 1 wird der Gefahrenbereich 8 definiert und durch eine senkrechte Schraffur gekennzeichnet, während ein angrenzender Kooperationsbereich 9 durch eine waagrechte Schraffur markiert ist. Der Sicherheitsbereich 10, in dem sich der Mensch 2 aufhalten darf, ist nicht schraffiert dargestellt.

Lediglich in den Ausführungsbeispielen offenbarte Merkmale der verschiedenen Ausführungsformen können miteinander kombiniert und einzeln beansprucht werden.