Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR THE CONTACTLESS DETERMINATION OF THE DEGREES OF FREEDOM OF A BODY
Document Type and Number:
WIPO Patent Application WO/2020/074035
Kind Code:
A1
Abstract:
The present invention relates to a method for the contactless determination of the internal and external degrees of freedom of a body in three-dimensional space. The internal degrees of freedom of the body are characterized by the positions of characteristic object points relative to one another or to a prominent object point. Alternatively, the internal degrees of freedom can be described by specifying the parameter values of a transformation which a body describes as an manifestation of a versatile object model. The values for the transformation parameters are estimated with the aid of 3D coordinates of characteristic objects of the body determined according to the invention, with the creation of a radiometric image and a depth image. The external degrees of freedom of the body describe the location and orientation thereof as a totality and are defined by the three-dimensional coordinates of a point of origin assigned to the body, such as the centre of gravity, and by the three-dimensional rotation of a coordinate system attached thereto in relation to an external coordinate system. The point of origin and the coordinate system attached thereto form the object coordinate system, the translation and rotation of which in relation to an external coordinate system represent the external degrees of freedom of the object.

Inventors:
LINK NORBERT (DE)
Application Number:
PCT/DE2019/100813
Publication Date:
April 16, 2020
Filing Date:
September 12, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
INFERICS GMBH (DE)
International Classes:
G06T7/73; G06K9/00; G06T7/77
Other References:
YIHENG CAI ET AL: "3D Human Pose Estimation from RGB+D Images with Convolutional Neural Networks", BIOMEDICAL ENGINEERING AND BIOINFORMATICS, ACM, 2 PENN PLAZA, SUITE 701NEW YORKNY10121-0701USA, 19 September 2018 (2018-09-19), pages 64 - 69, XP058422776, ISBN: 978-1-4503-6506-2, DOI: 10.1145/3278198.3278225
JAMIE SHOTTON ET AL: "Efficient Human Pose Estimation from Single Depth Images", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, vol. 35, no. 12, 1 December 2013 (2013-12-01), USA, pages 2821 - 2840, XP055370295, ISSN: 0162-8828, DOI: 10.1109/TPAMI.2012.241
CHEN, L.WEI, H.FERRYMAN, J.: "A survey of human motion analysis using depth imagery", PATTERN RECOGNITION LETTERS, vol. 34, no. 15, 2013, pages 1995 - 2007
AGGARWAL, J. K.XIA, L.: "Human activity recognition from 3d data: A review", PATTERN RECOGNITION LETTERS, vol. 48, 2014, pages 70 - 80, XP055170360, doi:10.1016/j.patrec.2014.04.011
LEUTENEGGER, S.CHLI, M.SIEGWART, R. Y.: "2011 IEEE International Conference", November 2011, IEEE, article "BRISK: Binary robust invariant scalable keypoints. In Computer Vision (ICCV", pages: 2548 - 2555
NEWELL, A.YANG, K.DENG, J.: "Stacked hourglass networks for human pose estimation", EUROPEAN CONFERENCE ON COMPUTER VISION, October 2016 (2016-10-01), pages 483 - 499
LONG, J.SHELHAMER, E.DARRELL, T.: "Fully convolutional networks for semantic segmentation", PROCEEDINGS OF THE IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 2015, pages 3431 - 3440, XP055573743, doi:10.1109/CVPR.2015.7298965
LIN, G.MILAN, A.SHEN, C.REID, I. D.: "RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation", CVPR, vol. 1, no. 2, July 2017 (2017-07-01), pages 5, XP033249875, doi:10.1109/CVPR.2017.549
SIMON, T.JOO, H.MATTHEWS, I. A.SHEIKH, Y.: "Hand Keypoint Detection in Single Images Using Multiview Bootstrapping", CVPR, vol. 1, July 2017 (2017-07-01), pages 2
Attorney, Agent or Firm:
GEITZ TRUCKENMÜLLER LUCHT CHRIST (DE)
Download PDF:
Claims:
P A T E N T A N S P R Ü C H E

1. Verfahren zur berührungslosen Ermittlung von äußeren und inneren Freiheitsgraden eines Körpers (1 ) im dreidimensionalen Raum, bei dem ein bildgebender Sensor (5) den Körper (1 ) in einem rad-D-Bild erfasst und eine Auswerteeinheit das rad-D-Bild auswertet und auf diesem je- weils einen Körperteil repräsentierende oder diesem angehörende cha- rakteristische Objektpunkte identifiziert, sowie für die identifizierten cha- rakteristischen Objektpunkte eine Liste von Pixelkoordinaten und die Zugehörigkeit zu dem Körperteil oder die Repräsentation des Körper- teils anzeigenden Klassenbezeichnern zurückliefert, wobei die Auswer- teeinheit (12) die so ermittelten Pixelkoordinaten mit den korrespondie- renden Abstandswerten verknüpft und unter Berücksichtigung innerer Freiheitsgrade der Tiefenkamera aus diesen die zugehörigen dreidi- mensionalen Koordinaten in einem Kamerakoordinatensystem be- stimmt und die Körperteile als punktförmige Objekte, als räumliche Ob- jekte oder als einheitlichen Körper interpretiert, woraufhin die Auswer- teeinheit (12) ein Körperkoordinatensystem bezüglich eines Ursprungs- punktes bestimmt und die inneren Freiheitsgrade des Körpers mit La- gedaten der charakteristischen Objektpunkte bezüglich dieses Koordi- natensystems, sowie die äußeren Freiheitsgrade mit Lagedaten des Körperkoordinatensystems im Kamerakoordinatensystem gleichsetzt.

2. Verfahren gemäß Anspruch 1 , dadurch gekennzeichnet, dass die Aus- werteeinheit (12) als Lagedaten punktförmiger Objekte Koordinaten im Körperkoordinatensystem oder für räumliche Objekte jeweils ein eige- nes Objektkoordinatensystem des jeweiligen Objekts bildet und dessen Lage und Orientierung in Bezug auf das Körperkoordinatensystem als dessen Lagedaten bestimmt.

3. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekenn- zeichnet, dass die Auswerteeinheit (12) das rad-D-Bild aus einem zwei- dimensionalen radiometrischen Bild, dessen mit Objektpunkten des Körpers (1 ) korrespondierenden Bildpunkten unterschiedliche Färb- o- der Grauwerte in Abhängigkeit von spektralen und radiometrischen Ei- genschaften von dem betreffenden Objektpunkt emittierter oder reflek- tierter Strahlung zugeordnet sind, sowie einem Tiefenbild, dessen eben- falls mit Objektpunkten des Körpers (1 ) korrespondierenden Bildpunk- ten unterschiedliche Abstandswerte in Abhängigkeit von dem Abstand zwischen dem betreffenden Objektpunkt und dem bildgebenden Sensor (5) zugeordnet sind, zusammenfügt, wobei die Auswerteeinheit (12) je- dem Bildpunkt des radiometrischen Bilds einen zum gleichen Objekt- punkt des Körpers gehörenden Bildpunkt des Tiefenbilds eineindeutig zuordnet.

4. Verfahren gemäß Anspruch 3, dadurch gekennzeichnet, dass die Zu ordnung eines Bildpunkts des radiometrischen Bildes zu einem virtuel- len, insbesondere durch Interpolation ermittelten, Bildpunkt des Tiefen- bildes erfolgt, oder dass die Zuordnung eines Bildpunkts des Tiefenbil- des zu einem virtuellen, insbesondere durch Interpolation ermittelten, Bildpunkt des radiometrischen Bildes erfolgt.

5. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) aus Kalibrierungsdaten des bildgebenden Sensors (5) sowie den von dem bildgebenden Sen- sor (5) ermittelten Bilddaten dessen Lage in einem äußeren Koordina- tensystem bestimmt.

6. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass der bildgebende Sensor (5) eine ein radiometri- sches Bild erzeugende radiometrische Kamera (6), vorzugsweise eine CCD- oder CMOS-Kamera, und eine ein Tiefenbild erzeugende Tiefen- kamera (10), vorzugsweise eine TOF-Kamera, oder eine Kombination hieraus, etwa eine RGB-D-Kamera, aufweist.

7. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) charakteristische Objekt- punkte klassifiziert und aufgrund dieser Klassifikation zu einem charak- teristischen Objekt (2) zuordnet.

8. Verfahren gemäß Anspruch 7, dadurch gekennzeichnet, dass die Aus- werteeinheit (12) eine Wahrscheinlichkeitskarte erstellt, gemäß der je- dem charakteristischen Objektpunkt ein Wert für die Wahrscheinlichkeit zugeordnet wird, mit der er einem charakteristischen Objekt (2) zugehö- rig ist und/oder gemäß der jedes charakteristische Objekt (2) an einer bestimmten Position angeordnet ist.

9. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass jedem charakteristischen Objekt (2) ein Abstands- wert zur Bemessung des Abstands des charakteristischen Objekts (2) zu dem bildgebenden Sensor (5) zugewiesen wird.

10. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass als Ursprungspunkt (4) des Objektkoordinatensys- tems der Schwerpunkt des Körpers (1 ) definiert wird.

11. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass als Koordinatenachsen des Objektkoordinatensys- tems die Hauptachsen des Körpers (1 ) definiert werden.

12. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass der Auswerteeinheit (5) eine Datenbank (13) zuge- ordnet ist, aus welcher die Auswerteeinheit (5) anhand der Gesamtheit der charakteristischen Objektpunkte (2) ein Körpermodell auswählt und aufruft, welche zu der Gesamtheit charakteristischer Objektpunkte (2) zugehörige Freiheitsgrade des Körpers (1 ) definiert und die Ausprä- gungswerte der Freiheitsgrade des Körpers bestimmt.

13. Verfahren gemäß Anspruch 12, dadurch gekennzeichnet, dass jedes in der Datenbank (13) hinterlegte Körpermodell einen Körper (1 ) betrifft und eine Mehrzahl diesem zugeordneter charakteristischer Objektpunk- te (2) nach Art und Anzahl zusammenfasst, sowie deren Verbindungen und die Freiheitsgrade der gegenseitigen Bewegung der enthaltenen charakteristischen Objekte (2) umfasst.

14. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) im Zuge einer Plausibilisie- rung die gegenseitige Lage der charakteristischen Objekte (2) und ihre gegenseitige Winkelstellung ermittelt und mit den Vorgaben des Kör- permodells abgleicht.

15. Verfahren gemäß Anspruch 14, dadurch gekennzeichnet, dass die

Auswerteeinheit (12) im Fall einer starken Abweichung von den Vorga- ben des Körpermodells ein anderes Körpermodell auswählt und/oder die charakteristischen Objekte (2) neu ordnet.

16. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass auf dem rad-D-Bild verdeckte oder fehlende charak- teristische Objekte (2) von der Auswerteeinheit (12) unberücksichtigt bleiben.

17. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) verschiedene charakteris- tische Objekte (2) bedarfsweise zu unterschiedlichen Körpern (1 ) auf demselben rad-D-Bild zuordnet.

18. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) die in den Bildern des bildgebenden Sensors (5) erfasste Lage des Körpers (1 ) mit in der Da- tenbank (13), vorzugsweise in dem in der Datenbank (13) gespeicher- ten Körpermodell, hinterlegten Standardsituationen vergleicht und im

Fall der Übereinstimmung dem Körper (1 ) eine Situationsbeschreibung zuordnet.

19. Verfahren gemäß Anspruch 18, dadurch gekennzeichnet, dass die Auswerteeinheit (12) im Fall einer Übereinstimmung der Lage des Kör- pers (1 ) mit einer hinterlegten kritischen Situation eine Alarmsignalisie- rung auslöst.

GEÄNDERTE ANSPRÜCHE

beim Internationalen Büro eingegangen am 23 Januar 2020 (23.01.2020)

Verfahren zur berührungslosen Ermittlung von äußeren Frelheltsqraöen esnes Körpers (1 ), weiche dessen Lage und Orientierung als Ganzes im

Raum beschreiben, und inneren Freiheitsgraden eines Körpers (1 )-. welche Lagen und Orientierungen seiner beweglichen Teile bezie hungsweise dessen Deformation in Bezug auf ein Referenzmodell in einem Körperkoerdinatensystem darstellen im dreidimensionalen Raum, bei dem ein bildgebender Sensor (5) den Körper (1 ) in einem rad-D-Bild erfasst und eine Auswerteeinheit das rad-D-Bild auswertet und auf diesem jeweils einen Körperteil repräsentierende oder diesem angehörende charakteristische Objektpunkte identifiziert, sowie für die identifizierten charakteristischen Objektpunkte eine Liste von Pixelkoor- dinaten und die Zugehörigkeit zu dem Körperteil oder die Repräsentati- on des Körperteils anzeigenden Klassenbezeichnern zurückliefert, wo bei die Auswerteeinheit (12) die so ermittelten Pixelkoordinaten mit den korrespondierenden Abstandswerten verknüpft und unter Berücksichti- gung innerer Freiheitsgrade der Tiefenkamera aus diesen die zugehöri- gen dreidimensionalen Koordinaten in einem Kamerakoordinatensys- tem bestimmt und die Körperteile als punktförmige Objekte, als räumli- che Objekte oder als einheitlichen Körper interpretiert, woraufhin die Auswerteeinheit (12) ein Körperkoordinatensystem bezüglich eines Ur- sprungspunktes bestimmt und die inneren Freiheitsgrade des Körpers mit Lagedaten der charakteristischen Objektpunkte bezüglich dieses Koordinatensystems, sowie die äußeren Freiheitsgrade mit Lagedaten des Körperkoordinatensystems im Kamerakoordinatensystem gleich- setzt.

Verfahren gemäß Anspruch 1 , dadurch gekennzeichnet, dass die Aus- werteeinheit (12) als Lagedaten punktförmiger Objekte Koordinaten im

GEÄNDERTES BLATT (ARTIKEL 19) Körperkoordinatensystem oder für räumliche Objekte jeweils ein eige- nes Objektkoordinatensystem des jeweiligen Objekts bildet und dessen Lage und Orientierung in Bezug auf das Körperkoordinatensystem als dessen Lagedaten bestimmt.

3. Verfahren gemäß einem der Ansprüche 1 oder 2, dadurch gekenn- zeichnet, dass die Auswerteeinheit (12) das rad-D-Bild aus einem zwei- dimensionalen radiometrischen Bild, dessen mit Objektpunkten des Körpers (1 ) korrespondierenden Bildpunkten unterschiedliche Färb- o- der Grauwerte in Abhängigkeit von spektralen und radiometrischen Ei- genschaften von dem betreffenden Objektpunkt emittierter oder reflek- tierter Strahlung zugeordnet sind, sowie einem Tiefenbild, dessen eben- falls mit Objektpunkten des Körpers (1 ) korrespondierenden Bildpunk- ten unterschiedliche Abstandswerte in Abhängigkeit von dem Abstand zwischen dem betreffenden Objektpunkt und dem bildgebenden Sensor (5) zugeordnet sind, zusammenfügt, wobei die Auswerteeinheit (12) je- dem Bildpunkt des radiometrischen Bilds einen zum gleichen Objekt- punkt des Körpers gehörenden Bildpunkt des Tiefenbilds eineindeutig zuordnet.

4. Verfahren gemäß Anspruch 3, dadurch gekennzeichnet, dass die Zu ordnung eines Bildpunkts des radiometrischen Bildes zu einem virtuel- len, insbesondere durch Interpolation ermittelten, Bildpunkt des Tiefen- bildes erfolgt, oder dass die Zuordnung eines Bildpunkts des Tiefenbil- des zu einem virtuellen, insbesondere durch Interpolation ermittelten, Bildpunkt des radiometrischen Bildes erfolgt.

5. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) aus Kalibrierungsdaten des bildgebenden Sensors (5) sowie den von dem bildgebenden Sen- sor (5) ermittelten Bilddaten dessen Lage in einem äußeren Koordina- tensystem bestimmt.

6. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass der bildgebende Sensor (5) eine ein radiometri-

GEÄNDERTES BLATT (ARTIKEL 19) sches Bild erzeugende radiometrische Kamera (6), vorzugsweise eine CCD- oder CMOS-Kamera, und eine ein Tiefenbild erzeugende Tiefen- kamera (10), vorzugsweise eine TOF-Kamera, oder eine Kombination hieraus, etwa eine RGB-D-Kamera, aufweist.

7. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) charakteristische Objekt- punkte klassifiziert und aufgrund dieser Klassifikation zu einem charak- teristischen Objekt (2) zuordnet.

8. Verfahren gemäß Anspruch 7, dadurch gekennzeichnet, dass die Aus- werteeinheit (12) eine Wahrscheinlichkeitskarte erstellt, gemäß der je- dem charakteristischen Objektpunkt ein Wert für die Wahrscheinlichkeit zugeordnet wird, mit der er einem charakteristischen Objekt (2) zugehö- rig ist und/oder gemäß der jedes charakteristische Objekt (2) an einer bestimmten Position angeordnet ist.

9. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass jedem charakteristischen Objekt (2) ein Abstands- wert zur Bemessung des Abstands des charakteristischen Objekts (2) zu dem bildgebenden Sensor (5) zugewiesen wird.

10. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass als Ursprungspunkt (4) des Objektkoordinatensys- tems der Schwerpunkt des Körpers (1 ) definiert wird.

11. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass als Koordinatenachsen des Objektkoordinatensys- tems die Hauptachsen des Körpers (1 ) definiert werden.

12. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass der Auswerteeinheit (5) eine Datenbank (13) zuge- ordnet ist, aus welcher die Auswerteeinheit (5) anhand der Gesamtheit der charakteristischen Objektpunkte (2) ein Körpermodell auswählt und aufruft, welche zu der Gesamtheit charakteristischer Objektpunkte (2)

GEÄNDERTES BLATT (ARTIKEL 19) zugehörige Freiheitsgrade des Körpers (1 ) definiert und die Ausprä- gungswerte der Freiheitsgrade des Körpers bestimmt.

13. Verfahren gemäß Anspruch 12, dadurch gekennzeichnet, dass jedes in der Datenbank (13) hinterlegte Körpermodell einen Körper (1 ) betrifft und eine Mehrzahl diesem zugeordneter charakteristischer Objektpunk- te (2) nach Art und Anzahl zusammenfasst, sowie deren Verbindungen und die Freiheitsgrade der gegenseitigen Bewegung der enthaltenen charakteristischen Objekte (2) umfasst.

14. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) im Zuge einer Plausibilisie- rung die gegenseitige Lage der charakteristischen Objekte (2) und ihre gegenseitige Winkelstellung ermittelt und mit den Vorgaben des Kör- permodells abgleicht.

15. Verfahren gemäß Anspruch 14, dadurch gekennzeichnet, dass die

Auswerteeinheit (12) im Fall einer starken Abweichung von den Vorga- ben des Körpermodells ein anderes Körpermodell auswählt und/oder die charakteristischen Objekte (2) neu ordnet.

16. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass auf dem rad-D-Bild verdeckte oder fehlende charak- teristische Objekte (2) von der Auswerteeinheit (12) unberücksichtigt bleiben.

17. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) verschiedene charakteris- tische Objekte (2) bedarfsweise zu unterschiedlichen Körpern (1 ) auf demselben rad-D-Bild zuordnet.

18. Verfahren gemäß einem der vorhergehenden Ansprüche, dadurch ge- kennzeichnet, dass die Auswerteeinheit (12) die in den Bildern des bildgebenden Sensors (5) erfasste Lage des Körpers (1 ) mit in der Da- tenbank (13), vorzugsweise in dem in der Datenbank (13) gespeicher-

GEÄNDERTES BLATT (ARTIKEL 19) ten Körpermodell, hinterlegten Standardsituationen vergleicht und im Fall der Übereinstimmung dem Körper (1 ) eine Situationsbeschreibung zuordnet. 19. Verfahren gemäß Anspruch 18, dadurch gekennzeichnet, dass die

Auswerteeinheit (12) im Fall einer Übereinstimmung der Lage des Kör- pers (1 ) mit einer hinterlegten kritischen Situation eine Alarmsignalisie- rung auslöst.

GEÄNDERTES BLATT (ARTIKEL 19)

Description:
VERFAHREN ZUR BERÜHRUNGSLOSEN ERMITTLUNG VON FREIHEITSGRADEN EINES KÖRPERS

Die vorliegende Erfindung betrifft ein Verfahren zur berührungslosen Ermittlung von äußeren und inneren Freiheitsgraden eines Körpers im dreidimensionalen Raum.

Ganz allgemein ist es bekannt, durch radiometrische Bilder die radiometrischen Eigenschaften, also spektrale Eigenschaften und Intensitäten, sowie durch Tie- fen- beziehungsweise Abstandsbilder die geometrischen Eigenschaften der er- fassten Umgebung als Projektionen auf zweidimensionale Sensorflächen dar- zustellen. Ein radiometrisches Bild stellt dabei die radiometrischen Eigenschaf- ten der abgebildeten Objekte dar, wobei die Position des Bildpunktes in der Bildsensorfläche darstellt, in welcher Raumrichtung sich der dorthin abgebildete Objektpunkt befindet. Die dem Bildpunkt des radiometrischen Bildes zugeord- neten Werte stellen die spektralen Eigenschaften und Intensitäten der durch den Bildpunkt vom Objektpunkt empfangenen Strahlung durch Mengen zuge- ordneter Farbwerte dar. Die Verteilung von Farbwerten auf eine Menge von Bildpunkten wird als Textur bezeichnet.

Ein Tiefenbild stellt hingegen die räumlichen Eigenschaften der abgebildeten Objekte dar, wobei die Position des Bildpunktes in der Bildsensorfläche dar- stellt, in welcher Raumrichtung sich der dorthin abgebildete Objektpunkt befin- det. Die dem Bildpunkt des Tiefenbildes zugeordneten Werte stellen den räum- lichen Abstand des zum jeweiligen Bildpunkt gehörigen Objektpunktes von ei- nem Referenzpunkt bezüglich des Bildes dar. Eine Kombination dieser beiden Bilder wird im Spezialfall, dass das radiometrische Bild ein RGB-Bild ist, als RGB-D-Bild, also als Bild mit Informationen zu Rotwert, Gelbwert, Blauwert und Tiefenwert, bezeichnet. Im Nachfolgenden wird analog die allgemeine Kombina- tion eines radiometrischen Bildes mit einem Tiefenbild als rad-D-Bild bezeich- net.

Die Erfindung ist in das Fachgebiet der digitalen Bildverarbeitung einzuordnen. Hierbei wird die Bestimmung äußerer Freiheitsgrade von Körpern, welche deren Lage und Orientierung als Ganzes im Raum beschreiben, meist als 3D- Posenschätzung bezeichnet. Für starre Körper ist damit der räumliche Zustand vollständig bestimmt und kann durch Angabe eines Körperkoordinatensystems, also von dessen Ursprungslage in einem äußeren Koordinatensystem und der Orientierung von dessen Koordinatenachsen in diesem äußeren Koordinaten- system, repräsentiert werden. Ist der Körper jedoch seinerseits aus mehreren gegeneinander beweglichen Objekten zusammengesetzt, oder in sich defor- mierbar, so wird für die vollständige Beschreibung des räumlichen Zustands des Körpers zusätzlich eine Bestimmung der inneren Freiheitsgrade des Kör- pers benötigt, welche die Lagen und Orientierungen der beweglichen Teile, be- ziehungsweise dessen Deformation in Bezug auf ein Referenzmodell in einem Körperkoordinatensystem darstellen. Handelt es sich bei den betrachteten Kör- pern beispielsweise um Personen, so können die äußeren Freiheitsgrade etwa durch die Schwerpunktskoordinaten und die Drehmatrix in Bezug auf das äuße- re Koordinatensystem angegeben werden, während die inneren Freiheitsgrade zum Beispiel von den Lagen der Gelenkpunkte im Körperkoordinatensystem, einer Mesh-Darstellung eines Körpermodells, Parametern eines hinsichtlich der Körperform flexiblen Körpers, oder durch eine Deformationstransformation ei- nes Standardkörpers dargestellt werden. Häufig wird als Pose eines Körpers sowohl die Menge der äußeren, als auch die Menge der inneren Freiheitsgrade, oder auch die Menge aller Freiheitsgrade eines Körpers bezeichnet. Die Ansätze zur Posenschätzung in diesem allgemeinen Sinn werden anhand der jeweils ermittelten Freiheitsgrade des Körpers unterschieden. Während starre Körper ausschließlich äußere Freiheitsgrade besitzen, können flexible Körper zusätzlich auch innere Freiheitsgrade aufweisen.

Die vorliegende Erfindung beruht auf der Verknüpfung der Auswertungsergeb- nisse von radiometrischen Bildern mit der Information aus Tiefenbildern von der gleichen von einer radiometrischen Kamera bzw. Tiefenkamera erfassten Sze- ne. Je nach Quelle dieser Bilder können diese auch bereits im Vorfeld zusam- mengefügt oder direkt als rad-D-Bild aufgenommen worden sein. Der Stand der Technik ist besonders stark entwickelt bei der Erkennung von Bildbereichen, in denen die Ausprägung der Textur von Objekten oder Objektteilen einer be- stimmten Klasse hervorgerufen wurde. Dieser Vorgang wird als Detektion be- zeichnet und ordnet einem Bildbereich oder einer ausgezeichneten Pixel- Koordinate daraus ein entsprechendes Klassen-Label zu. Relevant sind für die Erfindung lediglich flexible Körper, deren intrinsische und extrinsische Freiheits- grade über die Erfindung berührungslos ermittelt werden sollen.

Die Erfindung bezieht sich ferner auf Körper in ihrer natürlichen Erscheinungs- form, so dass alle Verfahren, welche auf an den Körpern zusätzlich angebrach- ten Markern beruhen, ebenfalls nicht betrachtet werden sollen. Die Erfindung soll ferner die Freiheitsgrade der Objekte instantan bestimmen, also aus einer Momentaufnahme einer Szene, in welcher der Körper erfasst wird, weshalb Verfahren, welche eine zeitliche Folge von Aufnahmen der Szene auswerten, um die Freiheitsgrade zu bestimmen, ebenfalls nicht Gegenstände der Betrach- tungen im Stand der Technik sind.

Unter alternativer Verwendung von ausschließlich radiometrischen Bildern oder ausschließlich Tiefenbildern kann die gestellte Aufgabe zwar grundsätzlich ge- löst werden, jedoch ist dies mit Einschränkungen hinsichtlich Qualität und Flexi- bilität in Bezug auf die zu untersuchenden Körper verbunden. lm Falle der Bestimmung von Freiheitsgraden auf der Basis von radiometri- schen Bildern ist es bekannt, Kameras einzusetzen, die radiometrische Eigen- schaften von Objektoberflächen, wie etwa Energiestromdichten reflektierten Lichts oder abgestrahlter Infrarot- oder Mikrowellenstrahlung, auf einer Sensor- fläche als elektrisches Signal darstellen. Dieses wird abgetastet, digitalisiert und als Datenarray verfügbar gemacht. Die Schätzung der allgemeinen 3D-Pose von Körpern auf Basis der Daten von radiometrischen Bildern ist vor Allem für die Objektklasse von Personen bezüglich Körper- und Handposen sowie Kopf- posen ein sehr stark bearbeitetes Aufgabenfeld, für dessen Lösung Methoden entwickelt wurden, welche ebenfalls auf andere Objektklassen mit inneren ge- ometrischen Freiheitsgraden übertragbar sind.

Hierbei ist zu unterscheiden zwischen der Beschreibung der inneren Freiheits- grade durch direkte Angabe der 3D-Koordinatenwerte charakteristischer Ob- jektpunkte, wie etwa der Gelenkpunkte einer Person, Angaben von Parameter- werten eines flexiblen Körpermodells, das durch ein parametrisiertes Oberflä- chen-Funktionenmodell dargestellt ist, sowie der Angabe der Parameter einer Transformationsvorschrift, aus der sich die Geometrie des aktuellen Körpers aus der Geometrie eines gewählten Referenzmodells darstellen lässt, oder durch die Verschiebung der Knoten eines Oberflächen-Netzes, üblicherweise auch als Mesh bezeichnet, der jeweils betrachteten Körper-Klasse.

Grundsätzlich leiden alle diese Ansätze darunter, dass bei der Abbildung einer Kamera auf eine zumeist ebene Bildfläche lediglich die Richtung des zu einem Bildpunkt gehörigen Sehstrahls dargestellt wird und somit die Information über den Abstand und damit über die zugrunde liegenden 3D-Koordinaten des Ob- jektpunktes verloren gehen. Die Rekonstruktion der 3D-Koordinaten aus einem derartigen Bild stellt somit ein mehrdeutiges, inverses Problem dar. Für die Re- konstruktion der 3D-Koordinaten muss die grundlegende Mehrdeutigkeit durch Randbedingungen über die geometrische Objektkonstellation und deren Trans- formation in das Bild aufgelöst werden. Das grundsätzliche Vorgehen bei der Ermittlung der Parameterwerte bei Verwendung eines flexiblen Oberflächen- Funktionenmodells oder derjenigen einer Transformationsvorschrift besteht in einer Minimierung der Abweichung des in einer Aufnahme dargestellten Objekt- bildes und des aufgrund der Parameter des flexiblen Objektmodells oder der Parameter der Transformationsvorschrift berechneten Objektbildes.

Ferner müssen dazu noch die Parameter des Abbildungsmodells geometrisch und radiometrisch sowie des Beleuchtungsmodells oder andere Modelle der jeweiligen Texturerzeugung bekannt sein oder mit geschätzt werden. Bei diesen Methoden ist somit eine Menge von Modellen erforderlich, die für die jeweilige Objektklasse und für eine Klasse an Randbedingungen wie etwa die Abbildung oder Beleuchtung, spezifisch erstellt werden müssen. Es ergibt sich damit eine große Menge an zu bestimmenden Modellparametern und folglich ein hochdi- mensionales Optimierungsproblem, das selbst bei einfachsten Abbildungsmo- dellen und selbst bei Verwendung der Quadratfehlersumme als Abweichungs- maß nicht-linear ist, was iterative Optimierungsverfahren erzwingt.

Ferner weist die Kostenfunktion eine hohe Anzahl an relativen Minima auf, in denen der Optimierer stecken bleiben kann und dann falsche Lösungen liefert. Der Vorteil der monokularen Sensorik wird erkauft durch die Mehrdeutigkeit der Lösung, den hohen Aufwand bei der Erstellung der generischen Modelle für die Abbildungsgeometrie und -radiometrie für den texturerzeugenden Prozess, wie etwa die Beleuchtung, sowie für das eigentliche flexible Objektmodell oder Transformationsmodell für die zu untersuchende Objektklasse.

Die Methoden zur Gewinnung der Objektfreiheitsgrade ausschließlich aus ra- diometrischen Bildern setzen sich aus den dargelegten Modellen und Optimie- rungsverfahren zusammen. Ihr Gültigkeitsbereich ist daher immer auf das Dar- stellungsvermögen der verwendeten Modelle eingeschränkt, was eine Anwen- dung entsprechend beschränkt. Wegen der Komplexität der Optimierungsauf- gabe ist ferner ein erheblicher Rechenaufwand zur Ermittlung der Freiheitsgra- de vonnöten. Werden hingegen Tiefenbilder einer Bestimmung von Freiheitsgraden zugrunde gelegt, kann zunächst festgehalten werden, dass diese besonders im Anwen- dungsbereich der Mensch-Maschine-Interaktion etabliert und häufig in entspre- chende Consumer-Produkte integriert sind. Dabei herrschen bei den Sensoren 3D-Kameras auf der Grundlage von stereoskopischen Anordnungen, ob passiv, mit strukturierter Beleuchtung oder beides, sowie auf Grundlage von Licht- Laufzeitmessungen, vermittels Lidar oder durch den Einsatz von Time-of-flight- Kameras (TOF-Kameras) vor. Die damit erhaltenen Abstands- bzw. Tiefenbilder werden meist zunächst in Vordergrund (Objekt) und Hintergrund segmentiert, wobei entweder der Hintergrund als statisch angenommen und angelernt wird und dieser vom aktuellen Tiefen- bzw. Abstandsbild subtrahiert wird, um durch anschließende Schwellwertoperation den Vordergrund zu segmentieren, oder es wird bereits im Vorfeld ermitteltes Vorwissen über den Raumbereich, in dem sich Objekte aufhalten können, zur Segmentierung verwendet.

Die segmentierten Bildbereiche werden sodann, insbesondere bei Bildern aus Stereoverfahren, mit Rauschfiltern und Lochfüll-Verfahren, wegen nicht vorhan- dener Abstandsmesswerte aufgrund mangelnder Reflektivität oder Strukturie- rung der Oberflächen, für die eigentliche Posenschätzung vorbereitet. Letztere ermittelt die Posen der Körper entweder aus A-priori-Modellannahmen über Teilecharakteristika der betrachteten Objekte, wie etwa die geodätische Distanz der Gliedmaßen bei Personen, oder mithilfe maschinellen Lernens, wie etwa mittels tiefer Faltungsnetze erstellte Klassifikatoren, welche die segmentierten Pixel des Abstands- bzw. Tiefenbildes anhand der räumlichen Zusammenhänge mit den anderen Pixeln nach den interessierenden Objektteilen klassifizieren, deren Lagen die inneren Freiheitsgrade des Objekts darstellen.

Eine Übersicht über den entsprechenden Stand der Wissenschaft geben die Reviews von Chen, L., Wei, H. und Ferryman, J. (2013) ' survey of human motion analysis using depth imagery", Pattern Recognition Leiters, 34 (15), 1995-2007 sowie Aggarwal, J. K. und Xia, L. (2014) "Human activity recognition from 3d data: A review." Pattern Recognition Leiters, 48, 70-80. Unter Posenschätzung wird im Stand der Wissenschaft ebenfalls die Ermittlung charakteristischer Punkte von Objekten, meist als„key point detection“ be- zeichnet, in radiometrischen Bildern verstanden, wobei deren Lage ausschließ- lich durch die Angabe von deren Pixelkoordinaten im Bildkoordinatensystem charakterisiert wird. Während meist lediglich hinsichtlich ihrer lokalen Umge- bung auffällige Punkte ohne semantische Bedeutung zum Zweck der Zuord- nung homologer Punkte in anderen Bildern (siehe z.B. [Leutenegger, S., Chli, M., & Siegwart, R. Y. (2011 , November). BRISK: Binary robust invariant scala- ble keypoints. In Computer Vision (ICCV), 2011 IEEE International Conference on (pp. 2548-2555). IEEE.]) ermittelt werden, werden im Bereich der Posen- schätzung von Personen beispielsweise auch die Lagen von Gelenkpunkten verstanden (siehe z.B. [Newell, A., Yang, K., & Deng, J. (2016, October).

Stacked hourglass networks for human pose estimation. In European Confer- ence on Computer Vision (pp. 483-499). Springer, Cham.]). Derartige keypoints besitzen für die Erfassung des Objektzustands relevante semantische Bedeu- tung als Objektteil (z.B.„rechtes Schultergelenk“). Die Angabe von deren Lagen ergibt eine Konstellation, die den inneren Zustands des Objekts in Bildkoordina- ten widergibt, aber nicht den eigentlich relevanten räumlichen Zustand.

Ebenfalls im Bildraum von radiometrischen Bildern (d.h. im Pixel- Koordinatensystem des Bildes) operieren Verfahren aus dem Stand der Wis- senschaft, welche jedem Bildpunkt aufgrund seiner Farbausprägung und den Beziehungen zu den Farbausprägungen der anderen Bildpunkte ein Bedeutung in Form eines Label-Wertes zugeordnet, welches seine Zugehörigkeit zu einem Objektteil angibt (z.B. das Label„Unterarm“). Diese Verfahren werden als„Se- mantische Segmentierung“ bezeichnet (z.B. [Long, J., Shelhamer, E., & Darreil, T. (2015). Fully convolutional networks for semantic Segmentation. In Proceed- ings of the IEEE Conference on Computer Vision and pattern recognition (pp. 3431-3440).]) und sowohl für ganze Objekte, wie auch für Objektteile („Seman- tic Part Segmentation“, z.B. für Personen [Lin, G., Milan, A., Shen, C., & Reid, I. D. (2017, July). RefineNet: Multi-path Refinement Networks for High-Resolution Semantic Segmentation. In Cvpr (Vol. 1 , No. 2, p. 5).]) verwendet. Jedes Ob- jektteil wird somit durch die zugehörige Menge an Pixelkoordinaten charakteri- siert, nicht jedoch durch räumliche Information.

Ausgehend von diesem Stand der Technik liegt der vorliegenden Erfindung die Aufgabe zu Grunde, ein Verfahren zur berührungslosen Ermittlung von Frei- heitsgraden eines Körpers im dreidimensionalen Raum zu schaffen, welches ein vertieftes Wissen über die Lage eines Körpers im Raum und damit über die äußeren Freiheitsgrade, sowie die räumliche Anordnung einzelner Objekte des Körpers oder seiner Oberfläche, und damit über die inneren Freiheitsgrade, vermittelt und es erlaubt, eine Situationsprüfung unter Berücksichtigung der äu- ßeren und inneren Freiheitsgrade vorzunehmen.

Dies gelingt durch ein Verfahren zur berührungslosen Ermittlung von Freiheits- graden eines Körpers im dreidimensionalen Raum gemäß den Merkmalen des unabhängigen Anspruchs 1. Weitere sinnvolle Ausgestaltungen eines solchen Verfahrens können den sich anschließenden abhängigen Ansprüchen entnom- men werden.

Zum Verständnis des Verhaltens von Objekten wird der zeitliche Verlauf des Objektzustandes benötigt. Ist dieser durch die Lage und Orientierung des Kör- pers als Ganzes im Raum sowie entweder durch die räumliche Anordnung cha- rakteristischer Objektpunkte oder Objekte, oder durch die Ausprägung der Oberfläche des Objekts beschrieben, bilden diese zusammen die Freiheitsgra- de des Objekts. Die äußeren Freiheitsgrade beschreiben dabei die Lage und Orientierung des Körpers als Ganzes und die inneren Freiheitsgrade die räumli- che Anordnung der charakteristischen Objektpunkte bzw. Objekte, welche die Komponenten des Körpers kennzeichnen oder die Ausprägung der Oberfläche des Objekts. Die Freiheitsgrade der charakteristischen Objekte sind durch An- gabe von deren Starrkörper-Freiheitsgraden und/oder durch die Angabe der Translationsfreiheitsgrade bestimmt. Die Freiheitsgrade der Oberfläche des Ob- jekts werden durch die Angabe ihres Polygonnetzes, also etwa der Knoten und Kanten des Graphen und Attribute zugehöriger Facetten, sowie einer Menge der zu den Knoten gehörigen Raumkoordinaten bestimmt oder bei der Be- schreibung durch ein Oberflächen-Funktionenmodell durch dessen Parameter- werte, wie etwa Koeffizienten der Zusammensetzung aus Kugelflächenfunktio- nen, dargestellt. Zusammen beschreiben die äußeren und die inneren Frei- heitsgrade den kompletten räumlichen Zustand des Objekts. So kann bei- spielsweise der räumliche Zustand einer Person durch die Angabe der Raum- Koordinatenwerte von Körperschwerpunkt und der Winkel-Koordinatenwerte der Flauptachsen des Körpers als äußere Freiheitsgrade und der Raumkoordi- natenwerte aller Gelenke der Person sowie von deren Augen repräsentiert wer- den.

Im Rahmen der Erfindung wird die Ermittlung der Freiheitsgrade dadurch vor- genommen, dass ein rad-D-Bild einer beobachteten Situation erstellt wird. Die- ses besteht prinzipiell aus einem radiometrischen Bild und einem Tiefenbild, wobei die Erfindung sowohl mit einem fertigen rad-D-Bild als auch mit getrenn- ten radiometrischen Bildern und Tiefenbildern arbeiten kann. Der Einfachheit halber wird zur Erläuterung des Verfahrens im Folgenden davon ausgegangen, dass ein Tiefenbild und ein separates radiometrisches Bild erstellt werden, die mithilfe einer Auswerteeinheit zueinander referenziert werden.

Während das radiometrische Bild hierbei ein herkömmliches Foto einer Kamera sein kann, das zeilenweise aus Pixeln mit einem jeweils zugehörigen Farbwert, also beispielsweise einem Werte-Tripel der Rot-, Grün- und Blau-Ausprägung oder nur ein Grauwert, aufgebaut ist, besteht das Tiefenbild einer Kamera zei- lenweise aus Pixeln mit einem jeweils zugehörigen Tiefenwert, der den Abstand desjenigen Punktes, welcher eine Reflexion auf das Pixel zurückwirft, von der Tiefenkamera repräsentiert. Derartige Kameras sind, wie bereits beschrieben, weit verbreitet und bekannt und stellen an sich bekannten Stand der Technik dar. Die beiden so entstehenden Bilder werden dann, falls sie nicht bereits prinzip- bedingt deckungsgleich sind, durch eine Transformation in einen gegenseitigen Bezug zueinander gesetzt, also referenziert, welche den Pixeln des radiometri- schen Bildes das jeweils korrepondierende Pixel des Tiefenbildes zuordnet. Die Transformationsschätzung erfolgt, indem jeweils zusammengehörige, homolo- ge, Punkte identifiziert und einander zugeordnet werden, und daraus die Para- meter der je nach Kamera-Geometrien gewählten Transformationsvorschrift (z.B. Homographie für zwei Loch-Kameras) ermittelt werden. So wird jedem Bildpunkt des radiometrischen Bildes ein Tiefenwert zugeordnet.

Im Anschluss daran wird das Bildpaar aus radiometrischem Bild und Tiefenbild von einer Auswerteeinheit ausgewertet, welche zunächst charakteristische Ob- jektpunkte oder Objekte im radiometrischen Bild identifiziert, welche die Kom- ponenten des Körpers repräsentieren, und diese so miteinander gruppiert, dass die charakteristischen Objektpunkte oder Objekte gruppenweise anhand eines Körpermodells zu charakteristischen Konstellationen zusammengefasst wer- den, welche den Körper repräsentieren. Während ein charakteristischer Objekt- punkt sich von anderen Punkten noch hauptsächlich dadurch unterscheidet, dass er charakteristische Ausprägungen von Texturmerkmalen und charakteris- tische Beziehungen zu Texturen der übrigen Punkte aufweist, erfolgt eine Er- kennung von charakteristischen Konstellationen durch die Hinzunahme von weiteren Kriterien über die Zusammenhänge der charakteristischen Objekt- punkte oder Objeke innerhalb eines Körpers, dargestellt in einem Körpermodell.

In einem weiteren Schritt wird entweder

a) die räumliche Position der charakteristischen Objektpunkte, beziehungs- weise

b) die Starrkörper-Freiheitsgrade der Objekte einer charakteristischen

Konstellation, oder

c) das Polygonnetz, oder

d) die Parameter eines Oberflächen-Funktionenmodells der räumlichen Oberfläche des Körpers bestimmt, wobei letztere auch die Parameter ei- ner Transformationsvorschrift sein können, mit welcher die Form eines Referenzkörpers so deformiert wird (Deformationstransformation), dass sie der Form des Objekts möglichst gut entspricht,

bestimmt.

Dies geschieht, indem zunächst die zu Pixel-Koordinaten zugehörigen Tiefen- werte ausgelesen und diesen zugeordnet werden, und zwar für

• im Fall a) die charakteristischen Objektpunkte,

• im Fall b) die Menge der Pixel, die zu einem Objektteil gehören, für alle Objektteile,

• im Fall c) die Menge der Pixel, die zum Objekt gehören.

Im nächsten Schritt erfolgt die Bestimmung der Raum-Koordinaten für alle Pi- xel, denen im vorangegangenen Schritt ein Tiefenwert zugeordnet wurde.

Aus den beiden Sehstrahlwinkeln, die mithilfe der Parameter des Kamera- Modells aus den Pixel-Koordinaten berechnet werden, wird die Gerade des Sehstrahls berechnet. Je nach Kameraprinzip wird der zugehörige Tiefenwert, also der lotrechte Abstand von der Bildsensor-Ebene abzüglich der Kammer- konstante, oder der Abstand von der Kamera längs des Sehstrahls verwendet, um dreidimensionalen Raum-Koordinaten des zugehörigen chrakteristischen Objektpunkts in Bezug auf das Kamerakoordinatensystem berechnet und die- sem zugeordnet.

Besteht eine Beziehung des Kamera-Koordinatensystems zu einem ausgewähl- ten äußeren Koordinatensystem, in welchem das Kamerakoordinatensystem verschoben und gedreht ist, so werden die Kamerakoordinaten in dreidimensio- nale äußere Koordinaten umgerechnet. Ansonsten bilden die Kamerakoordina- ten selbst die äußeren Koordinaten.

Sodann wird der Referenzpunkt der Konstellation entweder durch Auswahl ei- nes speziellen charakteristischen Objektpunkts des Körpers, oder durch Be- rechnung aus den dreidimensionalen Raumkoordinaten, wie zum Beispiel als Schwerpunkt der Punktemengen gemäß dem jeweiligen Fall a), b), c) oder d) bestimmt, wobei im Fall b) die Vereinigungsmenge der Punkte aller Objekte herangezogen wird, im Fall c) der Schwerpunkt aller Knotenkoordinaten des Polygonnetzes und im Fall d) der Schwerpunkt der Oberflächenausprägungen. Dieser Referenzpunkt bildet den Ursprung des Körperkoordinatensystems.

Die Richtungen der drei orthogonalen Koordinatenachsen des Körperkoordina- tensystems repräsentieren die räumliche Verteilung der Punktemengen gemäß dem jeweiligen Fall a), b), c) oder d) in Bezug auf den Körperursprung und wer- den somit aus deren relativen äußeren Koordinaten, d.h. aus der Differenz von deren äußeren Koordinaten zu den äußeren Koordnaten des Körperkoordina- tensystemursprungs, etwa als Eigenvektoren von deren Kovarianzmatrix, be- stimmt.

Die Ablage des Ursprungs des Körperkoordinatensystems zum Ursprung des äußeren Koordinatensystems stellt die drei Translationsfreiheitsgrade des Kör- pers und die Drehung der Körperkoordinatenachsen zu denen des äußeren Ko- ordinatensystems die Rotationsfreiheitsgrade des Körpers dar. Die Translati- onsfreiheitsgrade und seine Rotationsfreiheitsgrade bilden sodann zusammen die äußeren Freiheitsgrade des Körpers.

Die inneren Freiheitsgrade sind dann im Fall a) durch die Angabe der Koordina- ten der charakteristischen Punkte im Körperkoordinatensystem gegeben. Im Fall b) werden die inneren Freiheitsgrade aus der Menge der Starrkörper- Freiheitsgrade aller Objekte gebildet, welche diesen zugeordnet werden. Deren Berechnung erfolgt, indem das oben beschriebene Verfahren zur Berechnung des Körperkoordinatensystems auf die räumlichen Koordinaten der Punkte ei- nes jeden Objekts angewendet wird, woraus sich für jedes Objekt die Ablage seines Referenzpunktes und die Drehung seines Objektkoordinatensystems gegenüber dem Körperkoordinatensystem als Freiheitsgrade des Objekts erge- ben. Die inneren Freiheitsgrade des Körpers werden dann durch die Vereini- gungsmenge der Freiheitsgrade aller Objekte des Körpers gebildet.

Im Fall c) wird aus der Menge der räumlichen Koordinaten der Objektpunkte das Polygonnetz mit Verfahren aus dem bekannten Stand der Technik berech- net. Im Fall d) werden die Parameter eines flexiblen Oberflächenmodells (z.B. die Koeffizienten von Kugelfunktionen) oder die Parameter der Deformations- transformation, die auf ein Referenzobjekt angewendet wird, durch Anpassung an die Menge der räumlichen Koordinaten der Objektpunkte mit üblichen Opti- mierungsverfahren bestimmt, indem die Summe der lotrechten Abstände von der jeweils sich mit den Paramterwerten ergebenden Oberfläche minimiert wird. Die Ausprägungen der Parameterwerte im Fall d) bzw. der Werte des Polygon- netzes im Fall c) stellen dann die inneren Freiheitsgrade des Körpers dar.

Für den Fall, dass mehrere Objekte des zu analysierenden Typs im radiometri- schen Bild dargestellt sind, müssen die charakteristischen Objektpunkte wie oben beschrieben zu charakteristischen Konstellationen dieser unterschiedli- chen Objekte zusammengestellt werden, um die Schritte der Berechnung des Körperkoordinatensystems und der Freiheitsgrade durchführen zu können.

Bei der verwendeten Flardware kann auf unterschiedliche verschiedene Techni- ken zurückgegriffen werden. Für das radiometrische Bild können nach dem derzeitigen Stand der Technik CCD-(charge-coupled device) oder auch CMOS- (Complementary metal-oxide-semiconductor) Kameras eingesetzt werden. Im Hinblick auf die Tiefenkamera sind beispielsweise so genannte TOF (Time Of Flight) -Kameras und Mehr-Kamera-Stereo-Kameras mit oder ohne strukturierte Beleuchtung sowie Musterprojektor-Kamera-Stereo-Anordnungen bekannt. Es gibt auch bereits bauartgemäß kombinierte Kameras, etwa die so genannte RGB-D (Red-Green-Blue-Depth)-Kameras, mit denen jeweils das Verfahren gemäß der Erfindung umgesetzt werden kann.

Im Rahmen der Objektbildung innerhalb eines Körpers werden einzelne charak- teristische Objektpunkte detektiert, also identifiziert und im Bild lokalisiert sowie eine entsprechende Klassifikation zugeordnet, oder segmentiert, also jedem Pixel eine Klassifikation zugeordnet, welche das jeweilige charakteristische Ob- jekt bezeichnet, und anschließend zu einem Körper gemäß eines Körpermo- dells kombiniert, welche objektbedingte Einschränkungen der inneren Freiheits- grade - z.B. bei Personen Einschränkungen hinsichtlich des Winkels zwischen den Verbindungslinien von drei Gelenken, die Gliedmaßen darstellen - berück- sichtigt. Auch kann ein Körper als ganzer segmentiert werden, um die Frei- heitsgrade gemäß der Fälle c) und d) zu bestimmen. Zur Detektion der charak- teristischen Objektpunkte können Klassifikatoren zum Einsatz kommen, welche jedem Bildpunkt eine Wahrscheinlichkeit zuordnen, zu einer dem charakteristi- schen Objektpunkt entsprechenden Klasse zu gehören. Der Bildpunkt mit der höchsten Wahrscheinlichkeit erhält, nach regelbasierter Konsistenzprüfung be- züglich der charakteristischen Konstellation, das entsprechende Klassen-Label. Dies kann bei einer Objekterkennung an einem menschlichen Körper beispiels- weise ein Ellenbogengelenk sein. Entsprechende Verfahren sind im Stand der Wissenschaft bekannt (siehe z.B. [Simon, T, Joo, H., Matthews, I. A., & Sheikh, Y. (2017, July). Fland Keypoint Detection in Single Images Using Multiview Bootstrapping. In CVPR (Vol. 1 , p. 2).])

Die im Körpermodell dargestellten, objektbedingten Einschränkungen der inne- ren Freiheitsgrade können vorteilhaft genutzt werden, um Fehler bei der Detek- tion charakteristischer Objekte und Konstellationen aus diesen zu vermeiden. Die Detektion charakteristischer Objekte liefert neben den Bildkoordinaten eines jeden gefundenen charakteristischen Objekts meist auch ein Konfidenzmaß, welches die Sicherheit der Detektion angibt. Meist sind diese bereits normiert, so dass die Summe der Konfidenzmaße über alle Klassen des charakteristi- schen Objekts eins ergibt, und werden häufig als Wahrscheinlichkeit interpre- tiert. Das klassenbezogene Maximum dieser Konfidenzwerte gibt also die Si- cherheit an, mit welcher der charakteristische Punkt ebendieser Klasse an der Stelle mit den Bildkoordinaten erkannt wurde. Mengen charakteristischer Punk- te werden gemäß dem Körpermodell zu charakteristischen Konstellationen zu- sam mengefasst, welche dann für ein Objekt stehen. Dazu wird im Körpermodell nach dem Stand der Technik auf Wissen über den Zusammenhang der Bildko- ordinaten charakteristischer Punkte innerhalb eines Objekts zurückgegriffen, der beispielsweise als Graph hinterlegt ist, wobei die Kanten des Graphen die Verbindungen zwischen charakteristischen Objekten darstellen und die Knoten des Graphen die charakteristischen Objekte selbst. Den Kanten kann sodann ein Gewichtswert zugeordnet werden, welcher die Abweichung der dargestell- ten Beziehung der verbundenen Punkte hinsichtlich unterschiedlicher Maße darstellt, z.B. die Abweichung von einem Normabstand, welche im Falle eines Körpers der Abstand zwischen Gelenken oder etwa die Gliedmaßenlänge wäre. Häufig wird als Gewichtswert eine Gaußfunktion dieser Maße verwendet, was der Annahme von deren Normalverteilung entspricht. Die Graphen werden dann so gebildet, dass die minimale Kantengewichtssumme unter Verwendung aus dem Stand der Wissenschaft bekannter Graph-Cut-Verfahren entsteht. Al- ternativ zu graph-basierten Verfahren wurden in der Vergangenheit auch regel- basierte Verfahren bei der Konstellations-Bildung eingesetzt, die bezüglich der Beziehungen zwischen den charakteristischen Punkten einer Konstellation be- stehende Zusammenhänge darstellen.

Der Nachteil dieser Verfahren zur Bildung charakteristischer Konstellationen besteht darin, dass durch die lediglich zweidimensionale Darstellung die wahren Verhältnisse der charakteristischen Objekte verloren gehen und die entstehen- den Konstellationen daher fehlerhaft sind oder sogar physikalisch unmögliche Objekte liefern.

Gemäß der Erfindung sind den charakteristischen Punkten jedoch die Koordina- ten eines dreidimensionalen, kartesischen Koordinatensystems zugeordnet, so dass sowohl den Verbindungslinien von Punktepaaren euklidische Abstände, als auch wiederum Paaren von Verbindungslinien die Drehwinkel im Raum zu- geordnet werden können. Da für eine Objektklasse diese Beziehungen in der Konstellation modellhaft bekannt und im Körpermodell dargestellt sind, werden gemäß der Erfindung die Abweichungen dieser aus dem Körpermodell ermittel- ten Beziehungen zu denen einer möglichen Konstellation aus den gefundenen charakteristischen Punkten zur Bewertung der Konstellation herangezogen. Wiederum werden die möglichen Mengen der Konstellationen anhand der Ge- wichtssumme bewertet und die Menge mit dem Minimum ausgewählt. Die Summanden ergeben sich wiederum aus Funktionen der euklidischen Abstände beziehungsweise der Drehwinkel. Aufgrund der Nutzung der gemäß Erfindung ermittelten, raumbezogenen Beziehungen ergeben sich Konstellationen mit er- heblich höherer Qualität als nach dem Stand der Technik.

Sind hingegen die Abweichungen so stark bzw. ist die zugehörige Gewichts- summe einer Konstellation so klein, dass diese verworfen werden muss, so wählt die Auswerteeinheit eine andere Konstellation aus, bis sie die richtige Konstellation für den vorliegenden Fall gefunden hat.

Eine Abweichung kann unter anderem von einer Abschattung charakteristischer Objektpunkte herrühren. Ist ein Objekt für die Auswerteeinheit nicht aufzufin- den, ist ein Nichtauffinden jedoch auch plausibel, so arbeitet die Auswerteein- heit ohne das betreffende Objekt weiter. Dies kann abhängig von der Perspekti- ve der Fall sein, aber auch am betrachteten Körper liegen.

Sobald die Erkennung der inneren und äußeren Freiheitsgrade des Körpers oder der Körper abgeschlossen ist, kann in einer besonders bevorzugten An- wendung des Verfahrens auch eine Situation des Körpers oder der Körper von der Auswerteeinheit interpretiert werden. Flierzu kann die Auswerteeinheit ver- schiedene Aspekte der inneren und äußeren Freiheitsgrade mit Vorgaben ver- gleichen und hieraus einen Zustand des Körpers ableiten. So können, wiede- rum auf den menschlichen Körper bezogen, beispielsweise die Zustände„auf- recht stehend“,„gebückt stehend“,„kniend“,„hockend“,„liegend“ oder„sitzend“, etc. zusammen mit den äußeren Freiheitsgraden festgestellt werden. Kombi- niert die Auswerteeinheit diese Zustandsbestimmung und die äußeren Frei- heitsgrade mit denen weiterer Objekte, etwa denen eines Bettes, so kann die Auswerteeinheit hieraus eine Situationsbeschreibung, wie im Beispielsfall eine im Bett liegende Person, bestimmen. Stimmt dann ferner die bestimmte Situationsbeschreibung mit einer hinterlegten kritischen Situationsbeschreibung, wie zum Beispiel einer am Boden liegende Person, überein, so kann von der Auswerteeinheit ein Alarm ausgelöst werden. Dies erlaubt den Einsatz der Erfindung etwa im Bereich der Überwachung von Personen, beispielsweise von älteren Menschen, die zwar im Alltag gut alleine zurechtkommen, bei denen aber dennoch ein erhöhtes Unfallrisiko besteht. Hier kann die Erfindung hilfreich eingreifen.

Die vorstehend beschriebene Erfindung wird im Folgenden anhand eines Aus- führungsbeispiels näher erläutert.

Es zeigen

Figur 1 eine Anordnung zur Durchführung eines erfindungs- gemäßen Verfahrens mit einem bildgebenden Sen- sor sowie einer Auswerteeinheit und einer dieser zu- geordneten Datenbank in einer schematischen Dar- stellung,

Figur 2 einen Körper in stehender Position mit verschiede- nen charakteristischen Objekten in einer schemati- schen Darstellung in frontaler Draufsicht, sowie

Figur 3 den Körper gemäß Figur 2 in liegender Position mit verschiedenen charakteristischen Objekten in einer schematischen Darstellung in frontaler Draufsicht.

Figur 1 zeigt einen bildgebenden Sensor 5, mit welchem ein Körper 1 aufge- nommen wird, um seine inneren und äußeren Freiheitsgrade zu erfassen. Figur 1 benutzt exemplarisch für die Funktion der Tiefenkamera das aus dem Stand der Technik bekannte Time-of-Flight-Prinzip, um Tiefenbilder und dazu referen- zierte radiometrische Bilder zu erhalten. Es können aber auch beliebige andere Prinzipien der Erzeugung von Tiefenbildern zum Einsatz kommen, wie im Stand der Technik bekannte aktive und passive Stereo-Verfahren, Lidar-, oder Depth- from-Motion-Verfahren. Hierzu weist der bildgebende Sensor 5 einen Emitter 8 auf, der eine Emission 9 von elektromagnetischer Strahlung, beispielsweise Infrarotlicht, auf den Körper 1 aussendet. Betrachtet wird die Reflexion 11 , die von einem charakteristischen Objekt 2 zurückgeworfen wird und von einer Tie- fenkamera 10 detektiert wird. Aus der Laufzeit der Emission 9 und der Reflexion

11 bestimmt eine mit dem bildgebenden Sensor 5 verbundene Auswerteeinheit

12 den Abstand des bildgebenden Sensors 5 von dem charakteristischen Ob- jekt 2. Hierbei zeichnet die Tiefenkamera 10 ein vollständiges, flächiges Tiefen- bild auf, bei dem jedem Bildpunkt ein Tiefenwert zugeordnet wird und als Tie- fenbild abgelegt wird. Die Intensität der jeweils auf jeden Bildpunkt zurückge- worfenen Reflexion wird dem Bildpunkt ebenfalls zugeordnet, wodurch das kor- respondierende, deckungsgleiche Grauwertbild entsteht, welches zur späteren Verarbeitung ebenfalls abgespeichert wird. Wird für die Darstellung der Szene ein radiometrisches Bild mit anderen spektralen Eigenschaften, wie etwa ein Farbbild, benötigt, so muss eine weitere Kamera 3 mit ebendiesen Eigenschaf- ten hinzugefügt werden. Deckungsgleiche Tiefenbilder und radiometrische Bil- der entstehen auch, wenn Zwei- oder Mehr-Ansicht-Stereokameras verwendet werden, als deren Kamera-Koordinatensystem eines der Koordinatensysteme der Teil-Kameras gewählt wird. Dann ist das radiometrische Bild dieser ausge- wählten Referenz-Kamera deckungsgleich mit dem Tiefenbild der Zwei- oder Mehr-Ansicht-Stereokamera. Bei Tiefenkameras basierend auf aktivem Stereo, welches eine Grauwertbild-Kamera und einen Musterprojektor anstatt einer zweiten Kamera verwendet, ist das entstehende Grauwertbild durch das proji- zierte Muster dominiert und kann daher nicht zur Erkennung von Objekten ver- wendet werden. Derartige Kameras verfügen daher meist über eine zusätzliche Grauwert- oder Farbkamera, um ein radiometrisches Bild zusätzlich zum Tie- fenbild der Szene zu liefern. Gleichzeitig nimmt dann ebenfalls eine radiometri- sche Kamera 6 aufgrund eines Lichteinfalls 7 ein radiometrisches Bild auf, wel- ches ebenfalls aus Bildpunkten besteht, die aber jeder einen Grau- oder Färb- wert aufweisen. Aufgrund der Ablage ist dieses radiometrische Bild jedoch nicht deckungsgleich zum Tiefenbild. Falls das radiometrische Bild und das Tie- fenbild nicht bereits aufgrund des Sensorprinzips deckungsgleich sind, werden sie durch eine Transformation mittels aus der Literatur bekannter Referenzie- rungsverfahren auf Grundlage homologer Punkte in beiden Bildern pixelweise geometrisch ineinander überführt und sind danach näherungsweise deckungs- gleich. .

In einem weiteren Schritt erkennt nun die Auswerteeinheit 12, etwa mittels durch Deep Learning antrainierter Detektoren, in dem radiometrischen Bild charakteristische Objekte 2 und ermittelt deren Pixel-Koordinaten im radiometri- schen Bild. Ihnen wird durch den Detektor eine Bedeutung als Label zugewie- sen, welches die Klasse kennzeichnet, zu welcher der erkannte, charakteristi- sche Punkt gehört, wie etwa bei einem Personenkörper das Label„rechtes Kniegelenk“. Den charakteristischen Objektpunkten werden ferner die Tiefen- werte mit den gleichen Pixelkoordinaten aus dem radiometrischen Bild zuge- wiesen. Es wird daraufhin die räumliche Lage der einzelnen charakteristischen Objekte 2 in Bezug auf das Kamerakoordinatensystem der Kamera bestimmt, indem entlang der Geraden des entsprechend zu den Pixelkoordinaten gehöri- gen Sehstrahls die zugeordnete Tiefe abgetragen wird und somit die 3D- Koordinaten erhalten werden. Falls noch ein äußeres Koordinatensystem defi- niert ist, in welchem die Lage und Orientierung des Kamera-Koordinatensystem bekannt ist, können die im Kamera-Koordinatensystem angegebenen Koordina- ten der charakteristischen Punkte des charakteristischen Objekts 2 durch die entsprechende Starrkörper-Transformation in die Koordinaten des äußeren Ko- ordinatensystems umgerechnet werden. Danach können die charakteristischen Objekte 2 in räumlichen Bezug zueinander gesetzt werden.

Von einer Datenbank 13 importiert die Auswerteeinheit 12 nun ein Modell für die betrachtete Klasse von Körpern, also ein Körpermodell. Das Körpermodell beschreibt den räumlichen Zusammenhang der gelabelten charakteristischen Objekte 2 von Körpern der betrachteten Objektklasse und damit deren mögliche innere Freiheitsgrade. Das Körpermodell gibt somit Art und Anzahl der charak- teristischen Objektpunkte 2 an und beschreibt ferner ihre gegenseitige Lage, Abstand, sowie die Freiheitsgrade ihrer gegenseitigen Bewegungen. Auch ent- hält sie Informationen darüber, wie Verbindungen 3 zwischen den charakteristi- schen Objekten 2 verlaufen. Ferner enthält das Körpermodell die Randbedin- gungen an die gegenseitigen Lagen, Abstände und Freiheitsgrade ihrer gegen- seitigen Bewegungen in Form von Kostenfunktionen oder Regeln.

Wird das Körpermodell durch ein flexibles Objektmodell (Mesh, parametrisierte Oberflächenfunktionen oder Referenz-Modell und Deformationstransformation) beschrieben, ist der räumliche Zusammenhang bereits implizit durch die Anga- be des Meshes bzw. der Oberflächenfunktionen oder des Referenzmodells ge- geben und das Körpermodell enthält zusätzlich noch die Randbedingungen an die Parameterwerte in Form von Kostenfunktionen oder Regeln.

Im nächsten Schritt werden die charakteristischen Punkte einer variablen An- zahl von Körpermodellen zugeordnet und bilden danach die charakteristische Konstellation des Körpers. Im Falle von Meshes als Körpermodelle werden die Knoten des Meshes so bewegt, dass die Summe der lotrechten Abstände der charakteristischen Punkte von den Faces minimal wird. Im Falle von Oberflä- chenfunktionen als Körpermodelle werden die Parameterwerte der Oberflä- chenfunktionen solange verändert, bis die Summe der lotrechten Abstände der charakteristischen Punkte zur Oberflächenfunktion minimal wird. Im Falle von Referenzmodellen mit Deformationstransformation als Körpermodelle werden die Parameterwerte der Deformationstransformation solange verändert, bis die Summe der lotrechten Abstände der charakteristischen Punkte zur Oberfläche des deformierten Referenzmodells minimal wird.

Die Zuordnung der Punkte zu den Körpermodellen geschieht derart, dass die Summe der Kostenfunktionen für alle verwendeten Körpermodelle minimal ist oder der Erfüllungsgrad der Regeln aller verwendeten Körpermodelle maximal ist sowie dass möglichst wenige wesentlichen charakteristischen Objekte 2 feh- len oder übrig bleiben.

Sind die passenden Körpermodelle für alle abgebildeten Körper 1 gefunden, so werden die äußeren Freiheitsgrade entweder als Schwerpunkt und Hauptach- sen der charakteristischen Konstellation oder der resultierenden Ausprägung des Meshes oder der Oberflächenfunktion oder des deformierten Referenzmo- dells berechnet. Mittels dieser äußeren Freiheitsgrade verifiziert die Auswer- teeinheit 12, dass der Körper sich nicht in einer unerlaubten Lage im Raum be- findet.

Die Auswerteeinheit wird bei jedem erstellten Bildpaar aus radiometrischem Bild und Tiefenbild eine solche Bestimmung anstellen und außerdem anhand der Ausprägungen der inneren und äußeren Freiheitsgrade prüfen, ob der zu be- obachtende Körper 1 in eine unerlaubte Haltung gerät oder die mögliche Hal- tung des Körpers 1 mit einer kritischen Situation übereinstimmt. Dann wird die Auswerteeinheit 12 eine Alarmsignalisierung beginnen und so dafür sorgen, dass gegebenenfalls Abhilfe geschaffen wird.

Figur 2 zeigt ein praktisches Anwendungsbeispiel für die Erfindung. Schema- tisch ist hier eine Person dargestellt, die aus der Sicht des vorliegenden Verfah- rens einen Körper 1 darstellt. Von diesem Körper 1 wird ein radiometrisches Bild und ein Tiefenbild erstellt. Derartige charakteristische Objektpunkte kön- nen unterschiedliche Körperstellen beschreiben, so etwa ein Gelenk, die Hän- de, Füße oder auch die Augen. Der Schwerpunkt des Körpers 1 wird als Ur- sprungspunkt 4 definiert und bildet den Ursprung eines Objektkoordinatensys- tems, bezüglich dessen die inneren Freiheitsgrade der charakteristischen Punk- te 2 bestimmt werden. Verbindungen 3 befinden sich zwischen den Gelenken und definieren für sich gesehen abgeleitete innere Freiheitsgrade. Die Auswer- teeinheit 12 wird die Raumkoordinaten der charakteristischen Objekte 2 be- stimmen und hierbei mit Vorgaben des Körpermodells, welches sie aus der Da- tenbank 13 ausliest, abgleichen. Nach der Anpassung des Körpers 1 an ein Körpermodell wird die Auswerteein- heit 12 in einem nächsten Schritt nun die Situation prüfen, in welcher sich der Körper 1 derzeit befindet. Die Auswerteeinheit legt dabei den Ursprungspunkt 4 des Objektkoordinatensystems dieses Körpers 1 in den Bauchbereich, wo sich der Körperschwerpunkt befindet. Die Richtungsvektoren des Objektkoordina- tensystems verlaufen entlang der Hauptachsen, also im Bild der Figur 2 genau senkrecht, genau waagrecht und genau in die Zeichenebene hinein. Dann ver- gleicht die Auswerteeinheit die Lage der Objektpunkte, insbesondere aber die Richtungsvektoren des Körperkoordinatensystems mit einem äußeren Koordi- natensystem, das sich über die Lage der Kameras und deren Transformations- Vorschriften ergibt. Aus diesem Vergleich ergibt sich im Fall der Figur 2, dass die Person aufrecht steht. Die Position der Augen deutet ebenfalls darauf hin, dass keine kritische Situation vorliegt, so dass die Auswerteeinheit 12 keine Alarmsignalisierung auslösen wird.

Figur 3 zeigt hingegen den Körper 1 aus Figur 2 in einer liegenden Position.

Dies ergibt sich daraus, dass die Richtungsvektoren des Objektkoordinatensys- tems nun um 90° gedreht sind. Die Lage des Körpers 1 wird von der Auswer- teeinheit aufgrund der Semantik als liegend eingeschätzt. An dieser Stelle kön- nen weitere Basisinformationen ins Spiel kommen. Erkennt die Auswerteeinheit etwa, dass der Körper 1 auf Bodenhöhe liegt und sich nicht bewegt, könnte dies zum Anlass genommen werden, einen Alarm auszulösen. Gleiches könnte gel- ten, wenn der Körper 1 an einem Ort liegt, an dem Liegen nicht vorgesehen ist, so etwa in einem Hausflur. Auch kann die Dauer und Häufigkeit des Liegens oder der Umstand, dass ein Aufstehen bei einer Bewegung nicht stattfindet, ein Alarmkriterium sein. Die Auswahl dieser Alarmkriterien liegt aber außerhalb der Erfindung und ist für diese auch nicht ausschlaggebend.

Vorstehend beschrieben ist somit ein Verfahren zur berührungslosen Ermittlung von Freiheitsgraden eines Körpers im dreidimensionalen Raum, welches ein vertieftes Wissen über die Lage und Orientierung und die innere Anordnung der Teile bzw. die Verformung eines Körpers im Raum vermittelt und es erlaubt, mithilfe einer Auswerteeinheit eine Situationsprüfung unter Berücksichtigung der Freiheitsgrade bereits aus einem einzelnen, unbewegten Bildpaar heraus vorzunehmen.

BEZUGSZEICHENLISTE

1 Körper

2 charakteristisches Objekt

3 Verbindung

4 Ursprungspunkt

5 bildgebender Sensor

6 Radiometrische Kamera

7 Lichteinfall

8 Emitter

9 Emission

10 Tiefenkamera

11 Reflexion

12 Auswerteeinheit

13 Datenbank