Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
MOBILE APPARATUS AND METHOD FOR SCANNING AN OBJECT SPACE
Document Type and Number:
WIPO Patent Application WO/2023/094588
Kind Code:
A1
Abstract:
The present invention relates to a mobile apparatus (30) for scanning an object space. The mobile apparatus comprises a mobile robot (2), which has a main body (3) to which a plurality of legs (4) are movably attached, and a control device (8), by means of which the movement of the legs (4) is controllable such that the robot, in a walking posture, is movable in a surrounding area by means of pivoting movements of the legs. The mobile apparatus (30) further comprises a scanning apparatus, which has at least one camera (32) and a first multi-sampling scanner (31), and a frame (1), which is mounted on the main body (3) of the mobile robot (2) and to which the camera (32) and the first multi-sampling scanner (31) are attached. The mobile robot (2) is designed so that in a rest state it assumes an image-capture posture, in which the vertical extent of the unit formed by the frame (1) and the scanning apparatus is greater than in the walking posture and the optical axis of at least one camera (32) forms an angle with the horizontal which is in the range of -25° to +25°.

Inventors:
GEBERT FABIAN (DE)
TAFFNER FRANZ (DE)
HABIGT TIM (DE)
MAIDT MANDOLIN (DE)
Application Number:
PCT/EP2022/083269
Publication Date:
June 01, 2023
Filing Date:
November 25, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
NAVVIS GMBH (DE)
International Classes:
B25J19/02; B62D57/032
Domestic Patent References:
WO2021018900A12021-02-04
WO2021018900A12021-02-04
WO2020076418A12020-04-16
Foreign References:
EP2913796A12015-09-02
EP3228985A12017-10-11
DE102011121115B42014-11-13
DE102004050682A12005-06-16
EP2388615A12011-11-23
US20170269215A12017-09-21
US20210041887A12021-02-11
Other References:
ENERGY ROBOTICS: "Automating Inspection at Merck | Energy Robotics", 9 September 2020 (2020-09-09), XP093020048, Retrieved from the Internet [retrieved on 20230202]
GEORGE VOSSELMAN: "DESIGN OF AN INDOOR MAPPING SYSTEM USING THREE 2D LASER SCANNERS AND 6 DOF SLAM", OF THE PHOTOGRAMMETRY, REMOTE SENSING AND SPATIAL INFORMATION SCIENCES, 4 September 2014 (2014-09-04), Retrieved from the Internet
Attorney, Agent or Firm:
REITSTÖTTER KINZEBACH (DE)
Download PDF:
Claims:
Patentansprüche Mobile Vorrichtung (30) zum Erfassen eines Objektraums mit: einem mobilen Roboter (2), der einen Basiskörper (3), an dem mehrere Beine (4) bewegbar befestigt sind, und eine Steuereinrichtung (8) aufweist, mit welcher die Bewegung der Beine (4) so steuerbar ist, dass der Roboter (2) in einer Gehpose in einer Umgebung mittels Schwenkbewegungen der Beine (4) bewegbar ist; einer Scanvorrichtung, die mindestens eine Kamera (32) und einen ersten Mehrfachscanner (31) umfasst; einem Gestell (1), das an dem Basiskörper (3) des mobilen Roboters (2) montiert ist und an dem die Kamera (32) und der erste Mehrfachscanner (31) befestigt sind; wobei der mobile Roboter (2) ausgebildet ist, in einem Ruhezustand eine Aufnahmepose einzunehmen, bei der die vertikale Erstreckung (V2) der aus dem Gestell (1) und der Scanvorrichtung gebildeten Einheit größer ist als in der Gehpose und bei der die optische Achse (O) mindestens einer Kamera (32) einen Winkel (a) mit der Horizontalen einschließt, der in einem Bereich von -25° bis +25° liegt. Vorrichtung (30) nach Anspruch 1 , dadurch gekennzeichnet, dass eine Längsachse (L) des Basiskörpers (3) des mobilen Roboters (2) in der Gehpose im Wesentlichen horizontal ausgerichtet ist und die Längsachse des Basiskörpers (3) in der Aufnahmepose einen Winkel (ö) mit der Horizontalen einschließt, der in einem Bereich von 20° bis 40° liegt. Vorrichtung (30) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass dass der mobile Roboter (2) zwei vordere Beine (4-1), die im vorderen Bereich des Basiskörpers (3) befestigt sind, und zwei hintere Beine (4-2), die im hinteren Bereich des Basiskörpers (3) befestigt sind, umfasst, wobei die Steuereinrichtung (8) ausgebildet ist, die vertikalen Positionen der Verbindungen der zwei vorderen (4-1) oder der zwei hinteren (4-2) Beine abzusenken, um den mobilen Roboter (2) von der Gehpose in die Aufnahmepose zu bringen. Vorrichtung (30) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Beine (4) jeweils gelenkig mit dem Basiskörper (3) verbunden sind und die Beine (4) jeweils ein Zwischengelenk (5) zwischen einem oberen Teil (6) und einem unteren Teil (7) des jeweiligen Beins (4) aufweisen und die vertikalen Positionen der Verbindungen der zwei vorderen (4-1) oder der zwei hinteren (4-2) Beine absenkbar sind, indem der Winkel zwischen dem oberen Teil (6) und dem unteren Teil (7) der jeweiligen Beine (4) beim jeweiligen Zwischengelenk (5) verkleinert wird, um den mobilen Roboter (2) von der Gehpose in die Aufnahmepose zu bringen. Vorrichtung (30) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Scanvorrichtung mehrere Kameras (32) umfasst, die beabstandet auf einem Ring angeordnet sind, wobei der Ring einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -30° bis +30° liegt, wenn sich der mobile Roboter in der Aufnahmepose befindet. Vorrichtung (30) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Scanvorrichtung einen zweiten Mehrfachscanner (36) umfasst, wobei eine gescannte Mittelebene (X1) des ersten Mehrfachscanners (31) einen Winkel (ß) mit einer gescannten Mittelebene (X2) des zweiten Mehrfachscanners (36) einschließt, der in einem Bereich von 85° bis 115° liegt. Vorrichtung (30) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der mobile Roboter (2) eine Erfassungseinrichtung (9) zum Erfassen der unmittelbaren Umgebung des Roboters (2) aufweist, die Steuereinrichtung (8) mit der Erfassungseinrichtung (9) und dem ersten Mehrfachscanner (31) datentechnisch gekoppelt ist und die Steuereinrichtung (8) ausgebildet ist, die Beine (4) der mobilen Vorrichtung (30) ferner mittels der von der Erfassungseinrichtung (9) erfassten Daten und/oder den von dem ersten Mehrfachscanner (31) erfassten Daten so anzusteuern, dass sich die mobile Vorrichtung (30) autonom durch den zu erfassenden Objektraum bewegt. Verfahren zum Erfassen eines Objektraums mittels einer mobile Vorrichtung (30) umfassend: einen mobilen Roboter (2), der einen Basiskörper (3), an dem mehrere Beine (4) bewegbar befestigt sind, und eine Steuereinrichtung (8) aufweist, mit welcher die Bewegung der Beine (4) so steuerbar ist, dass der Roboter (2) in einer Gehpose in einer Umgebung mittels Schwenkbewegungen der Beine (4) bewegbar ist; eine Scanvorrichtung, die mindestens eine Kamera (32) und einen ersten Mehrfachscanner (31) umfasst; ein Gestell (1), das an dem Basiskörper (3) des mobilen Roboters (2) montiert ist und an dem die Kamera (32) und der erste Mehrfachscanner (31) befestigt sind; wobei der mobile Roboter (2) ausgebildet ist, in einem Ruhezustand eine Aufnahmepose einzunehmen, bei der die vertikale Erstreckung der aus dem Gestell (1) und der Scanvorrichtung gebildeten Einheit größer ist als in der Gehpose und bei der die optische Achse mindestens einer Kamera (32) einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -25° bis +25° liegt, wobei bei dem Verfahren folgende Schritte ausgeführt werden:

(a) Bewegen der mobile Vorrichtung (30) durch den zu erfassenden Objektraum in der Gehpose der mobilen Vorrichtung (30), wobei zumindest innerhalb eines Zeitintervalls während der Bewegung der mobilen Vorrichtung (30) der erste Mehrfachscanner (31) den Objektraum durch die Emission von Signalstrahlen und die Detektion von Reflexionsstrahlen abtastet,

(b) Stoppen der Bewegung der mobilen Vorrichtung (30) und Veränderung des Zustands des mobilen Roboters (2) von der Gehpose in die Aufnahmepose und

(c) Aufnahme zumindest eines Kamerabildes mittels der Kamera (32), während sich der mobile Roboter (2) in der Aufnahmepose befindet. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass der mobile Roboter (2) eine Erfassungseinrichtung (9) zum Erfassen der unmittelbaren Umgebung des Roboters (2) aufweist und die Steuereinrichtung (8) mit der Erfassungseinrichtung (9) und dem ersten Mehrfachscanner (31) datentechnisch gekoppelt ist und die Steuereinrichtung (8) die von der Erfassungseinrichtung (9) erfassten Daten und/oder von dem ersten Mehrfachscanner (31) erfassten Daten verarbeitet und die Beine (4) der mobilen Vorrichtung (30) in Abhängigkeit von den von der Erfassungseinrichtung (9) erfassten Daten und/oder den von dem ersten Mehrfachscanner (31) erfassten Daten - 29 - ansteuert, um die mobile Vorrichtung (30) autonom durch den zu erfassenden Objektraum zu bewegen. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass in einem initialen Schritt vor Durchführung der Schritte (a) bis (c) der Steuereinrichtung (8) dreidimensionale Daten zu dem zu scannenden Objektraum übertragen werden und die Steuereinrichtung (8) einen virtuellen Rundgang durch den zu scannenden Objektraum mittels der übertragenen dreidimensionalen Daten durchführt. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass in einem initialen Schritt vor Durchführung der Schritte (a) bis (c) dreidimensionale Daten in einer ersten Repräsentation zu dem zu scannenden Objektraum verwendet werden, um dreidimensionale Daten in einer zweiten Repräsentation zu erzeugen, die den Daten entsprechen, die die Steuereinrichtung (8) des mobilen Roboters (2) mithilfe der Erfassungseinrichtung (9) bei einem physischen Rundgang durch den zu scannenden Objektraum erfasst und verarbeitet hätte. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass die dreidimensionalen Daten in der zweiten Repräsentation bei einem virtuellen Rundgang durch den zu scannenden Objektraum erzeugt werden, der mittels der Daten in der ersten Repräsentation durchgeführt wird.

Description:
Mobile Vorrichtung und Verfahren zum Erfassen eines Objektraums

Die vorliegende Erfindung betrifft eine mobile Vorrichtung zum Erfassen eines Objektraums sowie ein Verfahren zum Erfassen eines Objektraums.

Es sind verschiedene Erfassungssysteme zum Erfassen von Objekträumen innerhalb von Gebäuden und im Außenbereich bekannt. Die vorliegende Erfindung betrifft insbesondere das Erfassen eines Objektraums innerhalb eines Gebäudes. Ein solches System ist beispielsweise in der EP 2 913 796 A1 beschrieben. In diesem Fall wird ein Laserscanner in Verbindung mit mehreren Kameras verwendet. Aus den Signalen des Laserscanners und den Bildern der Kameras wird eine Punktwolke erzeugt, aus der ein dreidimensionales Gebäudemodell erstellt wird.

Für den Außenbereich existieren vergleichbare Erfassungssysteme, die auf Fahrzeugen und Flugzeugen montiert werden können. Die Referenzierung der erfassten Daten auf ein Koordinatensystem geschieht bei diesen Systemen in der Regel durch eine Positionsbestimmung mit Hilfe von Satellitennavigationssystemen.

Innerhalb von Gebäuden besteht diese Möglichkeit der Positionsbestimmung nicht, da dort keine Signalverbindung zu den Navigationssatelliten verfügbar ist. Außerdem ist die Positionsbestimmung für das Erfassen eines Objektraums mittels Satellitennavigation zu ungenau. Aus diesem Grund wird auch im Außenbereich für die Positionsbestimmung ergänzend auf Radodometrie, Laserodometrie oder Trägheitsnavigation (INS) zurückgegriffen. Die Satellitennavigation spielt dabei für die Georeferenzierung und Reduktion des Langzeitdrifts eine Rolle.

Für die Positionsbestimmung innerhalb von Gebäuden während der mobilen Erfassung von Objekträumen ist insbesondere eine möglichst schnelle Positionsbestimmung in Echtzeit erforderlich, um einem autonomen System oder einem Bediener des Systems Informationen zu dem Erfassungsvorgange in der Umgebung in Echtzeit liefern zu können, damit der Erfassungsvorgang so gesteuert werden kann, dass der Gebäudeinnenraum möglichst lückenlos und in hoher Qualität abgescannt wird.

Ferner ist es erforderlich, dass eine möglichst präzise nachgelagerte Positionsbestimmung im Zeitverlauf, das heißt die Bestimmung der Trajektorie beim Erfassen des Objektraums, in der Nachverarbeitung möglich ist. Nur in diesem Fall können die kontinuierlich erfassten Messungen der Laserscanner und die in der Regel im Abstand von jeweils wenigen Metern erfassten Panoramabiilder zu einem präzisen, konsistenten 3D-Modell des Gebäudes zusammengefügt werden, beispielsweise durch Erstellung einer Punktwolke oder eines Polygonnetzes.

Auf die verschiedenen Methoden zur Positions- und Trajektorienbestimmung wird weiter unten eingegangen. Im weiteren folgt zunächst eine Darstellung der Datenerfassungsmethoden und Anwendungsszenarien:

Bei der Erfassung von Punktwolken mit Hilfe von Laserscannern kommen in der Regel Systeme zum Einsatz, bei denen ein Laserstrahl durch einen um eine Achse rotierenden Spiegel in einer Ebene im Raum ausgesandt wird. Alternativ können Phased-Array-Laser ohne bewegliche Teile eingesetzt werden, um einen abtastenden Laserstrahl zu erzeugen.

Die hierbei gelieferten Daten enthalten für jedes Datenelement (Punkt der Punktwolke) in der Regel den jeweiligen Zeitstempel des jeweils ausgesandten Laserimpulses mit der zugehörigen Winkelstellung innerhalb der Rotationsachse. Ferner enthält jedes dieser Datenelemente einen oder mehrere Werte, die aus einem oder mehreren nacheinander empfangenen Reflexionssignalen abgeleitet werden und die aus der Laserlicht-Laufzeit berechnete Entfernung der jeweils reflektierenden Oberflächen in Richtung des Aussendestrahls sowie die zugehörigen Reflexionsintensitäten angeben. Halbtransparente oder halbspiegelnde Oberflächen können hierbei dazu führen, dass kurz nacheinander mehrere Reflexionssignale empfangen werden, die dann zu unterschiedlich weit entfernten Oberflächen gehören.

Aus den empfangenen Reflexionssignalen werden Entfernungen berechnet. Hieraus können zusammen mit den Intensitäten der Reflexionssignale dreidimensionale Punktkoordinaten berechnet werden, welche dann die Punktwolke bilden. Um aus den Erfassungsvorgängen mittels des bewegten Laserscanners ein konsistentes dreidimensionales Modell aufbauen zu können, wird für jede Messung ein Zeitstempel sowie die exakte Positionenausrichtung des Laserscanners im Raum erfasst.

Ähnlich verhält es sich mit den Bildinformationen von Panoramakameras, die in der Regel nur aus Bilddateien bestehen, die mit einem Zeitstempel des Aufnahmezeitpunktes versehen sind. Auch hier muss zu jedem Zeitstempel und zu jeder Bilddatei die genaue Position und Ausrichtung der jeweiligen Kamera im Raum bekannt sein oder bestimmt werden, damit - unter Zuhilfenahme von bekannten oder durch Kalibrierung zu bestimmenden Kameraparametern, wie zum Beispiel Objektivbrennweite und Abbildungscharakteristik, sowie Sensorgröße und -auflösung - die Bilddaten und die Punktwolken-Daten einander zugeordnet werden können. Auf diese Weise kann ein Objektraum dreidimensional erfasst werden.

Panoramabilder können außerdem dazu verwendet werden, einen sehr realitätsgetreuen virtuellen Rundgang durch den erfassten Objektraum zu ermöglichen. Hier stehen die Bilddateien im Vordergrund, die mittels sogenanntem „Stitching“ unter Zuhilfenahme der 3D-lnformation (Position und Ausrichtung der jeweiligen Kamera im Raum) zu lückenlosen 360-Grad-Panoramen zusammengefügt werden können, die der genauen Ansicht an einem bestimmten Punkt der Umgebung entsprechen, wie sie ein Betrachter vor Ort wahrnehmen würde. Die Gesamtheit der Panoramabilder repräsentiert hierbei eine Vielzahl einzelner diskreter Positionen, an denen die zugrundeliegenden Bilder aufgenommen wurden. Der Betrachter kann lediglich von einer diskreten Position zu einer anderen diskreten Position springen und von Panoramabild zu Panoramabild wechseln, im Gegensatz zum oben angeführten Punktwolkenmodell, das kontinuierlich „durchflogen“ werden kann. Das als Hintergrundinformation vorhandene Punktwolken-Modell kann hierbei dazu verwendet werden, um die Übergänge zwischen den einzelnen Panoramabildern als Überblendungen von unterschiedlich transformierten individuellen Teilausschnitten (zum Beispiel Tischoberflächen) so zu animieren, dass der Betrachter den Eindruck einer halbwegs flüssigen Bewegung im 3D-Raum zwischen den zwei diskreten Positionen erhält. Durch das Punktwolkenmodell ergeben sich noch weitere Möglichkeiten, wie zum Beispiel eine Einblendung der Punktwolke über die Foto-Panorama- Ansicht oder eine Zuordnung einer genauen 3D-Koordinate zu jedem Pixel des Panoramabildes (was zum Beispiel Längenmessungen von aufgenommen Objekten durch Anklicken der Begrenzungspunkte im Panoramabild sowie die Einblendung von ortsbezogenen Informationen („Points of Interest“) in die Panoramabilder ermöglicht).

Für kleinere Gebäude ist die Erfassung der Umgebung im Innenraum des Gebäudes durch gleichzeitige Aufnahme von Punktwolkendaten und Panoramabildern auch durch stationäre, stativgebundene Geräte möglich, die von Position zu Position bewegt werden. Die Positionen können hierbei zum Beispiel an festen Bezugspunkten und Marken im Raum ausgerichtet werden, die sich auch in bereits vorab existierenden Plänen wiederfinden, was die Zuordnung erleichtert.

Für die schnelle Erfassung großer Gebäude, insbesondere des Innenraums des Gebäudes, ist aber die kontinuierliche Erfassung durch ein mobiles System vorteilhaft. Hierfür werden z. B. fahrbare Geräte in „Trolley“-Bauform eingesetzt, die durch einen Bediener geschoben werden. Ein fahrbares Gestell liefert in diesem Fall eine höhere Stabilität. In Ruheposition können daher verwacklungsfreie Bilder aufgenommen werden. Des Weiteren können größere und schwerere, Kameraobjektive mit höherer Qualität, Laserscanner, Elektronikbauteile und Energiespeicher an dem fahrbaren Gerät befestigt und auf diese Weise sehr komfortabel bewegt werden. Bei allen genannten mobilen Erfassungssystemen besteht - wie oben erläutert - das Problem, dass die Trajektorie, und für Systeme, die eine visuelle Überwachung des Erfassungsvorgangs auf einem Bildschirm ermöglichen sollen, auch die Momentanposition in Echtzeit effizient und präzise bestimmt werden muss.

Hierfür können unterschiedliche Verfahren zum Einsatz kommen, die auch kombiniert werden können. Zum einen kommen inertiale Messeinheiten (IMU, „Inertial Measurement Unit‘) zur Trägheitsnavigation in Frage, die einen oder mehrere Inertialsensoren, wie Beschleunigungssensoren und Drehratensensoren, kombinieren. Ein Problem hierbei ist jedoch der Umstand, dass sich Messfehler aufsummieren, was zu einer starken „Drift“ führen kann. Aus diesem Grund werden IMUs oft nur unterstützend eingesetzt. Gleiches gilt für Odometer.

In der Praxis kommen für mobile Systeme außerdem sogenannte SLAM-Verfahren zum Einsatz („Simultaneous Localization and Mapping“). Diese basieren auf der Annahme, dass die erfasste Umgebung statisch ist und sich nur das Erfassungssystem selbst bewegt. Im Falle eines Laserscanners werden hierbei zum Beispiel die erfassten Daten eines Laserspiegel- Rotationsdurchganges mit denen eines oder mehrerer vorangegangener Durchgänge verglichen. Unter der Annahme, dass die Umgebung statisch ist und sich das Erfassungssystem linear parallel zur Laserscan-Ebene bewegt hat, würden die beiden Punktmengen der beiden Messdurchgänge innerhalb von Messtoleranzen mehr oder weniger deckungsgleich, aber translatorisch und/oder rotatorisch verschoben sein, so dass sich hieraus unmittelbar und gleichzeitig ein Profil der Umgebung als 2D-Schnitt durch den 3D-Raum (entsprechend der Laserscanner-Ebene) und gleichzeitig der Bewegung/Drehung des Erfassungssystems innerhalb dieses 2D-Schnittes ergibt (daher der Begriff „Simultaneous Localization and Mapping“). In der Praxis darf hierbei die Bewegung und insbesondere die Drehung in Relation zur Scanfrequenz jedoch nicht zu schnell erfolgen.

Die algorithmische Zuordnung von zeitlich auseinanderliegenden Messpunkten zu identischen, mehrfach gescannten Umgebungsmerkmalen und daraus die Bestimmung der Trajektorie des Erfassungssystems und die Erstellung eines Gesamtmodells der Umgebung ist bei ausreichender Menge und Redundanz an Messpunkten zwar auch möglich, wenn sich die Laserscanner-Erfassungsrichtung im Zeitverlauf ändert und beliebig zur Bewegung des Erfassungssystems angeordnet ist, je nach Größe und Verteilung der Punktwolke und Merkmalen im Raum kann dies jedoch sehr lange Rechenzeiten erfordern, so dass diese Verfahren in der Regel bei hohem Detaillierungsgrad nur in der Nachverarbeitung („Post-Processing“) eingesetzt werden können, aber nicht zur Echtzeit-Darstellung der Bewegung im Raum während des Erfassungsvorgangs. So ist es beispielsweise bei den oben erwähnten stationären, stativgebundenen Lösungen üblich, die erfassten Daten der einzelnen Scan-Positionen in ein cloud-basiertes Rechenzentrum hochzuladen und dort in einer Nachverarbeitung zu einem konsistenten Modell zusammenfügen zu lassen.

Vergleichbar hiermit sind photogrammetrische Verfahren, bei denen aus einer Vielzahl von Bildern, die von ein und demselben Objekt oder derselben Umgebung aus verschiedenen Blickwinkeln aufgenommen wurden, ein texturiertes 3D-Modell erstellt werden kann, indem zum Beispiel das sogenannte Bundle-Adjustment-\/ erfahren zum Einsatz kommt, bei dem in einem Optimierungsprozess gleichzeitig die Positionen der Punkte im 3D-Raum, die Positionen und Orientierungen der beobachtenden Kameras sowie deren interne Kalibrierparameter an die Messbilder angepasst werden. Diese Verfahren liefern für gut texturierte Oberflächen gute Ergebnisse, scheitern aber bei gleichfarbigen, merkmalsarmen Oberflächen sowie bei komplizierteren Verschneidungen und spiegelnden Objekten.

Bei sogenannten Virtual-Reality- bzw. Augmented-Rea//fy-Anwendungen, die auch von Mobiltelefonen (Smartphones) ausgeführt werden können, existieren darüber hinaus Lösungen, die ähnlich zum SLAM-Verfahren bzw. photogrammetrischen Verfahren funktionieren. Hierbei werden in Echtzeit erfasste Bildfolgen der Smartphone-Kameras analysiert, um darin Umgebungsmerkmale im Zeitverlauf zu verfolgen, in der Regel unterstützt durch Messdaten der ebenfalls in Smartphones verbauten IMUs, so dass hieraus eine grobe Erfassung der Umgebung sowie der Bewegung des Smartphones im Raum in Echtzeit abgeleitet werden kann, was dann zum Beispiel die passgenaue Einblendung virtueller Objekte in das Kamerasucherbild ermöglicht.

Für kleinere Räume und kurze Entfernungen eignen sich auch sogenannte „Structured Light“- Lösungen, bei denen vom Erfassungssystem aus (Infrarot-)Punktmuster abgestrahlt werden, deren Verzerrung im Kamerabild Rückschlüsse auf die 3D-Struktur der erfassten Szene liefert.

Ferner sind sogenannte Time-of-Flight-Kameras bekannt, die ähnlich wie ein parallel arbeitender Laserscanner einen Lichtblitz aussenden und für jedes Pixel des Kamerasensors sehr präzise den individuellen Zeitpunkt bestimmen, an dem das Reflexionssignal erfasst wird, so dass sich über die Lichtlaufzeit hieraus eine Entfernungsinformation für das betreffende Pixel ergibt. Aufgrund der geringen Auflösung und der begrenzten Reichweite und Präzision eignen sich diese Systeme jedoch nicht für die detaillierte Erfassung großer Gebäude.

Gleiches gilt für Stereo-Tiefenkameras, die ähnlich dem menschlichen Auge aus der Parallaxeninformation zweier Kamerabilder Tiefeninformationen gewinnen. Auch hier ist die Präzision und Auflösung für Vermessungs-Anwendungen ungenügend.

Für hochpräzise Erfassungssysteme, mit denen größere Gebäude bis auf wenige Millimeter genau gescannt werden sollen (z.B. trolley-basierten Mobile-Mapping-Systemen), eignen sich daher insbesondere Laserscanner.

Bei diesen Mobile-Mapping-Systemen kann die Echtzeit-Visualisierung des Erfassungsvorgangsvorgangs und der Bewegung im Raum auf einem Bediener-Bildschirm dann besonders einfach, robust und schnell erfolgen, wenn - wie im obigen Beispiel dargestellt - ein 2D-Laserscanner in einer während der Bewegung konstant bleibenden Ebene scannt, das heißt sich das Erfassungssystem auch in einer hierzu parallelen 2D-Ebene bewegt, wie dies in Gebäuden mit ebenen Böden in den Räumen und Gängen der Fall ist. In diesem Fall spricht man auch von 2D-SLAM bzw. Realtime-2D-SLAM mit drei Freiheitsgraden (3 DoF, „Degrees of Freedom“) (das heißt 2 Raumachsen X-Y und eine Drehachse - „Gieren‘7“yaw“).

Da der vorgenannte für das 2D-SLAM-Verfahren ausgerichtete Laserscanner während der Bewegung durch den Raum horizontal ausgerichtet ist und immer dieselbe konstante Ebene scannt und den Raum selbst nicht flächendeckend erfasst, kommen für die Erfassung der eigentlichen Punktwolke daher weitere 2D-Laserscanner zum Einsatz, die in anderen Ebenen angeordnet sind, so dass durch die Fortbewegung des Erfassungssystems diese Scan-Ebenen den Raum gleichmäßig überstreichen, damit die Umgebung möglichst gleichmäßig und vollständig gescannt und erfasst wird.

Bei der Erfassung großer Gebäude ist es wünschenswert, möglichst große Flächen in einem durchgehenden Scan-Vorgang ohne Unterbrechung zu erfassen, um den Aufwand für die sogenannte Registrierung, das heißt das Zusammenfügen von Teil-Punktwolkenmodellen aus einzelnen Teil-Scanvorgängen zu einem Gesamt-Punktwolkenmodel durch exaktes Ausrichten und Abgleichen der Überlappungsbereiche der Teil-Punktwolken, möglichst gering zu halten. Dieser Registrierungsvorgang ist zwar prinzipiell algorithmisch möglich, kann aber je nach Größe der Teilmodelle rechenintensiv sein und trotzdem manuelle Vor- oder Nachjustierung erfordern. Trolley-basierte Mobile-Mapping-Systeme, die mit 2D-SLAM-Verfahren arbeiten, erfordern hierbei bislang in der Regel ein Beenden des aktuellen Scan-Vorgangs und das Starten eines neuen Scan-Vorgangs, sobald zum Beispiel eine größere Stufe, steilere Rampe oder gar Treppe zu überwinden ist, auch wenn einzelne Systeme zum Beispiel durch Auswertung von IMU-Daten in der Lage sind, Rampen mit geringen Steigungen zu verarbeiten oder Störungen durch Holperschwellen, überfahrene Kabel etc. durch Korrektur-Algorithmen auszugleichen.

Des Weiteren sind Erfassungssysteme mit sechs Freiheitsgraden (6 DoF, Degrees of Freedom) (das heißt drei Raumrichtungen X-Y-Z und drei Drehrichtungen („Rollen-Nicken-Gieren“ / „roll- pitch-yaw“ / 6DoF-SLAM-Verfahren) bekannt.

Beispielsweise beschreibt die Veröffentlichung George Vosselman, „DESIGN OF AN INDOOR MAPPING SYSTEM USING THREE 2D LASER SCANNERS AND 6 DOF SLAM”, ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences, Volume 11-3, 2014. ISPRS Technical Commission III Symposium, 5.-7. September 2014, Zurich, Switzerland. 10.5194/isprsannals-ll-3-173-2014 (https://www.isprs-ann-photogramm-remote-sens-spatial-inf- sci.net/ll-3/173/2014/isprsannals-ll-3-173-2014.pdf) ein Verfahren zum Erfassen eines Objektraums innerhalb eines Gebäudes. Dabei werden mehrere Ein-Ebenen-Scanner eingesetzt, deren Scanebenen nicht parallel zueinander angeordnet sind. Die Verarbeitung der bei diesem System erfassten Daten ist jedoch algorithmisch sehr aufwendig, so dass sich dieses Verfahren nicht zur Echtzeitvisualisierung des Scanvorgangs, sondern nur für eine Berechnung eines Punktwolkenmodells in der Nachverarbeitung eignet. Außerdem ist aus der EP 3 228 985 A1 ein Erfassungssystem in sechs Freiheitsgraden mit 3D-SLAM-Verfahren bekannt.

Verschiedene Laserscanner sind aus der DE 10 2011 121 115 B4 oder der DE 10 2004 050 682 A1 bekannt. Ferner ist aus der EP 2 388 615 A1 und der US 2017/0269215 A1 ein Mehrfachscanner bekannt, welcher Signalstrahlen fächerförmig emittiert und die Reflexionen dieser Signalstrahlen misst.

Trolley-basierte Systeme können insbesondere dann eingesetzt werden, wenn das zu erfassende Gebäude einen ebenen Untergrund aufweist, so dass das Trolley-basierte System über den Untergrund gerollt werden kann. In Gebäuden mit einem unebenen Untergrund oder in Gebäuden mit sehr vielen Treppen, Stufen, steilen Rampen oder Verschachtelungen, in denen ein Trolleybasiertes System nicht über längere Strecken geschoben werden kann und häufig aufgrund eines Höhenversatzes neu justiert werden müsste, sind tragbare Systeme in Rucksackform oder in der Hand gehaltene Systeme in unterschiedlichen Bauformen bekannt. Solche Systeme unterliegen Gewichtsrestriktionen. Das Gewicht muss so gering sein, dass das System noch von einer Person getragen oder in der Hand gehalten werden kann. Außerdem müssen die Scaneinrichtungen so ausgelegt sein, dass trotz der Bewegungen, die eine Person mit der Scaneinrichtung ausführt, verwacklungsfreie, scharfe Aufnahmen generiert werden können.

Aus der WO 2021/018900 A 1 ist eine Raumerfassungsvorrichtung bekannt, welche eine Scaneinrichtung und ein Gestell umfasst, welches auf den Schultern einer Person getragen werden kann.

Der Erfindung liegt die Aufgabe zugrunde, eine mobile Vorrichtung und ein Verfahren der eingangs genannten Art anzugeben, mit denen ein Objektraum autonom erfasst werden kann, und zwar auch dann, wenn der Untergrund des zu erfassten Objektraums für Trolley-basierte Systeme nicht geeignet ist.

Erfindungsgemäß wird diese Aufgabe durch eine mobile Vorrichtung mit den Merkmalen des Anspruchs 1 und ein Verfahren mit den Merkmalen des Anspruchs 8 gelöst. Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den abhängigen Ansprüchen.

Die erfindungsgemäßen mobile Vorrichtung zum Erfassen eines Objektraums umfasst einen mobilen Roboter, der einen Basiskörper, an dem mehrere Beine bewegbar befestigt sind, und eine Steuereinrichtung aufweist, mit welcher die Bewegung der Beine so steuerbar ist, dass der Roboter in einer Gehpose in einer Umgebung mittels Schwenkbewegungen der Beine bewegbar ist. Ferner weist die mobile Vorrichtung eine Scanvorrichtung, die mindestens eine Kamera und einen ersten Mehrfachscanner umfasst, und ein Gestell auf, das an dem Basiskörper des mobilen Roboters montiert ist und an dem die Kamera bzw. Kameras und der erste Mehrfachscanner befestigt sind. Der mobile Roboter ist dabei ausgebildet, in einem Ruhezustand eine Aufnahmepose einzunehmen, bei der die vertikale Erstreckung der aus dem Gestell und der Scanvorrichtung gebildeten Einheit größer ist als in der Gehpose und bei der die optische Achse mindestens einer Kamera einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -25° bis +25° liegt.

Bei der Montage der das Gestell und die Scanvorrichtung umfassenden Einheit auf dem mobilen Roboter ergeben sich verschiedene, einander gegenläufige Anforderungen: Das Gestell sollte nach Möglichkeit aufrecht auf dem Basiskörper des mobilen Roboters montiert sein, so dass die Kamera bzw. Kameras möglichst hoch im oberen Bereich des Gestells montiert sein können und dadurch den Objektraum umfassend aufnehmen können. Nachteilig an einer solchen aufrechten Montage des Gestells mit der Kamera bzw. den Kameras ist, dass der Schwerpunkt vergleichsweise hoch angeordnet ist. Dies führt zu Instabilitäten bei der Bewegung der mobilen Vorrichtung. Dies wiederum führt zu unscharfen Scanbildern bzw. zu ungenauen Daten beim Erfassen des Objektraums. Dies ist sowohl bei der Aufnahme der digitalen Bilder durch die Kamera bzw. Kameras als auch beim kontinuierlichen Erfassen des Objektraums mittels des Mehrfachscanners während der Bewegung der mobilen Vorrichtung nachteilig. Eine niedrigere Montage des Gestells an dem Basiskörper des Roboters, bei der eine Längsachse des Gestells näher an der Horizontalen ausgerichtet ist, hat zwar den Vorteil, dass der Schwerpunkt der Einheit niedriger ist, jedoch ist diese Ausrichtung des Gestells für die Aufnahmen der Kamera bzw. Kameras nachteilig.

Um diesen einander gegenläufigen Anforderungen zu genügen, kann der mobile Roboter der erfindungsgemäßen mobilen Vorrichtung verschiedene Posen annehmen. In der Gehpose, in welcher sich der mobile Roboter mit der darauf montierten Scanvorrichtung bewegt, weist die aus dem Gestell und der Scanvorrichtung gebildete Einheit eine geringere vertikale Erstreckung auf als in der nachfolgend beschriebenen Aufnahmepose. Das Gestell ist in diesem Fall horizontaler ausgerichtet als in der Aufnahmepose. In der Aufnahmepose wird die Ausrichtung des mobilen Roboters hingegen so verändert, dass die vertikale Erstreckung der aus dem Gestell und der Scanvorrichtung gebildeten Einheit größer ist als in der Gehpose. In diesem Fall ist das Gestell somit aufrechter, das heißt näher an der Vertikalen ausgerichtet als in der Gehpose. Auch wenn in diesem Fall der Schwerpunkt der aus dem Gestell und der Scanvorrichtung gebildeten Einheit höher ist als in der Gehpose, führt dies nicht zu Instabilitäten, da in der Aufnahmepose der mobile Roboter nicht bewegt werden soll. Ferner ist die Kamera so an dem Gestell befestigt, dass in der Aufnahmepose die optische Achse der Kamera einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -25° bis +25° liegt. Vorteilhafterweise kann hierdurch der Objektraum durch die Kamera umfassend erfasst werden.

Die an dem Gestell montierte Kamera bzw. die montierten Kameras sind insbesondere ausgebildet, Kamerabilder zumindest eines Teils des Objektraums aufzunehmen. Die von der Kamera bzw. den Kameras aufgenommenen Bilder können beim Erzeugen der verschiedenen graphischen Darstellungen des Objektraums in Echtzeit berücksichtigt werden. Auf diese Weise kann eine sehr realitätsnahe Darstellung des begangenen und/oder begehbaren Bereichs des Objektraums oder des von der mobilen Vorrichtung bereits abgetasteten Bereichs des Objektraums in Echtzeit erzeugt werden. Der erste Mehrfachscanner umfasst insbesondere eine Vielzahl von in einem Bauteil integrierten Emissionseinheiten zum Erzeugen einer Vielzahl von Signalstrahlen in definierten Emissionsrichtungen, einen Empfänger zum Detektieren von Reflexionsstrahlungen, die durch Reflexionen der Signalstrahlen an einem oder mehreren Objekten des Objektraums erzeugt werden, und eine Abtasteinrichtung zum Verändern der Emissionsrichtungen der Signalstrahlen. Der Einsatz des Mehrfachscanners ermöglicht das unterbrechungsfreie Erfassen des Objektraums. Durch die Verwendung des Mehrfachscanners kann nämlich ein Echtzeit-3D- SLAM-Verfahren mit sechs Freiheitsgraden eingesetzt werden. Es ist nicht erforderlich, den Erfassungsvorgang in Teilvorgänge zu unterteilen und diese Teilvorgänge in der Nachverarbeitung wieder zusammenzusetzen.

Aus der Verwendung des Mehrfachscanners in der erfindungsgemäßen mobilen Vorrichtung ergibt sich der Vorteil, dass die Vorrichtung in der Bewegung immer nicht nur neue Oberflächenabschnitte des Objektraums erfasst, indem die Signalstrahlen diese Oberflächenabschnitte überstreichen, sondern dass die Signalstrahlen immer auch auf bereits zuvor erfasste Oberflächenabschnitte treffen, das heißt solche Oberflächenabschnitte, die bereits von zuvor ausgesandten anderen Signalstrahlen erfasst wurden. Hierdurch wird es möglich, einen Abgleich der von dem Empfänger detektierten Reflexionsstrahlungen mit bereits zuvor detektierten Reflexionsstrahlungen durchzuführen. Aus diesem Abgleich kann dann die Bewegung der mobilen Vorrichtung berechnet werden, so dass es möglich ist, die Position der mobilen Vorrichtung im Objektraum zu bestimmen. Hierdurch ist es wiederum möglich, eine graphische Darstellung derjenigen Bereiche des Objektraums zu erzeugen und auszugeben, durch welche die Raumerfassungsvorrichtung bewegt wurde. Hieraus wiederum lässt sich anhand einer vorläufigen Modellierung des Objektraums anhand der Daten, die zumindest aus den Reflexionsstrahlungen gewonnen werden können, bestimmen, durch welche Bereiche im Objektraum die mobilen Vorrichtung bewegt werden kann. Diese möglichen Bewegungen der Vorrichtung im Objektraum können außerdem graphisch dargestellt und ausgegeben werden.

Die Emissionsrichtungen des ersten Mehrfachscanners sind insbesondere fächerförmig, so dass ein Emissionsfächer mit einer Mittelachse gebildet ist. Der Öffnungswinkel des Emissionsfächers kann dabei insbesondere in einem Bereich von 25° bis 35° liegen. Bevorzugt ist der Öffnungswinkel 30°.

Bei den Emissionseinheiten des Mehrfachscanners handelt es sich insbesondere um einen oder mehrere Laser. Die Signalstrahlen können dabei durch mehrere Laser simultan, fächerförmig in die Emissionsrichtungen emittiert werden. Bevorzugt werden jedoch nacheinander Laserpulse (Signalpulse) in die Emissionsrichtungen emittiert, so dass sich nur bei einer Betrachtung eines bestimmten Zeitintervalls die fächerförmige Emission der Signalstrahlen in den Emissionsrichtungen ergibt. Die Laserpulse in den Emissionsrichtungen können dabei von einem Laser emittiert werden, dessen Emissionsrichtung verändert wird. Bevorzugt werden jedoch mehrere Laser verwendet, die nacheinander Pulse in verschiedene Emissionsrichtungen emittieren. Die Abstände der Pulse können dabei so gewählt werden, dass die Reflexion des Laserpulses erfasst wird, bevor der nächste Laserpuls ausgesendet wird. Somit hängt der Zeitabstand zwischen den Laserpulsen von der Reichweite ab, die von den Signalstrahlen zur Erfassung des Objektraums erreicht werden soll.

Die Abtasteinrichtung ist insbesondere ausgebildet, die Emissionsrichtungen der Signalstrahlen um eine Rotationsachse zu drehen. Der erste Mehrfachscanner tastet somit das Volumen des Rotationskörpers eines Fächers ab.

Die Rotationsachse des ersten Mehrfachscanners ist insbesondere hinsichtlich einer Bewegungsrichtung der mobilen Vorrichtung nach vorne gekippt. Das Kippen der Rotationsachse ist ferner vorteilhaft für das Echtzeit-3D-SLAM-Verfahren. Es werden in diesem Fall nämlich nicht nur exakt horizontal zur Bewegungsrichtung verlaufende Schnitte durch den Objektraum zur Echtzeitvisualisierung geliefert, sondern quer zur Bewegungsrichtung verlaufende Schnitte.

Hierdurch werden einerseits die für das SLAM-Verfahren notwendigen Informationen noch erfasst, das heißt es können wiederkehrende Merkmale der Umgebung, die in aufeinanderfolgenden Rotationsdurchgängen des insbesondere als Laserscanner ausgebildeten Mehrfachscanners erfasst werden, erkannt werden. So könnte z.B. ein Umgebungsmerkmal, das in einem Rotationsdurchgang in einer ersten Scanebene des Mehrfachscanners erfasst wurde, im darauffolgenden Rotationsdurchgang im Erfassungs-Datensatz der nächsten oder übernächsten Ebene des Scanners wieder auftauchen.

Andererseits werden so auch schnell große Raumbereiche zum Zweck der Steuerung des mobilen Roboters erfasst, darunter vor allem nahegelegene Merkmale des Bodens vor der mobilen Vorrichtung und weiter entfernte Merkmale der Decke hinter der mobilen Vorrichtung. Es wird insbesondere eine Visualisierung der erfassten Umgebung in 3D ermöglicht, und zwar in einer Darstellung, die mehr Details liefert als eine Mehrfach-Scheiben-Linien-Schnitt-Darstellung, welche bevorzugt dann zur Anwendung kommt, wenn es um schnelle Erfassung großer Raumbereiche in Echtzeit, insbesondere mit hoher Reichweite nach vorne in Fahrtrichtung geht, wie es insbesondere für die autonome Bewegung des mobilen Roboters vorteilhaft ist. Unter einer autonomen Bewegung wird in dieser Schrift zum einen verstanden, dass die Vorrichtung sich selbstständig fortbewegen kann, also nicht getragen werden muss. Zusätzlich ist es jedoch zum anderen auch möglich, dass die mobile Vorrichtung selbstständig navigiert und manövriert.

Mit der erfindungsgemäßen Vorrichtung lassen sich insbesondere unwegsame Gebäude oder Gelände, wie z.B. Baustellen oder andere Außengelände, und unwegsame Umgebungen, wie zum Beispiel Höhlen, erfassen.

Gemäß einer Ausgestaltung der mobilen Vorrichtung ist eine Längsachse des Basiskörpers des mobilen Roboters in der Gehpose im Wesentlichen horizontal ausgerichtet ist. In der Aufnahmepose schließt die Längsachse des Basiskörpers hingegen einen Winkel mit der Horizontalen ein, der insbesondere in einem Bereich von 20° bis 40° liegt. Der Winkel ist Beispielsweise in einem Bereich von 25° bis 35°. Bevorzugt ist dieser Winkel 30°.

Durch die Ausrichtung des Basiskörpers in der Gehpose wird erreicht, dass sich der mobile Roboter, auf dem die Scanvorrichtung montiert ist, besonders stabil bewegen kann. Durch die Schrägstellung des Basiskörpers in der Aufnahmepose wird vorteilhafterweise auf besonders einfache Weise erreicht, dass die Kamera bzw. Kameras in eine geeignete Position und Ausrichtung für eine Aufnahme des zu erfassenden Objektraums gebracht werden. Wie bereits beschrieben, ist diese geeignete Position dadurch gekennzeichnet, dass die optische Achse mindestens einer Kamera einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -25° bis +25° liegt. Vorteilhafterweise kann durch diese im Wesentlichen horizontale Ausrichtung der Objektraum durch die Kamera bzw. Kameras besonders gut und vollständig erfasst werden.

Entscheidend ist hierbei einerseits, dass der tote Winkel und die von diesem umschlossene mobile Vorrichtung ausgehend von der Kamera bzw. den Kameras in Richtung des Bodens liegen, so dass der Verlust von Bildinformationen der Umgebung in diesem Bereich am wenigsten nachteilig ist, da der Boden in Panoramabildern in der Regel der unwichtigste Bereich ist.

Umgekehrt ist hierdurch gleichzeitig die Abbildungsqualität in der Umgebung der Horizontalen am besten. Für die Erstellung von Panoramabildern ist es nämlich besonders wichtig, dass der horizontale Bereich, der der hauptsächlichen Blickrichtung eines aufrecht stehenden menschlichen Betrachters entspricht, besonders gut abgebildet wird.

Die hierdurch erreichte Optimierung der Bildqualität im Bereich der Horizontalen basiert zum einen darauf, dass die optische Achse der Kamera bzw. Kameras auch im Wesentlichen horizontal ausgerichtet ist und gleichzeitig die Abbildungsqualität der Kameraobjektive nahe der optischen Achse am höchsten ist, während optische Abbildungsfehler, die auch durch Bildverarbeitung nicht korrigierbar sind, mit zunehmenden Abstand zur optischen Achse des Objektivs zunehmen.

Zum anderen basiert die Optimierung der Bildqualität im Bereich der Horizontalen darauf, dass in Randbereichen auftretende Verzerrungen durch die Abbildung von Weitwinkelobjektiven minimiert werden, die auch durch algorithmische Entzerrung z.T. nicht vollständig korrigiert werden können. Auch solche Verzerrungen wirken sich dann besonders störend aus, wenn sie im Bereich der horizontalen Blickrichtung eines menschlichen Betrachters liegen. Gleiches gilt für sogenannte „Stitching-Artefakte“, die beim Zusammenfügen von Einzelaufnahmen zu einem Panoramabild entstehen.

Gemäß einer Ausgestaltung der mobilen Vorrichtung umfasst der mobile Roboter zwei vordere Beine, die im vorderen Bereich des Basiskörpers befestigt sind, und zwei hintere Beine, die im hinteren Bereich des Basiskörpers befestigt sind. Die Steuereinrichtung ist in diesem Fall ausgebildet, die vertikalen Positionen der Verbindungen der zwei vorderen oder der zwei hinteren Beine abzusenken, um den mobilen Roboter von der Gehpose in die Aufnahmepose zu bringen.

Alternativ oder zusätzlich kann die Steuereinrichtung ausgebildet sein, die vertikalen Positionen der Verbindungen des anderen Beinpaars ausgewählt aus den zwei vorderen oder zwei hinteren Beine anzuheben, um den mobilen Roboter von der Gehpose in die Aufnahmepose zu bringen.

Auf diese Weise kann der mobile Roboter besonders einfach durch Schwenkbewegungen der Beine die Ausrichtung des Basiskörpers verändern.

Gemäß einer Ausgestaltung der mobilen Vorrichtung sind die Beine jeweils gelenkig mit dem Basiskörper verbunden. Die Beine weisen insbesondere jeweils ein Zwischengelenk zwischen einem oberen Teil und einem unteren Teil des jeweiligen Beins auf. Hierdurch sind die vertikalen Positionen der Verbindungen der zwei vorderen oder der zwei hinteren Beine absenkbar und/oder anhebbar, indem der Winkel zwischen dem oberen Teil und dem unteren Teil der jeweiligen Beine beim jeweiligen Zwischengelenk verkleinert oder vergrößert wird, um den mobilen Roboter von der Gehpose in die Aufnahmepose zu bringen.

Gemäß einer weiteren Ausgestaltung ist zwischen dem Basiskörper 3 und dem Gestell 1 eine bewegliche Vorrichtung mit einem oder mehreren Aktuatoren, z.B. ein Roboterarm angebracht, so dass der Überganz zwischen Gehpose und Aufnahmepose nicht durch ein Anheben und Absenken des Basiskörpers 3 bewirkt wird, sondern durch ein Anheben und Absenken des Gestells relativ zum Basiskörper durch die bewegliche Vorrichtung, z.B. den Roboterarm. Nachteilig an dieser Ausgestaltung ist jedoch, dass weitere Komponenten nötig sind, die zusätzliches Gewicht und zusätzliche Kosten verursachen.

Die aus der Scaneinrichtung und dem Gestell gebildete Einheit kann gemäß einer vorteilhaften Ausgestaltung der erfindungsgemäßen mobilen Vorrichtung eine Raumerfassungsvorrichtung sein, welche in der WO 2021/018900 A1 beschrieben ist, inbesondere ein mobiles Scan- System vom Typ „VLX®“ der Firma NavVis.

Ein solches VLX®-System kann bei der vorliegenden Erfindung ohne Modifikationen verwendet werden, wodurch vorteilhafterweise eine aufwändige Softwareanpassung oder Neukalibrierung an eine etwaig geänderte Sensor-Ausrichtung („Sensor Frame“) vermieden wird.

In der WO 2021/018900 A1 ist beschrieben, dass die Aufnahmewinkel der Kameras der Raumerfassungseinrichtung einen toten Winkel bilden, der vorteilhafterweise die Person umschließt, die das Gerät trägt, so dass diese vorteilhafterweise nicht auf den Kamerabildern und erzeugten Panoramabildern erscheint.

Gemäß einem vorteilhaften Aspekt der vorliegenden Erfindung ist eine solche Raumerfassungsvorrichtung bzw. das Gestell dergestalt relativ zu dem mobilen Roboter ausgerichtet bzw. mit diesem verbunden, dass der vorgenannte tote Winkel nicht nur die Raumerfassungsvorrichtung bzw. das Gestell umschließt, sondern zugleich auch den überwiegenden Teil des mobilen Roboters, d.h. im Endeffekt fast die gesamte erfindungsgemäße mobile Vorrichtung umschließt, so dass diese vorteilhafterweise ebenfalls überwiegend nicht auf den Kamerabildern und erzeugten Panoramabildern erscheint. Gemäß einer Ausgestaltung der mobilen Vorrichtung liegt der Aufnahmewinkel der Kamera hierbei in einer Vertikalebene in einem Bereich von 170° bis 210°, wobei sich die mobile Vorrichtung überwiegend außerhalb des Aufnahmewinkels der Kamera befindet, wenn sich der mobile Roboter in der Aufnahmepose befindet. Hierdurch ist es möglich, den Objektraum mit der Kamera in Richtung der optischen Achse der Kamera umfassend aufzunehmen, wobei jedoch die mobile Vorrichtung in der Aufnahme überwiegend ausgespart wird.

Gemäß einer Ausgestaltung der mobilen Vorrichtung umfasst die Scanvorrichtung mehrere Kameras, die beabstandet auf einem Ring, insbesondere einem Kreisring, angeordnet sind, wobei der Ring einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -30° bis +30° liegt, wenn sich der mobile Roboter in der Aufnahmepose befindet.

Der horizontale Abstand der Kameras ist dabei insbesondere so gering wie möglich gewählt, so dass der von den Kameras erfasste Raum in der Umgebung der mobilen Vorrichtung in unmittelbarer Umgebung so groß wie möglich ist, wobei sich die mobile Vorrichtung außerhalb des Aufnahmewinkels der Kameras befindet. Vorteilhafterweise ist in diesem Fall eine Rundumaufnahme mittels der Kameras möglich, welche jedoch den Raumbereich, in welchem die mobile Vorrichtung angeordnet ist, ausspart.

Gemäß einer weiteren Ausgestaltung der erfindungsgemäßen mobilen Vorrichtung ist an dem Gestell eine Steuereinheit befestigt, die mit den Kameras datentechnisch gekoppelt ist und die eingerichtet ist, die Bildaufnahme mittels der Kameras zeitgleich auszulösen. Auf diese Weise ist es möglich, eine Rundumaufnahme mittels der Kameras für einen bestimmten Zeitpunkt zu erzeugen. Die Kameras ermöglichen eine im Wesentlichen vollständige Erfassung des Raumbereichs vor der mobilen Vorrichtung, insbesondere um die mobilen Vorrichtung herum.

Gemäß einer weiteren Ausgestaltung der erfindungsgemäßen mobilen Vorrichtung umfasst die Scanvorrichtung einen zweiten Mehrfachscanner. Eine gescannte Mittelebene des ersten Mehrfachscanners schließt dabei insbesondere einen Winkel mit einer gescannten Mittelebene des zweiten Mehrfachscanners ein, der in einem Bereich von 85° bis 115° liegt. Beispielsweise ist dieser Winkel 100°. Der von dem zweiten Mehrfachscanner erfasste Öffnungswinkel liegt insbesondere in einem Bereich von 25° bis 35°. Bevorzugt ist der Öffnungswinkel 30°. Durch eine Scanvorrichtung mit zwei Mehrfachscannern, die im Wesentlichen senkrecht zueinander ausgerichtet sind, kann der Objektraum besonders genau und umfassend erfasst werden. Gemäß einer weiteren Ausgestaltung der erfindungsgemäßen mobilen Vorrichtung weist der mobile Roboter eine Erfassungseinrichtung zum Erfassen der unmittelbaren Umgebung des Roboters auf. Die Steuereinrichtung ist in diesem Fall mit der Erfassungseinrichtung und dem ersten Mehrfachscanner datentechnisch gekoppelt. Sie ist insbesondere ausgebildet, die Beine der mobilen Vorrichtung ferner mittels der von der Erfassungseinrichtung erfassten Daten und/oder den von dem ersten Mehrfachscanner erfassten Daten so anzusteuern, dass sich die mobile Vorrichtung autonom durch den zu erfassenden Objektraum bewegt. Auf diese Weise kann sich der mobile Roboter sicher autonom auf dem Untergrund des Erfassungsraums bewegen.

Der mobile Roboter, welcher bei der mobilen Vorrichtung gemäß der Erfindung eingesetzt wird, kann ein mobiler Roboter sein, wie er in der US 2021/0041887 A1 oder der WO 2020/076418 A1 beschrieben ist, insbesondere ein mobiler Roboter vom Typ Spot® der Firma Boston Dynamics.

Das erfindungsgemäße Verfahren zum Erfassen eines Objektraums verwendet die vorstehend beschriebene mobile Vorrichtung. Bei dem Verfahren werden folgende Schritte ausgeführt:

(a) Bewegen der mobile Vorrichtung durch den zu erfassenden Objektraum in der Gehpose der mobilen Vorrichtung, wobei zumindest innerhalb eines Zeitintervalls während der Bewegung der mobilen Vorrichtung der ersten Mehrfachscanner den Objektraum durch die Emission von Signalstrahlen und die Detektion von Reflexionsstrahlen abtastet,

(b) Stoppen der Bewegung der mobilen Vorrichtung und Veränderung des Zustands des mobilen Roboters von der Gehpose in die Aufnahmepose und

(c) Aufnahme zumindest eines Kamerabilds mittels der Kamera, während sich der mobile Roboter in der Aufnahmepose befindet.

Durch das erfindungsgemäße Verfahren kann vorteilhafterweise ein Objektraum auch dann sehr genau erfasst werden, wenn dieser Objektraum einen unwegsamen Untergrund aufweist. In diesem Fall kann nämlich die Scanvorrichtung mittels des mobilen Roboters durch die Bewegung der Beine dieses Roboters auf dem unwegsamen Untergrund bewegt werden. In der Gehpose kann dabei der Objektraum durch den ersten Mehrfachscanner abgetastet werden. Für die Aufnahme eines Kamerabildes wird die Bewegung der mobilen Vorrichtung angehalten und der mobile Roboter von der Gehpose in die Aufnahmepose gebracht. In dieser Aufnahmepose wird bei dem erfindungsgemäßen Verfahren dann das Kamerabild mittels der Kamera aufgenommen. In dieser Aufnahmepose kann durch das Kamerabild der Objektraum besser erfasst werden als in der Gehpose, da das Gestell, an dem die Kamera montiert ist, aufrechter ausgerichtet ist.

Gemäß einer weiteren Ausgestaltung der erfindungsgemäßen Verfahrens weist der mobile Roboter eine Erfassungseinrichtung zum Erfassen der unmittelbaren Umgebung des Roboters auf und die Steuereinrichtung ist mit der Erfassungseinrichtung und dem ersten Mehrfachscanner datentechnisch gekoppelt. Die Steuereinrichtung verarbeitet dann die von der Erfassungseinrichtung erfassten Daten und/oder von dem ersten Mehrfachscanner erfassten Daten und steuert die Beine der mobilen Vorrichtung in Abhängigkeit von den von der Erfassungseinrichtung erfassten Daten und/oder den von dem ersten Mehrfachscanner erfassten Daten an, um die mobile Vorrichtung autonom durch den zu erfassenden Objektraum zu bewegen. Vorteilhafterweise werden in diesem Fall nicht nur Erfassungsdaten der internen Erfassungseinrichtung des mobilen Roboters für die autonome Bewegung der mobilen Vorrichtung verwendet, sondern auch die sehr exakten Daten, die von dem Mehrfachscanner erfasst worden sind, für die autonome Bewegung der mobilen Vorrichtung verwendet. Auf diese Weise kann die mobile Vorrichtung noch sicherer durch den Objektraum autonom bewegt werden.

Gemäß einer weiteren Ausgestaltung ist zusätzlich zu der Steuereinrichtung des mobilen Roboters und der an dem Gestell befestigten Steuereinheit eine weitere dritte Steuereinheit vorgesehen, die mit den beiden vorgenannten Steuereinrichtungen bzw. -einheiten datentechnisch gekoppelt ist und Daten aus einem oder beiden Systemen empfängt und / oder verarbeitet sowie Daten und/oder Steuerbefehle an eines oder beide der vorgenannten Systeme oder direkt an Teilsysteme des mobilen Roboters und/oder an Teilsysteme der Scaneinrichtung übermittelt.

Gemäß einer weiteren Ausgestaltung der erfindungsgemäßen Verfahrens werden in einem initialen Schritt vor Durchführung der Schritte (a) bis (c) der Steuereinrichtung dreidimensionale Daten, insbesondere Daten einer dreidimensionalen Punktwolke, zu dem zu scannenden Objektraum übertragen und die Steuereinrichtung führt einen virtuellen Rundgang durch den zu scannenden Objektraum mittels der übertragenen dreidimensionalen Daten durch. Üblicherweise erkundet der mobile Roboter in einem ersten physischen Rundgang, der noch von einer Bedienperson gesteuert wird, die zu erfassende Umgebung, um sich später bei autonomen Missionen anhand der erfassten Daten orientieren zu können. Bei diesem initialen physischen Rundgang werden die von der Erfassungseinrichtung erfassten Umgebungsdaten wie z.B. optische Bildinformationen, Informationen von Tiefenkameras oder Daten von inertialen Messeinheiten (IMU) in einem speziellen Datenformat aufgezeichnet, welches für die spätere autonome Navigation verwendet wird. Vorteilhafterweise ist ein solcher initialer Rundgang des mobilen Roboters bei dieser Ausgestaltung des erfindungsgemäßen Verfahrens nicht nötig, da der Rundgang virtuell ausgeführt wird, indem der Steuereinrichtung die dreidimensionalen Daten des Objektraums zur Verfügung gestellt werden. Diese dreidimensionalen Daten entsprechen den Daten, die von der internen Erfassungseinrichtung des mobilen Roboters bei einem initialen Rundgang erfasst werden würden. Hierdurch wird vorteilhafterweise der Aufwand zum Erfassen des Objektraums reduziert. Dieses Verfahren kann auch unabhängig von der Steuereinheit des mobilen Roboters auf einem separaten Rechner durchgeführt werden und die dann in dem speziellen Datenformat für die autonome Navigation vorliegenden Daten an die Steuereinrichtgung des mobilen Roboters übertragen werden.

Gemäß einer weiteren Ausgestaltung der erfindungsgemäßen Verfahrens werden in einem initialen Schritt vor Durchführung der Schritte (a) bis (c) dreidimensionale Daten in einer ersten Repräsentation zu dem zu scannenden Objektraum verwendet, um dreidimensionale Daten in einer zweiten Repräsentation zu erzeugen, die den Daten entsprechen, die die Steuereinrichtung des mobilen Roboters mithilfe der Erfassungseinrichtung bei einem physischen Rundgang durch den zu scannenden Objektraum erfasst und verarbeitet hätte. Die dreidimensionalen Daten in der zweiten Repräsentation werden insbesondere bei einem virtuellen Rundgang durch den zu scannenden Objektraum erzeugt, der mittels der Daten in der ersten Repräsentation durchgeführt wird. Vorteilhafterweise werden somit die dreidimensionalen Daten von der ersten Repräsentation in die zweite Repräsentationen, welche von dem mobilen Roboter verwendet werden kann, konvertiert.

Die Erfindung wird nun anhand von Ausführungsbeispielen mit Bezug zu den Zeichnungen erläutert.

Figur 1 zeigt ein Ausführungsbeispiel der mobilen Vorrichtung in einer Gehpose des Roboters und

Figur 2 zeigt das Ausführungsbeispiel der mobilen Vorrichtung in einer Aufnahmepose des Roboters.

Bei der mobilen Vorrichtung 30 des im Folgenden beschriebenen Ausführungsbeispiels ist eine Raumerfassungsvorrichtung, wie sie in der WO 2021/018900 A1 beschrieben ist, die eine Scaneinrichtung und ein Gestell 1 umfasst, auf einem mobilen Roboter befestigt, wie er in der US 2021/0041887 A1 oder, gemäß einem anderen Ausführungsbeispiel, in der WO 2020/076418 A1 beschrieben ist.

Die Scanvorrichtung umfasst dabei mehrere Kameras 32, einen ersten Mehrfachscanner 31 und einen zweiten Mehrfachscanner 32, die jeweils an dem Gestell 1 befestigt sind.

Bei der in Figur 1 gezeigten Ausrichtung des Gestells 1 in der Gehpose des mobilen Roboters 2 sind die Kameras 32 und der erste Mehrfachscanner 31 im vorderen oberen Kopfbereich des Gestells 1 angeordnet.

Als erster Mehrfachscanner 31 wird ein Mehrebenen-Laserscanner der Firma Velodyne, Typ Puck LITE, verwendet. Der erster Mehrfachscanner 31 umfasst mehrere Emissionseinheiten. Diese Emissionseinheiten setzen sich aus einer Vielzahl von Lasern zusammen, welche in einem Bauteil integriert sind, und die auf diese Weise eine feste Ausrichtung zueinander haben. Die Laser der Emissionseinheiten erzeugen eine Vielzahl von Signalstrahlen in Emissionsrichtungen. Die Signalstrahlen sind so ausgerichtet, dass sie einen Emissionsfächer aufspannen, der eine Ebene definiert. Details zu Geometrie und Ausrichtung dieses Emissionsfächers werden später erläutert. Die Signalstrahlen können z. B. auf ein Objekt treffen, an deren Oberfläche sie gestreut bzw. reflektiert werden. Auf diese Weise werden Reflexionsstrahlungen erzeugt. Der rückgestreute bzw. rückreflektierte Anteil dieser Reflexionsstrahlungen wird von einem Empfänger detektiert, der in die Emissionseinheiten integriert ist.

Im vorliegenden Ausführungsbeispiel umfassen die Emissionseinheiten 16 Laser, die aufeinanderfolgend Signalpulse emittieren. Beispielsweise emittieren die einzelnen Laser der Emissionseinheiten aufeinanderfolgend Signalpulse. Der zeitliche Abstand zwischen diesen Signalpulsen ergibt sich aus der Laufzeit eines Signalpulses zu einem Objekt, welches bei der maximalen Reichweite des ersten Mehrfachscanners 31 angeordnet ist, dort reflektiert wird und wieder zurück zum Empfänger gelangt. Wenn der Empfänger diesen Signalpuls detektiert hat, wird der Signalpuls des nächsten Lasers emittiert. Beispielsweise kann zwischen den Signalpulsen ein Zeitintervall von 2,3 ps liegen. In dieser Zeit kann das Licht 690 m zurücklegen, so dass auch bei einer maximalen Reichweite von 100 m ein ausreichender Zeitabstand zwischen aufeinanderfolgenden Signalpulsen liegt. Ein Signalpuls ist dabei beispielsweise 6 ns lang.

Ferner umfasst der erste Mehrfachscanner 31 eine Abtasteinrichtung. Diese Abtasteinrichtung verändert die Emissionsrichtungen der Signalstrahlen. Dabei werden die Emissionsrichtungen der Signalstrahlen um eine Rotationsachse gedreht. Diese Rotationsachse liegt in der von dem Emissionsfächer der Signalstrahlen gebildeten Ebene. Ferner steht die Rotationsachse senkrecht auf einer Mittelachse des Emissionsfächers der Signalstrahlen. Diese Mittelachse kann dabei insbesondere eine Symmetrieachse des Emissionsfächers der Signalstrahlen sein. Von dem ersten Mehrfachscanner 31 wird auf diese Weise der Rotationskörper eines Fächers erfasst.

An dem Gestell 1 ist ferner im unteren hinteren Bereich in der Gehpose ein zweiter Mehrfachscanner 36 befestigt. Es handelt sich, wie beim ersten Mehrfachscanner 31 , um einen Mehrebenen-Laserscanner, welcher den gleichen Aufbau wie der erste Mehrfachscanner 31 hat. Der zweite Mehrfachscanner 36 ist jedoch anders ausgerichtet als der erste Mehrfachscanner 31.

Der erste Mehrfachscanner 31 ist an dem Gestell 1 so befestigt, dass die Mittelachse X1 seines Emissionsfächers einen Winkel mit der Horizontalebene einschließt, so dass er nach vorne geneigt ist. Der Emissionsfächer weist einen Öffnungswinkel auf, der in einem Bereich von 10° bis 40° liegt. Im vorliegenden Ausführungsbeispiel ist dieser Winkel 30°.

Der zweite Mehrfachscanner 36 ist an dem Gestell 1 so befestigt, dass seine Mittelachse X2 einen Winkel einen Winkel ß von 100° mit der Mittelachse X1 des ersten Mehrfachscanners 31 einschließt. Der Öffnungswinkel des Emissionsfächers des zweiten Mehrfachscanners 36 entspricht dem Öffnungswinkel des Emissionsfächers des Mehrfachscanners 31. Die mobile Vorrichtung 30 befindet sich somit in der in Fig. 1 gezeigten Gehpose außerhalb der Emissionsfächer der Mehrfachscanner 31 , 36.

Die Kameras 32 der mobilen Vorrichtung 30 können digitale Bilder von der Umgebung aufnehmen. Bei dem beschriebenen Ausführungsbeispiel sind Kameras der Firma FLIR mit Weitwinkelobjektiven der Firma Sunex auf einem Kreisring angeordnet. Die Kameras 32 sind auf dem Kreisring in gleichen Winkelabständen voneinander positioniert.

Der Öffnungswinkel jeder Kamera 32 ist dabei kein rotationssymmetrischer Kegel. Vielmehr ist der Öffnungswinkel in verschiedenen Richtungen unterschiedlich. Bei einem Vertikalschnitt durch die mobile Vorrichtung 30 ergibt sich ein vertikaler Öffnungswinkel. Dieser ist in einem Bereich von 170° bis 210°. Im vorliegenden Ausführungsbeispiel ist dieser Öffnungswinkel größer als 180°, nämlich 195°. Der vertikale Öffnungswinkel ist dabei so ausgerichtet, dass sich die mobile Vorrichtung 30 außerhalb des Aufnahmewinkels der Kameras 32 befindet. Ferner ist der horizontale Abstand der Kamera 32 so gering wie möglich gewählt, so dass der von den Kameras 32 in unmittelbarer Umgebung der mobilen Vorrichtung 30 erfasste Bereich so groß wie möglich ist. Mittels der auf dem Kreisring angeordneten Kameras 32 kann insbesondere der Objektraum, welcher die mobile Vorrichtung 30 umgibt, vollständig erfasst werden, wobei nur die mobile Vorrichtung 30 selbst bei den Aufnahmen der Kameras 32 ausgespart ist.

Der mobile Roboter 2 umfasst einen Basiskörper 3, an dem mehrere Beine 4 bewegbar befestigt sind. Im vorliegenden Ausführungsbeispiel weist der mobile Roboter 2 zwei vordere Beine 4-1 und zwei hintere Beine 4-2 auf. Jedes Bein 4 wiederum ist gelenkig mittels eines oberen Teils 6 mit dem Basiskörper 3 verbunden, wie es in Figur 1 gezeigt ist. Des Weiteren weist jedes Bein ein unteres Teil 7 auf, welches über ein Zwischengelenk 5 gelenkig mit dem Ende des oberen Teils 6 des jeweiligen Beins verbunden ist, welches gegenüberliegend von dem Ende angeordnet ist, welches mit dem Basisteil 3 verbunden ist. Durch diese Konstruktion kann der mobile Roboter 2 in der in Figur 1 gezeigten Gehpose durch Bewegung der Beine bewegt werden. Er kann sich über einen unwegsamen Untergrund bewegen, indem er mit den Beinen geht.

Zur Steuerung der Bewegung der Beine 4 ist eine Steuervorrichtung 8 vorgesehen, welche Signale an Motoren der Beine 4 überträgt, um diese zu bewegen.

Des Weiteren weist der mobile Roboter 2 eine Erfassungseinrichtung 9 auf, mit welcher Umgebungsdaten erfasst werden können. Beispielsweise kann die Erfassungseinrichtung 9 eine Kamera und eine entsprechende Bildverarbeitungseinrichtung umfassen. Die Erfassungseinrichtung 9 ist mit der Steuereinrichtung 8 verbunden. Auf diese Weise kann sich der mobile Roboter 2 in unwegsamem Gelände bewegen.

Der mobile Roboter 2 kann sich vollständig selbständig bewegen oder es kann ein Weg oder es können bestimmte Positionen vorgegeben werden, welche der mobile Roboter 2 abgeht.

Das Gestell 1 ist mittels einem vorderen Kopplungselement 10 und einem hinteren Kopplungselement 11 auf der Oberseite des Basiskörpers 3 des mobilen Roboters 2 lösbar befestigt. Durch die Kopplung des Gestells 1 mit dem Basiskörper 3 wird die Scanvorrichtung in definierter Weise zu dem Basiskörper 3 ausgerichtet.

Über die Kopplungselemente 10 und 11 ist auch die Scanvorrichtung mit der Steuereinrichtung 8 des mobilen Roboters 2 verbunden. Auf diese Weise kann die Steuereinrichtung 8 die von der Scanvorrichtung erfassten Daten für die autonome Bewegung des mobilen Roboters 2 verwenden. ln der in Figur 1 gezeigten Gehpose des mobilen Roboters 2 ist eine Längsachse L des Basiskörpers 3 des mobilen Roboters 2 im Wesentlichen horizontal ausgerichtet. Bei der Bewegung des mobilen Roboters 2 verändert sich dabei die Ausrichtung der Längsachse L zwar, im Mittel ist sie jedoch im Wesentlichen horizontal ausgerichtet. In diesem Fall ist die Ausrichtung des Gestells nach vorne gekippt, wie es in Figur 1 gezeigt ist. Durch die gekippte Stellung des Gestells 1 wird ein niedriger Schwerpunkt der von der Scanvorrichtung und dem Gestell 1 gebildeten Einheit erreicht. Die vertikale Erstreckung V1, welche der vertikale Abstand vom untersten Punkt zum obersten Punkt der Einheit ist, ist in der Gehpose nämlich relativ gering.

Von der in Figur 1 gezeigten Gehpose des mobilen Roboters 2 lässt sich dieser im Ruhezustand in die in Figur 2 gezeigte Aufnahmepose bringen. Hierfür werden die hinteren Beine 4-2 so von der Steuereinrichtung 6 angesteuert, dass sich der Winkel zwischen dem oberen Teil 6 und dem unteren Teil 7 bei dem Zwischengelenk 5 jeweils bei dem hinteren Bein 4-2 verkleinert, wodurch der hintere Teil des Basiskörpers 3 abgesenkt wird.

Bei dem hier gezeigten Ausführungsbeispiel wird ferner der Winkel zwischen dem oberen Teil 6 und dem unteren Teil 7 der beiden vorderen Beine 4-1 vergrößert, so dass der vordere Teil des Basiskörpers 3 angehoben wird.

Insgesamt ergibt sich in der in Figur 2 gezeigten Aufnahmepose des mobilen Roboters 2 eine Schwenkbewegung um 30° relativ zu der Ausrichtung des Basiskörpers 3 in der in Figur 1 gezeigten Gehpose.

Entsprechend der Ausrichtung des Basiskörpers 3 verändert sich auch die Ausrichtung der von der Scanvorrichtung und dem Gestell 1 gebildeten Einheit, wie es in Figur 2 gezeigt ist. Insbesondere ergibt sich eine aufrechtere Ausrichtung des Gestells 1 , so dass insbesondere die Kameras 32 höher angeordnet sind als in der Gehpose. Außerdem wird die optische Achse O einer nach vorne ausgerichteten Kamera 32 nach oben geschwenkt, so dass diese einen Winkel mit der Horizontalen einschließt, der in einem Bereich von -25° bis +25° liegt. Im vorliegend beschriebenen Ausführungsbeispiel ist die optische Achse O der nach vorne ausgerichteten Kamera 32 um 10° nach unten relativ zu einer horizontalen Ebene ausgerichtet.

Die vertikale Erstreckung V2 der von der Scanvorrichtung und dem Gestell 1 gebildeten Einheit ist in der Aufnahmepose größer als in der Gehpose. Die von der Scanvorrichtung und dem Gestell 1 gebildete Einheit nimmt in der Aufnahmepose eine Ausrichtung an, die für eine Bewegung des mobilen Roboters 2 ungünstig wäre, da die mobile Vorrichtung 30 beim Bewegen instabil wäre, wodurch Wackelbewegungen hervorgerufen werden könnten, die zu einer Verschlechterung der Daten beim Erfassen des Objektraums führen würden. Für die Aufnahme von Kamerabildern ist die Aufnahmepose jedoch vorteilhaft.

Im Folgenden wird ein Ausführungsbeispiel des erfindungsgemäßen Verfahrens zum Erfassen eines Objektraums beschrieben:

Bei dem Verfahren wird die mobile Vorrichtung 30 eingesetzt, wie sie im vorstehenden Ausführungsbeispiel beschrieben wurde.

Vor dem Erfassen des Objektraums werden in einem initialen Schritt der Steuereinrichtung 8 dreidimensionale Daten zu dem zu scannenden Objektraum übertragen, sofern solche Daten vorliegen. Bei diesen Daten kann es sich beispielsweise um Daten einer dreidimensionalen Punktwolke handeln, die zu einem früheren Zeitpunkt mit der Scaneinrichtung aufgenommen wurden. Sollten solche dreidimensionalen Daten nicht vorliegen, kann der mobile Roboter 2 sich gegebenenfalls in einem Erkundungsvorgang zunächst durch den zu erfassenden Objektraum bewegen, um Daten zu erfassen und zu speichern, die es nachfolgend dem mobilen Roboter 2 erlauben, sich in dem zu erfassenden Objektraum auf einer vorgegebenen Trajektorie zu bewegen.

Anschließend werden der Steuereinrichtung 8 Daten übertragen, die angeben, auf welcher Trajektorie sich die mobile Vorrichtung 30 in dem zu erfassenden Objektraum bewegen soll und an welchen Positionen Kamerabilder aufgenommen werden sollen.

In einem alternativen Ausführungsbeispiel bewegt sich der mobile Roboter 2 selbständig in dem Objektraum, wobei er seine Bewegungstrajektorie speichert, so dass sichergestellt werden kann, dass der gesamte gewünschte Objektraum erfasst wird.

Anschließend wird die Erfassung des Objektraums gestartet. Die mobile Vorrichtung 30 wird zunächst durch den zu erfassenden Objektraum in der in Figur 1 gezeigten Gehpose bewegt, wobei zumindest innerhalb eines Zeitintervalls während dieser Bewegung der erste und gegebenenfalls auch zweite Mehrfachscanner 31 , 36 den Objektraum durch die Emission von Signalstrahlen und die Detektion von Reflexionsstrahlen abtastet.

Bei einer bestimmten Position, die vorab übertragen werden kann oder die während der Bewegung im Objektraum ermittelt werden kann, wird die Bewegung der mobilen Vorrichtung 30 gestoppt und die mobile Vorrichtung 30 in einen Ruhezustand gebracht, bei welcher sie sich nicht fortbewegt. In diesem Ruhezustand wird dann der Zustand des mobilen Roboters 2 von der Gehpose in die Aufnahmepose verändert. Während sich der mobile Roboter 2 in der Aufnahmepose befindet, wird zumindest ein Kamerabild mittels jeder Kamera 32 aufgenommen.

Anschließend wird der mobile Roboter 2 wieder in die Gehpose gebracht, woraufhin er sieh weiter durch den Objektraum bewegt.

Auf diese Weise bewegt sich die mobile Vorrichtung 30 durch den Objektraum 30, so dass dieser vollständig erfasst werden kann, wobei bei einer Vielzahl von Positionen die mobile Vorrichtung 30 in den Ruhezustand und in die Aufnahmepose versetzt wird, in welcher Kamerabilder aufgenommen werden.

Bei der Steuerung des mobilen Roboters 2 während der Fortbewegung desselben steuert die Steuereinrichtung 8 die Beine 4 mittels der von der Erfassungseinrichtung 9 erfassten Daten und/oder mittels der von dem ersten und/oder zweiten Mehrfachscanner 31 , 36 erfassten Daten so an, dass sich die mobile Vorrichtung 30 autonom durch den zu erfassenden Objektraum bewegt.

Bezugszeichenliste

Gestell mobiler Roboter

Basiskörper

Beine -1 vordere Beine -2 hintere Beine

Zwischengelenk oberer Teil unterer Teil

Steuereinrichtung

Erfassungseinrichtung 0 vorderes Kopplungselement 1 hinteres Kopplungselement 0 mobile Vorrichtung 1 erster Mehrfachscanner 2 Kameras 6 zweiter Mehrfachscanner