Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
INSPECTION CAMERA UNIT, METHOD FOR INSPECTING INTERIORS, AND SENSOR UNIT
Document Type and Number:
WIPO Patent Application WO/2014/118391
Kind Code:
A2
Abstract:
In order to specify an inspection camera unit (101) having an inspection camera (104) for recording preferably colour inspection photos (122) of interiors (121), in particular of ships, or a method for inspecting interiors (121), in particular of ships, by recording preferably colour inspection photos (122) by means of an inspection camera unit, which each increase the usefulness of the inspection photos and also enable, for example, an improved historical examination, according to the invention the inspection camera unit (101) comprises referencing means (105) for referencing the inspection photos (122) or the inspection photos (122) are referenced in that relative location data of the inspection camera (104) and orientation data of the inspection camera (104) are determined when the inspection photos are recorded and are associated with the inspection photos (122), wherein the relative location data and the orientation data are then put into a coordinate system of the interior (121), wherein the inspection camera unit (101) preferably is designed in accordance with one of claims 1 to 14.

Inventors:
BÖRNER ANKO (DE)
ZUEV SERGEY (DE)
GREISSBACH DENIS (DE)
BAUMBACH DIRK (DE)
BUDER MAXIMILIAN (DE)
CHOINOWSKI ANDRE (DE)
WILKEN MARC (DE)
CABOS CHRISTIAN (DE)
Application Number:
EP2014/052173
Publication Date:
August 07, 2014
Filing Date:
February 04, 2014
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
DNV GL SE (DE)
DEUTSCHES ZENTRUM FÜR LUFT UND RAUMFAHRT E V (DE)
International Classes:
H04W4/18
Foreign References:
DE102011084690A12013-04-18
Other References:
Cheng Hong Yang: "Geometric Models in Stereoscopic Video", , 1995, XP055115790, Gefunden im Internet: URL:http://iss.bu.edu/data/jkonrad/reports/Yang95-12inrs.ps [gefunden am 2014-04-29]
Tomonori Masuda ET AL: "Development of "3D Measurement System" Using Images Taken with a "FinePix REAL 3D W3" 3D Digital Camera", Fulifilm Research and Development (No.57-2012), 2012, Seiten 38-41, XP055132844, Japan Gefunden im Internet: URL:http://www.fujifilm.com/about/research/report/057/pdf/index/ff_rd057_008_en.pdf [gefunden am 2014-08-01]
Attorney, Agent or Firm:
VONNEMANN KLOIBER & KOLLEGEN (DE)
Download PDF:
Claims:
PATENTANSPRÜCHE

Inspektionskameraeinheit (101) mit einer Inspektionskamera (104) zur Aufnahme von, vorzugsweise farbigen, Inspektionsphotos (122) von Innenräumen (121), insbesondere von Schiffen, dadurch gekennzeichnet, dass sie Referenzierungsmittel (105) zum Referenzieren der Inspektionsphotos (122) aufweist.

Inspektionskameraeinheit (101) nach Anspruch 1 , dad u rch gekennzeichnet, dass die Referenzierungsmittel eine

Stereokamera (105) mit einer ersten Referenzierungskamera (106) und einer zweiten Referenzierungskamera (108) umfassen, zur Bestimmung von den Inspektionsphotos (122) zuordenbaren relativen Ortsdaten der Inspektionskamera (104) und

Orientierungsdaten der Inspektionskamera (104).

Inspektionskameraeinheit (101) nach Anspruch 2, dad u rch gekennzeichnet, dass die erste

Referenzierungskamera (106) und/oder die zweite

Referenzierungskamera (108) als schwarz-weiß Kamera ausgestaltet ist.

Inspektionskameraeinheit (101) nach Anspruch 2 oder3, dadurch gekennzeichnet, dass die Stereokamera (105)

infrarotsensitiv ausgestaltet ist und eine Infrarotquelle (109) umfasst, wobei vorzugsweise die Infrarotquelle (109) gepulst betreibbar ausgestaltet ist.

Inspektionskameraeinheit (101 ) nach einem der Ansprüche 2 bis 4, dadurch gekennzeichnet, dass die Stereokamera (105) eine Bildverarbeitungseinheit zum Referenzieren anhand eines Bildvergleichs eines mit der ersten Referenzierungskamera (106) aufgenommenen ersten Referenzierungsbildes (114) mit einem parallel mit der zweiten Referenzierungskamera (108)

aufgenommenen zweiten Referenzierungsbild (115) aufweist.

6. Inspektionskameraeinheit (101 ) nach Anspruch 5, d a d u rc h

gekennzeichnet, dass der Bildvergleich eine Auswahl mindestens eines Auswertemusters (116) in dem ersten

Referenzierungsbild (114), ein Auffinden des Auswertemusters (117) in dem zweiten Referenzierungsbild (115) und eine Bestimmung der Position (x,y) des Auswertemusters (116, 117) innerhalb des ersten Referenzierungsbildes (114) und innerhalb des zweiten

Referenzierungsbildes (115) umfasst.

7. Inspektionskameraeinheit (101) nach Anspruch 6, dadurch

gekennzeichnet, dass das Auswertemuster (116) einen Bildbereich mit einem maximalen Kontrast umfasst. 8. Inspektionskameraeinheit (101 ) nach einem der vorhergehenden Ansprüche, dad u rch gekennzeichnet, dass sie einen Beschleunigungssensor (112) und/oder einen Neigungssensor (113) umfasst.

9. Inspektionskameraeinheit (101) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die

Referenzierungsmittel zur Auswertung von Daten bezüglich eines Öffnungswinkels der Inspektionskamera (104) ausgestaltet sind.

10. Inspektionskameraeinheit (101 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die erste Referenzierungskamera (106) oder die zweite

Referenzierungskamera (108) die Inspektionskamera (104) ist.

1 . Inspektionskameraeinheit (101 ) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass visuelle Positionsanzeigemittel, vorzugsweise eine Laserlichtquelle (124) umfassend, zur Anzeige eines aufgrund des Ortes und der

Orientierung der Inspektionskamera (104) von einem

Inspektionsphoto (122) momentan erfassbaren Objektbereichs vorgesehen sind.

12. Inspektionskameraeinheit (101) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der

Bildvergleich lediglich auf Basis eines Teilbereichs (118), insbesondere eines im wesentlichen linienartigen Bereichs, beider Referenzierungsbilder (114, 115) erfolgt.

13. Inspektionskameraeinheit (101) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine

Speichereinheit vorgesehen ist, um eine zeitliche Reihe von

Inspektionsphotos (122) und eine zeitliche Reihe von relativen Ortsdaten der Inspektionskamera (104) und/oder Orientierungsdaten der Inspektionskamera (104) abzuspeichern.

14. Inspektionskameraeinheit (101) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die

Inspektionskamera (104) zwischen der ersten

Referenzierungskamera (106) und der zweiten

Referenzierungskamera (108) angeordnet ist.

15. Verfahren zur Inspektion von Innenräumen (121), insbesondere von Schiffen, durch Aufnahme von, vorzugsweise farbigen,

Inspektionsphotos (122) mittels einer Inspektionskameraeinheit, dadurch gekennzeichnet, dass die

Inspektionsphotos (122) referenziert werden, indem bei der Aufnahme relative Ortsdaten der Inspektionskamera (104) und Orientierungsdaten der Inspektionskamera (104) bestimmt und den Inspektionsphotos (122) zugeordnet werden, wobei anschließend eine Einordnung der relativen Ortsdaten und der Orientierungsdaten in ein Koordinatensystem des Innenraums (121) vorgenommen wird, wobei vorzugsweise die Inspektionskameraeinheit (101) nach einem der Ansprüche 1 bis 14 ausgestaltet ist.

Verfahren nach Anspruch 15, dadurch gekennzeichnet, d a s s es ein Verfahren zur Vermaßung von Strukturen in den Innenräumen (121) anhand der Inspektionsphotos (122) beinhaltet, umfassend

- Auswählen in einem Inspektionsphoto (122) zweier

Inspektionsphotobildpunkte,

- anschließend Bestimmen in dem ersten Referenzierungsbild (114) und in dem zweiten Referenzierungsbild (115) den ausgewählten Inspektionsphotobildpunkten entsprechender

Referenzierungsbildpunkte

- und Berechnen deren euklidischen Abstands.

Sensoreinheit mit Sensormitteln zur messtechnischen Erfassung mindestens einer Eigenschaft von Innenräumen, insbesondere von Schiffen, dadurch gekennzeichnet, dass siezwecks Bestimmung einer durch relative Ortsdaten und Orientierungsdaten gekennzeichneten Lage der Sensormittel mit Lagegebermitteln zum Zusammenwirken mit den Referenzierungsmitteln (105) einer Inspektionskameraeinheit (101) nach einem der Ansprüche 1 bis 14 versehen ist.

18. Sensoreinheit nach Anspruch 17, dadurch gekennzeichnet, dass die Lagegebermittel voneinander auf einer Sensorachse beabstandet angeordnete, einen optischen Kontrast hervorrufende, insbesondere punktartige, Bereiche umfassen.

19. Sensoreinheit nach Anspruch 17 oder 18, dadurch

gekennzeichnet, dass die Lagegebermittel zuschaltbar ausgestaltet sind.

20. Sensoreinheit nach einem der Ansprüche 17 bis 19, dadu rch

gekennzeichnet, dass die Lagegebermittel mindestens eine punktförmige Lichtquelle aufweisen.

21. Vermessungsanordnung, insbesondere zur Vermessung von

geschlossenen Räumen und/ oder von Außenbereichen mit gestörten oder fehlendem GNSS-Empfang, wobei die Vermessungsanordnung (1 ) mindestens ein sensorisches System (2) zur Erzeugung von Messdaten umfasst, wobei die Vermessungsanordnung (1) weiter ein erstes unreferenziertes Lageerfassungssystem zur Erzeugung erster Positions- und/oder Orientierungsdaten und mindestens ein zweites unreferenziertes Lageerfassungssystem zur Erzeugung zweiter Positions- und/oder Orientierungsdaten umfasst, wobei die

Vermessungsanordnung (1) weiter mindestens eine

Speichereinrichtung (16) umfasst, wobei Messdaten und durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierte Positions- und/oder Orientierungsinformationen referenziert zueinander in der Speichereinrichtung (16) speicherbar sind.

22. Vermessungsanordnung nach Anspruch 21 , dadurch

gekennzeichnet, dass die Vermessungsanordnung (1) eine

Recheneinrichtung umfasst, wobei mittels der Recheneinrichtung die ersten und die zweiten Positions- und/oder Orientierungsdaten zu resultierenden Positions- und/oder Orientierungsdaten fusionierbar sind.

23. Vermessungsanordnung nach einem der Ansprüche 21 oder 22, dadurch gekennzeichnet, dass das erste unreferenzierte

Lageerfassungssystem als optisches Lageerfassungssystem und das mindestens zweite unreferenzierte Lageerfassungssystem als inertiales Lageerfassungssystem ausgebildet ist.

24. Vermessungsanordnung nach Anspruch 23, dadurch

gekennzeichnet, dass das optische Lageerfassungssystem als Stereokamerasystem ausgebildet ist.

25. Vermessungsanordnung nach einem der Ansprüche 21 bis 24,

dadurch gekennzeichnet, dass die Vermessungsanordnung (1 ) eine

Kalibriervorrichtung zur Kalibrierung mindestens einer Kamera (8, 9) des Stereokamerasystems umfasst.

26. Vermessungsanordnung nach einem der Ansprüche 21 bis 25,

dadurch gekennzeichnet, dass das sensorische System (2) gleichzeitig als ein unreferenziertes Lageerfassungssystem ausgebildet ist.

27. Vermessungsanordnung nach einem der Ansprüche 21 bis 26,

dadurch gekennzeichnet, dass die Vermessungsanordnung (1 ) zusätzlich mindestens ein weiteres Lageerfassungssystem umfasst, wobei das weitere Lageerfassungssystem einen GNSS-Sensor, einen Laserscanner, ein Magnetometer oder einen Neigungssensor umfasst.

28. Verfahren zur Vermessung, insbesondere von geschlossenen

Räumen und/oder von Außenbereichen mit gestörtem oder fehlendem GNSS-Empfang, wobei

— ein sensorisches System (2) Messdaten erzeugt, — wobei ein erstes unreferenziertes Lageerfassungssystem erste Positions- und/oder Orientierungsdaten erzeugt,

— wobei zweites unreferenziertes Lageerfassungssystem

zweite Positions- und/oder Orientierungsdaten erzeugt,

— wobei Messdaten und durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierte Positionsund/oder Orientierungsinformationen referenziert zueinander gespeichert werden.

29. Verfahren nach Anspruch 28, dadurch gekennzeichnet, dass die ersten und die zweiten Positions- und/oder Orientierungsdaten zu resultierenden Positions- und/oder Orientierungsdaten fusioniert werden.

Verfahren nach einem der Ansprüche 28 oder 29, dadurch gekennzeichnet, dass ein Ursprung eines systemeigenen

Koordinatensystems des ersten unreferenzierten

Lageerfassungssystem und ein Ursprung eines systemeigenen Koordinatensystems des zweiten unreferenzierten

Lageerfassungssystem oder ein Ursprung eines gemeinsamen Koordinatensystem zu Beginn eines Betriebs einer

Vermessungsanordnung (1 ) oder zu Beginn einer Messung oder zu einem Zeitpunkt einer Erzeugung eines Initialisierungssignals initialisierbar ist.

Description:
Inspektionskameraeinheit, Verfahren zur

Inspektion von Innenräumen sowie Sensoreinheit

Die Erfindung betrifft eine Vermessungsanordnung sowie ein Verfahren zur Vermessung, insbesondere von geschlossenen Räumen.

Die Inspektion von Industrieanlagen, Gebäuden, aber auch Schiffen, dient beispielsweise einer frühzeitigen Erkennung von Schäden und/oder der

Gewährleistung einer Betriebssicherheit. Sensorsysteme, die die dafür benötigten Daten erfassen, können beispielsweise Kamerasysteme mit einem beliebigen Spektral bereich, Feuchtesensoren oder Gassensoren sein. Die von diesen Sensorsystemen erzeugten Daten können aber in der Regel nur dann sinnvoll und nutzbringend verwendet werden, wenn sie räumlich referenziert werden. D.h., dass zu jedem Messsignal auch eine Lage, also Position und/oder Orientierung, des Sensorsystems bekannt sein sollten.

Eine Lageerfassung mittels eines GNSS (globalen Navigationssatellitensystems) gewährleistet eine derartige räumliche Referenzierung von Messdaten in Außenbereichen mit einer Positionsgenauigkeit von einigen Zentimetern, z.B. bei Verwendung eines differentiellen GPS (Global Positioning System), bis zu einigen Metern. Die Bestimmung einer Orientierung ist mit GNSS nicht möglich. In geschlossenen Räumen, beispielsweise in Innenräumen von Gebäuden oder Fahrzeugen, insbesondere Schiffen, können eine Funktionsfähigkeit und die Genauigkeit des GNSS jedoch beeinträchtigt sein. Im Außenbereich kann die Qualität der Positionsmessung mittels GNSS bei ungünstigen Bedingungen beeinträchtigt sein, beispielsweise durch Abschattungen und

Mehrfachreflexionen.

Für eine räumliche Referenzierung von Messdaten können beispielsweise terrestrische Mikrowellen-Sender- und Empfangseinheiten verwendet werden. So können beispielsweise RFID (Radio Frequency ldentification)-Systeme,

Pseudolite-Systeme oder WLAN-basierte Systeme zur räumlichen

Referenzierung genutzt werden, erfordern aber eine entsprechende technische Ausrüstung der Messumgebung im Vorfeld der Messungen. Auch ist es möglich, Inertial-Messsysteme zu verwenden. Diese Systeme messen

Winkelgeschwindigkeiten und Beschleunigungen, die durch Einfach- bzw.

Zweifachintegration zu Orientierungs- und Positionswerten verarbeitet werden können. Durch dieses Prinzip werden schnell große Fehler akkumuliert, was nur durch die Verwendung von großen und teuren Inertialmesssystemen umgangen werden kann. Zusätzlich können auch kompassbasierte Systeme zum Einsatz kommen. All diese Systeme können in Innenräumen Anwendung finden. Karten, die im Vorfeld erstellt wurden (z.B. Gebäudegrundrisse, Elektrische-Feldstärke- Karten) finden oftmals Verwendung, um die Messwerte zu stützen.

Allen bekannten Verfahren zur räumlichen Referenzierung von Messdaten ohne GNSS ist gemein, dass sie a-priori-lnformationen benötigen, z.B. durch Karten oder eine Ausrüstung des zu vermessenden Objekts mit entsprechenden technischen Hilfsmitteln, und teuer sind.

Ferner existieren Ansätze zur photogrammetrischen Verortung von Messdaten. Hierbei wird eine Vielzahl von räumlich überlappenden Bildern in einem zu untersuchenden Innenraumbereich aufgenommen. Hierbei ist problematisch, dass eine Verortung auf Grundlagen von photogrammetrischen Ansätzen nur bedingt echtzeitfähig ist, da in der Regel der gesamte Bildblock (vom ersten bis zum letzten Bild) vorliegen muss, um nachträglich die Trajektorie des

Messsystems zu bestimmen und damit die räumliche Referenzierung der Messwerte sicherzustellen.

Die nachveröffentliche DE 10 2011 084 690.5 beschreibt eine Kamera, umfassend mindestens eine Optik, mindestens einen optischen Detektor, der in einer Fokalebene der Optik angeordnet ist, und eine Auswerteeinheit, wobei die Kamera mindestens eine Lichtquelle und mindestens ein diffraktives optisches Element umfasst, wobei mittels der Lichtquelle das diffraktive optische Element beleuchtbar ist, so dass dieses verschiedene ebene Wellen erzeugt, die durch die Optik jeweils punktförmig auf dem optischen Detektor abgebildet und durch die Auswerteeinheit mindestens zur geometrischen Kalibrierung ausgewertet werden, sowie ein Verfahren zur geometrischen Kalibrierung einer Kamera.

Es stellt sich das technische Problem, eine Vermessungsanordnung und ein Verfahren zur Vermessung zu schaffen, welche eine räumliche Referenzierung von Messdaten vereinfachen und eine zeitlich schnelle räumliche Referenzierung ermöglichen, wobei a-priori-Wissen, z.B. in Form von Karten oder zusätzliche Infrastruktur, nicht notwendig ist. Die Lösung des technischen Problems ergibt sich durch die Gegenstände mit den Merkmalen der Ansprüche 1 und 8. Weitere vorteilhafte Ausgestaltungen ergeben sich aus den Unteransprüchen.

Es ist eine Grundidee der Erfindung, dass eine Vermessungsanordnung sowohl ein sensorisches System zur Erzeugung von Messdaten als auch mindestens zwei Lageerfassungssysteme zur Erzeugung von Positions- und/oder

Orientierungsdaten umfasst, wobei die Lageerfassungssysteme in Bezug auf die Umgebung unreferenzierte Lageerfassungssysteme sind. Die

Vermessungsanordnung erfasst die eigene Position und Orientierung in einem relativen Koordinatensystem, dessen Ursprung z.B. durch einen Nutzer eingestellt werden kann. Die Messdaten werden referenziert zu lokalen Positionsund/oder Orientierungsdaten der Lageerfassungssysteme, die in diesem relativen Koordinatensystem erfasst werden, gespeichert. Nachfolgend gelten folgende Definitionen. Eine Lage beschreibt eine Position und/oder eine Orientierung eines Objekts zumindest teilweise. Eine Position kann beispielsweise durch drei Translationsparameter beschrieben werden. Z.B.

können Translationsparameter einen x-Parameter, einen y-Parameter und einen z-Parameter in einem kartesischen Koordinatensystem umfassen. Eine

Orientierung kann beispielsweise durch drei Rotationsparameter beschrieben werden. Z.B. können Rotationsparameter einen Drehwinkel ω um eine x-Achse, einen Drehwinkel φ um eine y-Achse und einen Drehwinkel κ um eine z-Achse des kartesischen Koordinatensystems umfassen. Somit kann eine Lage bis zu 6 Parameter umfassen.

Vorgeschlagen wird eine Vermessungsanordnung, wobei die

Vermessungsanordnung auch als Vermessungssystem bezeichnet werden kann. Die Vermessungsanordnung dient insbesondere zur Vermessung von geschlossenen Räumen, insbesondere zur Vermessung von Schiffsräumen, Bergwerken, Gebäuden und Tunneln. Alternativ oder kumulativ dient die

Vermessungsanordnung zur Vermessung von Außenbereichen mit gestörtem oder fehlendem GNSS-Empfang. Im Kontext dieser Erfindung bedeutet

Vermessung, dass Messsignale, deren Erfassung automatisch oder von einem Benutzer manuell ausgelöst wird, erzeugt und räumlich referenziert werden. Zusätzlich können Messdaten auch zeitlich referenziert werden. Die Vermessungsanordnung umfasst mindestens ein sensorisches System zur Erzeugung von Messdaten. Das sensorische System kann beispielsweise ein Kamerasystem zur Erzeugung von Kamerabildern, ein Feuchtesensor oder ein Gassensor sein. Selbstverständlich können auch weitere sensorische Systeme zur Anwendung kommen.

Weiter umfasst die Vermessungsanordnung ein erstes unreferenziertes

Lageerfassungssystem zur Erzeugung erster Positions- und/oder

Orientierungsdaten und mindestens ein zweites unreferenziertes

Lageerfassungssystem zur Erzeugung zweiter Positions- und/oder

Orientierungsdaten.

Vorzugsweise arbeiten das erste und das mindestens zweite

Lageerfassungssystem auf Grundlage von voneinander unabhängigen physikalischen Messprinzipien. Dies ermöglicht in vorteilhafter Weise eine verbesserte Redundanz und eine Erhöhung der Genauigkeit bei der Erfassung von Positions- und/oder Orientierungsinformationen. Der Begriff "unreferenziert" bedeutet hierbei, dass die erzeugten Positionsund/oder Orientierungsdaten ausschließlich relativ zu einem systemeigenen Koordinatensystem der Lageerfassungssysteme oder relativ zu einem gemeinsamen Koordinatensystem der Lageerfassungssysteme bestimmt werden, wobei das gemeinsame Koordinatensystem orts- und drehfest bezüglich der Vermessungsanordnung ist. So können z.B. die ersten Positions- und/oder Orientierungsdaten relativ zu einem systemeigenen Koordinatensystem des ersten Lageerfassungssystems bestimmt werden. Entsprechend können auch die zweiten Positions- und/oder Orientierungsdaten in einem systemeigenen Koordinatensystem des zweiten Lageerfassungssystems bestimmt werden.

Weiter kann der Begriff„unreferenziert" bedeuten, dass mittels des

unreferenzierten Lageerfassungssystems keine eindeutige Erfassung der Position und/oder Orientierung, z.B. in einem globalen Koordinatensystem, möglich ist. Dies bedeutet, dass zumindest ein Parameter, der zur eindeutigen und vollständigen Beschreibung der Lage, also der Position und/oder

Orientierung, notwendig ist, mittels des unreferenzierten Lageerfassungssystems nicht erfassbar oder bestimmbar ist. Z.B. kann eine eindeutige räumliche Referenzierung in einem übergeordneten, z.B. globalen, Koordinatensystem die Erfassung oder Bestimmung von drei Positions- und drei Orientierungsparametern in diesem übergeordneten

Koordinatensystem erfordern. Ist das nicht vollständig zu gewährleisten, kann die Lage nur in einem systemeigenen Koordinatensystem bestimmt werden, auch wenn einzelne Parameter der Lage in dem übergeordneten Koordinatensystem erfassbar sind. Beispielsweise können Neigungssensoren zwei

Orientierungswinkel und Magnetsensoren einen Orientierungswinkel räumlich referenziert zu einem weltfesten Koordinatensystem erfassen. Unreferenziert bedeutet auch, dass kein räumlicher Bezug zu einer vorbekannten räumlichen Karte bekannt ist. Eine Position kann hierbei beispielsweise bezogen auf ein kartesisches

Koordinatensystem mit drei linear unabhängigen Achsen bestimmt werden. Hierdurch ermöglicht das Lageerfassungssystem die Erfassung einer Bewegung mit drei translatorischen Freiheitsgraden. Alternativ oder kumulativ können Orientierungsdaten als Verdrehwinkel um die drei Achsen des kartesischen Koordinatensystems bestimmt werden, beispielsweise entsprechend der so genannten Yaw-Pitch-Roll-Konvention (Gier-Nick-Roll-Winkelkonvention). Somit ist die Bestimmung einer Winkelbewegung mit drei voneinander unabhängigen rotatorischen Freiheitsgraden möglich.

Wie nachfolgend näher erläutert, kann ein Ursprung des Koordinatensystems z.B. beim Einschalten des Lageerfassungssystems, also mit Beginn einer Energieversorgung, oder bei Beginn eines Messvorgangs oder bei Erzeugung eines Initialisierungssignals gesetzt werden. Dies bedeutet, dass zu einem der vorhergehend erläuterten Zeitpunkte aktuelle Positions- und/oder

Orientierungskoordinaten zurückgesetzt oder genullt werden, wobei nachfolgend alle erfassten Positions- und/oder Orientierungsdaten relativ zu dem gesetzten Ursprung des Koordinatensystems bestimmt werden. Weiter umfasst die Vermessungsanordnung mindestens eine

Speichereinrichtung.

Die Messdaten und die, insbesondere zeitlich korrespondierenden, durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierten Positions- und/oder Orientierungsinformationen sind referenziert zueinander, also mit einer vorbekannten Zuordnung zueinander, in der Speichereinrichtung speicherbar.

Dies bedeutet, dass sowohl die Messdaten als auch die korrespondierenden Positions- und/oder Orientierungsinformationen gespeichert werden. Die Positions- und/oder Orientierungsinformationen können in Form von

unverarbeiteten Ausgangssignalen (Rohsignalen) der unreferenzierten

Lageerfassungssysteme gegeben sein. Auch können die Positions- und/oder Orientierungsinformationen durch bereits verarbeitete Ausgangssignale der unreferenzierten Lageerfassungssysteme gegeben sein, wobei die verarbeiteten Ausgangssignale wiederum eine Position und/oder Orientierung ausschließlich referenziert zu dem/den systemeigenen Koordinatensystem(en) oder zu einem gemeinsamen vermessungsanordnungsfesten Koordinatensystem codieren oder repräsentieren.

Beispielsweise können die Messdaten und die zeitlich korrespondierenden ersten und/oder zweiten unverarbeiteten Positions- und/oder Orientierungsdaten referenziert zueinander gespeichert werden.

Somit ist also eine Zuordnung von Messdaten zu einer Position und/oder Orientierung möglich und auch zu einem späteren Zeitpunkt abrufbar. Allerdings ist eine Zuordnung ausschließlich zu Lagen in den unreferenzierten

systemeigenen Koordinatensystemen der Lageerfassungssysteme oder zu Lagen in einem gemeinsamen, vermessungs-anordnungsfesten

Koordinatensystem möglich.

Die beschriebene Vermessungsanordnung kann hierbei portabel, insbesondere durch einen menschlichen Benutzer tragbar, ausgebildet sein. Allerdings ist es auch möglich, die beschriebene Vermessungsanordnung auf einer

Positioniereinrichtung, beispielsweise auf einem Fahrzeug, insbesondere auf einem Roboter, montierbar auszubilden.

Die vorgeschlagene Vermessungsanordnung ermöglicht in vorteilhafter Weise eine räumliche Referenzierung von Messdaten auch in geschlossenen Räumen, insbesondere in Innenräumen von z.B. Industrieanlagen, Gebäuden oder Schiffen. Da die räumliche Referenzierung unabhängig von einem globalen Koordinatensystem, z.B. einem Koordinatensystem eines GNSS, erfolgt und ebenfalls unabhängig von weiteren Zusatzanordnungen, wie z.B. in den Räumen installierten Sendern, ist, ergibt sich in vorteilhafter Weise eine möglichst einfache und kostengünstige Vermessungsanordnung. Die Verwendung von mindestens zwei Lageerfassungssystemen erhöht in vorteilhafter Weise eine Verfügbarkeit von Positions- und/oder

Orientierungsinformationen sowie eine erhöhte Genauigkeit der Positionsund/oder Orientierungsinformationen. Ist z.B. eine Lageerfassung mittels einem der mindestens zwei Lageerfassungssysteme nicht möglich, z.B. aufgrund von äußeren Bedingungen oder bei Ausfall des Lageerfassungssystems, so stehen weiterhin Positions- und/oder Orientierungsdaten oder - Informationen des verbleibenden Lageerfassungssystems zur Verfügung. Die von der Vermessungsanordnung gespeicherten Daten ermöglichen zu einem späteren Zeitpunkt eine Navigation in bereits vermessenen Räumen. Auch können die Daten zur Erstellung oder zum Abgleich von Anlage- bzw. Gebäudebzw. Schiffsmodellen dienen. In einer weiteren Ausführungsform umfasst die Vermessungsanordnung eine Recheneinrichtung, wobei mittels der Recheneinrichtung die ersten und die zweiten Positions- und/oder Orientierungsdaten zu resultierenden Positionsund/oder Orientierungsdaten fusionierbar sind. Die resultierenden Positionsund/oder Orientierungsdaten können dann z.B. die vorhergehend erläuterten Positions- und/oder Orientierungsinformationen darstellen.

Hierbei können z.B. Positions- und/oder Orientierungsdaten eines

Lageerfassungssystems in das systemeigene Koordinatensystem des weiteren Lageerfassungssystems umgerechnet werden. Hierzu ist es erforderlich, dass eine Abbildungsvorschrift für eine solche Umrechnung vorbekannt ist. Dies bedeutet in anderen Worten, dass die systemeigenen Koordinatensysteme der Lageerfassungssysteme zueinander registriert sind.

Auch ist es möglich, dass sowohl die ersten als auch die zweiten Positions- und/oder Orientierungsdaten in ein gemeinsames Koordinatensystem der Vermessungsanordnung umgerechnet werden. Das Koordinatensystem der Vermessungsanordnung bezeichnet hierbei ein bezüglich der

Vermessungsanordnung orts- und drehfestes Koordinatensystem. Dies wiederum bedeutet, dass, wenn sich die Vermessungsanordnung translatorisch und/oder rotatorisch bewegt, sich auch das gemeinsame Koordinatensystem der

Vermessungsanordnung im gleichen Maße translatorisch und/oder rotatorisch bewegt. Wie vorhergehend erläutert, ist es hierfür erforderlich, dass die systemeigenen Koordinatensysteme mit dem gemeinsamen Koordinatensystem registriert sind.

Dies ermöglicht in vorteilhafter Weise eine Einsparung von Speicherplatz, da Messdaten nunmehr nur referenziert zu den resultierenden Positions- und/oder Orientierungsdaten gespeichert werden müssen.

In einer weiteren Ausführungsform ist das erste unreferenzierte

Lageerfassungssystem als optisches Lageerfassungssystem und das mindestens zweite unreferenzierte Lageerfassungssystem als inertiales

Lageerfassungssystem ausgebildet.

Bei dem optischen Lageerfassungssystem wird eine Positionsänderung und/oder Orientierungsänderung optisch, z.B. bildbasiert, erfasst. Bei einem inertialen Lageerfassungssystem wird ein oder werden mehrere Inertialsensoren zur Erfassung von Beschleunigung und/oder Drehraten verwendet. Werden z.B. Beschleunigungen erfasst, so kann eine aktuelle Position auf Grundlage eines bereits zurückgelegten Weges bestimmt werden, wobei sich der zurückgelegte Weg durch z.B. Zweifachintegration der erfassten Beschleunigungen ergibt. Wird eine Drehrate erfasst, so kann ein aktueller Winkel z.B. durch Einfachintegration der Drehrate bestimmt werden.

Die Verwendung eines optischen und eines inertialen Lageerfassungssystems realisiert hierbei in vorteilhafter Weise eine Lageerfassung auf Grundlage von zwei voneinander unabhängigen physikalischen Messprinzipien. Weiter vorteilhaft ergibt sich, dass inertiale Lageerfassungssysteme erfahrungsgemäß robust arbeiten und somit eine hohe Verfügbarkeit der Positions- und/oder

Orientierungsdaten bereitstellen. Optische Lageerfassungssysteme ermöglichen in der Regel eine hochgenaue Bestimmung einer Lage und/oder Orientierung. Durch die Verwendung der vorgeschlagenen Lageerfassungssysteme ergibt sich also in vorteilhafter Weise sowohl eine hohe Verfügbarkeit als auch eine hohe Genauigkeit bei der Bestimmung von Positions- und/oder

Orientierungsinformationen. In einer weiteren Ausführungsform ist das optische Lageerfassungssystem als Stereokamerasystem ausgebildet. Ein Stereokamerasystem ermöglicht hierbei in vorteilhafter Weise eine einfache, bildbasierte Bestimmung einer räumlichen Position und/oder räumlichen Orientierung von Gegenständen oder Personen im Erfassungsbereich des Stereokamerasystems. Hierzu kann es erforderlich sein, das Verfahren zur bildbasierten Merkmals- oder Objekterkennung durchgeführt werden, durch die korrespondierende, durch jeweils eine Kamera des

Stereokamerasystems abgebildete Personen oder Objekte detektiert werden. Selbstverständlich können auch weitere Methoden der Bildverarbeitung zur Anwendung kommen, durch die eine Bestimmung der räumlichen Position und/oder Orientierung verbessert wird, z.B. Verfahren zur Rauschunterdrückung, Verfahren zur Segmentierung und weitere Verfahren zur Bildverarbeitung.

Zusätzlich können zeitlich nacheinander aufgenommenen Stereobilder oder Einzelbilder verwendet werden, um eine dreidimensionale Rekonstruktion durchzuführen, beispielsweise in einem so genannten structure-from-motion- Verfahren .

Insbesondere können beim Stereokamerasystem mindestens eine

panchromatische Kamera oder eine Farbkamera, insbesondere eine RGB- basierte Farbkamera, oder eine Infrarotkamera verwendet werden. Alternativ oder kumulativ ist es möglich, dass die im Stereokamerasystem verwendeten Kameras unterschiedliche geometrische, radiometrische und/oder spektrale Eigenschaften aufweisen. Z.B. kann eine räumliche Auflösung und/oder eine spektrale Auflösung der verwendeten Kameras voneinander verschieden sein. Hierdurch ergibt sich in vorteilhafter Weise, dass eine der Kameras, wie nachfolgend näher erläutert, als Messsystem Verwendung finden kann, beispielsweise bei einer Verwendung einer räumlich hochauflösenden RGB- Kamera und einer räumlich niedrig auflösenden panchromatischen Kamera. In einer weiteren Ausführungsform umfasst die Vermessungsanordnung eine Kalibriervorrichtung zur Kalibrierung des Stereokamerasystems.

Eine geometrische Kalibrierung von Kameras ist hierbei eine

Grundvoraussetzung für deren Einsatz als Lageerfassungssystem. Die

Kalibrierung kann auch als Bestimmung von Parametern einer inneren

Orientierung der Kamera bezeichnet werden. Ziel ist es, für jeden Bildpunkt eines von einer Kamera des Stereokamerasystems erzeugten Bildes eine Blickrichtung (line of sight) im Kamerakoordinatensystem zu bestimmen.

Die Kalibriervorrichtung kann hierbei z.B. derart ausgebildet sein, dass eine Kamera des Stereokamerasystems oder alle Kameras des

Stereokamerasystems eine Optik und mindestens einen optischen Detektor, der in einer Fokalebene der Optik angeordnet ist, und eine Auswerteeinrichtung umfassen. Weiter kann die Kamera mindestens eine Lichtquelle und mindestens ein diffraktives optisches Element umfassen, wobei mittels der Lichtquelle das diffraktive optische Element beleuchtbar ist, sodass dieses verschiedene ebene Wellen erzeugt, die durch die Optik jeweils punktförmig auf dem optischen Detektor abgebildet und durch die Auswerteeinheit mindestens zur

geometrischen Kalibrierung ausgewertet werden.

Ein solches System ist in der nachveröffentlichten DE 10 201 1 084 690.5 beschrieben. Das diffraktive optische Element kann hierbei durch die Optik mittels der

Lichtquelle beleuchtbar sein. Weiter kann die Lichtquelle derart ausgebildet und ausgerichtet sein, dass diese kugelförmige Wellenfronten abstrahlt, die durch die Optik in ebene Wellen überführt auf das diffraktive optische Element treffen. Der optische Detektor kann als Matrix-Sensor ausgebildet sein. Das mindestens eine diffraktive optische Element kann in die Optik integriert sein. Alternativ kann das diffraktive optische Element auf der Optik angeordnet sein. Weiter alternativ kann das diffraktive optische Element an einer Blende der Optik angeordnet sein. Auch ist es möglich, dass die Kamera mehrere Lichtquellen umfasst, die unterschiedliche Abstrahlrichtungen aufweisen. Weiter kann die Lichtquelle in der Fokalebene angeordnet sein. Auch ist es möglich, dass die Lichtquelle eine optische Phase umfasst, deren Apertur den Lichtaustritt der Lichtquelle bildet.

Diffraktive optische Elemente sind in den verschiedensten Ausführungsformen bekannt, wobei passive und aktive diffraktive optische Elemente bekannt sind, wobei letztere auch als SLMs (Spatial Light Modulator) bezeichnet werden. SLMs können beispielsweise als verstellbares Mikro-Spiegel-Array (reflektives SLM) oder als transmitives oder reflektives Flüssigkeitskristall-Display (Liquid Crystal, LC-Display) ausgebildet sein. Diese können aktiv angesteuert werden, sodass deren Beugungsstrukturen zeitlich veränderbar sind. Passive diffraktive optische Elemente hingegen weisen ein festes Beugungsmuster auf, wobei diese reflektiv oder transmitiv ausgebildet sein können.

Bezüglich weiterer Ausführungsformen der Kamera mit einer Kalibriervorrichtung wird hierbei auf das in der DE 10 2011 084 690.5 offenbarte Ausführungsbeispiel Bezug genommen. Hierdurch ergibt sich in vorteilhafter Weise, dass eine Kalibrierung einer oder aller Kameras des Stereokamerasystems auch während des Betriebs und somit eine dauerhaft hochgenaue Bestimmung der Position und/oder Orientierung möglich ist. In einer weiteren Ausführungsform ist das Messsystem gleichzeitig als unreferenziertes Lageerfassungssystem ausgebildet. Beispielsweise kann das Messsystem als Kamera oder Kamerasystem ausgebildet sein, welches gleichzeitig Bestandteil des Stereokamerasystems ist. Hierbei erzeugt das Messsystem Bilddaten als Messdaten, wobei die erzeugten Bilddaten gleichzeitig zur Bereitstellung von Lageinformationen dienen. Selbstverständlich ist es vorstellbar, auch andere Messsysteme, deren

Ausgangssignale zur Bereitstellung einer Positions- und/oder

Orientierungsinformation dienen können, zu verwenden. In einer weiteren Ausführungsform umfasst die Vermessungsanordnung zusätzlich mindestens ein weiteres Lageerfassungssystem, also z.B. ein drittes Lageerfassungssystem.

Das weitere Lageerfassungssystem kann beispielsweise einen GNSS-Sensor umfassen oder als solcher ausgebildet sein. Ein GNSS-Sensor ermöglicht eine Lageerfassung durch den Empfang von Signalen von Navigationssatelliten und Pseudoliten.

Alternativ kann das weitere Lageerfassungssystem als Laserscanner ausgebildet sein oder einen solchen Laserscanner umfassen. Der Laserscanner kann hierbei ein eindimensionaler, zweidimensionaler oder dreidimensionaler Laserscanner sein, der entsprechend eine eindimensionale, zweidimensionale oder dreidimensionale Abbildung einer Umgebung der Vermessungsanordnung ermöglicht. Durch entsprechende Verfahren der Datenverarbeitung kann, entsprechend der Bildverarbeitung, eine Objekterkennung in den von dem Laserscanner erzeugten Ausgangssignalen durchgeführt werden. In

Abhängigkeit von erkannten Objekten kann dann eine Bewegung, d.h. eine Positions- und/oder Orientierungsänderung der Vermessungsanordnung zwischen zwei Zeitpunkten, bestimmt werden. Dafür existieren Algorithmen, z.B. der so genannte ICP (iterative dosest point) - Algorithmus.

Alternativ kann das weitere Lageerfassungssystem als Magnetometer ausgebildet sein. Ein Magnetometer bezeichnet hierbei eine Einrichtung zur Erfassung einer magnetischen Flussdichte. Mittels eines Magnetometers kann beispielsweise ein Erdmagnetfeld oder eine Überlagerung aus dem

Erdmagnetfeld und einem weiteren Magnetfeld, welches z.B. von einem elektrischen Generator erzeugt wird, in den geschlossenen Räumlichkeiten erfasst werden. Weiter kann das Magnetometer auch als Lageerfassungssystem verwendet werden.

Weiter alternativ kann ein Neigungssensor als weiteres Lageerfassungssystem verwendet werden. Ein Neigungssensor kann hierbei beispielsweise Änderungen eines Neigungswinkels erfassen. Diese Änderungen des Neigungswinkels können wiederum als Grundlage zur Bestimmung einer Orientierung der Vermessungsanordnung genutzt werden. Beispielsweise kann der

Neigungssensor auch eine aktuelle Winkeldifferenz zu einer Richtung der Erdbeschleunigung erfassen. Somit kann der Neigungssensor entsprechend einer Wasserwaage arbeiten.

Die Ausgangssignale der vorhergehend erläuterten Lageerfassungssysteme können hierbei separat gespeichert oder mit den ersten und zweiten Lage- und/oder Orientierungsdaten, wie vorhergehend erläutert, fusioniert werden.

Weiter vorgeschlagen wird ein Verfahren zur Vermessung, insbesondere von geschlossenen Räumen und/oder Außenbereichen mit gestörtem oder fehlerhaftem GNSS-Empfang, wobei ein sensorisches System Messdaten erzeugt. Weiter erzeugt ein erstes unreferenziertes Lageerfassungssystem erste Positions- und/oder Orientierungsdaten und mindestens ein zweites

unreferenziertes Lageerfassungssystem zweite Positions- und/oder

Orientierungsdaten. Weiter werden die Messdaten und die, insbesondere zeitlich korrespondierenden, durch die ersten und/oder zweiten Positions- und/oder Orientierungsdaten codierten Positions- und/oder Orientierungsinformationen referenziert zueinander gespeichert.

Das vorgeschlagene Verfahren kann in vorteilhafter Weise zur Inspektion von geschlossen Räumen natürlichen und unnatürlichen Ursprungs, z.B. von Höhlen und Schächten, unter Verwendung von referenzfreien Lageerfassungssystemen verwendet werden. Für das vorgeschlagene Verfahren kann die Registrierung der eingesetzten Lageerfassungssysteme zueinander notwendig sein. Hierbei müssen zeitliche, rotatorische und/oder translatorische Zusammenhänge zwischen den

Lageerfassungssystemen und gegebenenfalls dem Messsystem bestimmt werden, um die Lagedaten fusionieren und in einem Referenzkoordinatensystem bestimmen zu können. Für diese Referenzierung der Lagesensoren sind Verfahren bekannt.

Somit ermöglicht das vorgeschlagene Verfahren die Inspektion von Gebäuden im Rahmen eines Facility-Managements, z.B. im Rahmen von

Lärmschutzmaßnahmen. Weiter wird die Inspektion von Gebäuden im Rahmen von sicherheitsrelevanten Aufgaben ermöglicht, z.B. für Einsätze der Polizei und Feuerwehr. Weiter ist eine Inspektion von Industrieanlagen, z.B. von Schiffen oder Tanks, möglich.

In einer weiteren Ausführungsform werden die ersten und die zweiten Positionsund/oder Orientierungsdaten zu resultierenden Positions- und/oder

Orientierungsdaten fusioniert, wobei ausschließlich die durch die fusionierten oder resultierenden Positions- und/oder Orientierungsdaten codierten Positions- und/oder Orientierungsinformationen abgespeichert werden. Die fusionierten Positions- und/oder Orientierungsdaten können die Positions- und/oder

Orientierungsinformationen darstellen oder es können die Positions- und/oder Orientierungsinformationen in Abhängigkeit der fusionierten Positions- und/oder Orientierungsdaten bestimmt werden.

Hierdurch ergibt sich in vorteilhafter Weise eine, wie vorhergehend erläutert, verbesserte Genauigkeit der Positions- und/oder Orientierungsinformationen sowie ein verringerter Speicherplatzbedarf. In einer weiteren Ausführungsform ist ein Ursprung eines systemeigenen

Koordinatensystems des ersten unreferenzierten Lageerfassungssystems und ein Ursprung eines systemeigenen Koordinatensystems des zweiten

unreferenzierten Lageerfassungssystems oder ein Ursprung eines gemeinsamen Koordinatensystems zu Beginn eines Betriebs einer Vermessungsanordnung oder zu Beginn einer Messung oder zu einem Zeitpunkt einer Erzeugung eines Initialisierungssignals initialisierbar. Hierbei bedeutet initialisierbar, dass aktuelle Positions- und/oder Orientierungsinformationen bzw. Positions- und/oder Orientierungsdaten ab dem Zeitpunkt der Initialisierung als Referenz- oder

Ursprungskoordinaten verwendet werden. Somit werden die aktuellen Positionsund/oder Orientierungsinformationen bzw. die Positions- und/oder

Orientierungsdaten zurückgesetzt. Ab diesem Zeitpunkt und bis zu einer erneuten Initialisierung werden nunmehr Positions- und/oder

Orientierungsinformationen relativ zu diesem Ursprung bestimmt.

Ein Initialisierungssignal kann beispielsweise durch Betätigung einer entsprechenden Betätigungsvorrichtung, beispielsweise eines Tasters oder Schalters, erzeugt werden. Somit kann ein Benutzer, wenn sich die

Vermessungsanordnung in einer von ihm gewünschten Lage und/oder

Orientierung befindet, die systemeigenen Koordinatensysteme initialisieren. In diesem Fall können alle bisher erzeugten Positions- und/oder

Orientierungsinformationen bzw. Positions- und/oder Orientierungsdaten auf den neu initialisierten Ursprung umgerechnet werden. Somit ist es in vorteilhafter Weise möglich, dass bereits generierte Informationen zur räumlichen

Referenzierung nicht verloren gehen. So kann ein Nutzer beispielsweise eine vollständige Vermessung durchführen und nach der Messung die systemeigenen Koordinatensysteme in einer von ihm gewünschten Position und/oder

Orientierung der Vermessungsanordnung initialisieren.

Beispielsweise kann auf diese Weise ein Bezug zu einem globalen

Koordinatensystem hergestellt werden. So kann die Vermessungsanordnung in eine Position und/oder Orientierung gebracht werden, die in Bezug auf ein gewünschtes globales Koordinatensystem, beispielsweise ein

Koordinatensystem eines GNSS, bekannt ist. Werden die systemeigenen

Koordinatensysteme der Lageerfassungssysteme in dieser Position und/oder Orientierung initialisiert, so kann eine Registrierung zwischen den bereits erzeugten oder noch zu erzeugenden Positions- und/oder Orientierungsinformationen und dem globalen Koordinatensystem bestimmt werden. Beispielsweise ist es möglich, dass ein Benutzer in erfindungsgemäß vorgeschlagener Weise geschlossene Räumlichkeiten vermisst und nach Abschluss der Vermessung sich aus den geschlossenen Räumen hinaus in einen Freiraum bewegt, in welchem eine Position und/oder Orientierung beispielsweise mittels eines GNSS-Sensors mit ausreichender Genauigkeit bestimmbar sind. Weiter kann, z.B. mittels eines GNSS-Sensors, dann eine aktuelle Position und/oder Orientierung der Vermessungsanordnung in einem Koordinatensystem des GNSS bestimmt werden. Weiter können, wie vorhergehend erläutert, die systemeigenen Koordinatensysteme der Lageerfassungssysteme initialisiert werden und eine Umrechnung der gespeicherten Positions- und/oder

Orientierungsinformationen auf das Koordinatensystem des GNSS erfolgen.

Auch ist es möglich, z.B. bildbasiert, eine Struktur oder ein Objekt zu detektieren, dessen Position und/oder Orientierung in einem globalen Koordinatensystem bekannt ist. Weiter kann eine Position und/oder Orientierung der detektierten Struktur oder des detektierten Objekts in den systemeigenen

Koordinatensystemen der Lageerfassungssysteme bestimmt werden. Schließlich kann dann eine Umrechnung der bereits bestimmten Positions- und/oder Orientierungsinformationen oder noch zu bestimmenden Positions- und/oder Orientierungsinformationen auf das globale Koordinatensystem erfolgen.

In diesem Fall können also die unreferenzierten systemeigenen

Koordinatensysteme der Lageerfassungssysteme auf die Position und/oder Orientierung des Objekts oder der Struktur initialisiert werden.

Wird eine Stereokamera als Lageerfassungssystem verwendet, so kann auch eine räumliche Referenzierung eines 2D-/3D-Umgebungsmodells erfolgen, welches in Abhängigkeit der Bilddaten des Stereokamerasystems erzeugt wird.

Aus den bestimmten und gespeicherten Positions- und/oder

Orientierungsinformationen kann auch eine Trajektorie der Vermessungsanordnung bestimmt werden. Somit ist es möglich, zu einem späteren Zeitpunkt eine Trajektorie in einem 2D-/3D-Modell darzustellen.

Die vorliegende Erfindung betrifft weiter eine Inspektionskameraeinheit mit einer Inspektionskamera zur Aufnahme von, vorzugsweise farbigen, Inspektionsfotos von Innenräumen, insbesondere von Schiffen.

Die Erfindung betrifft gleichermaßen ein Verfahren zur Inspektion von

Innenräumen, insbesondere von Schiffen, durch Aufnahme von, vorzugsweise farbigen, Inspektionsfotos mittels einer Inspektionskameraeinheit.

Schließlich betrifft die Erfindung eine Sensoreinheit mit Sensormitteln zur messtechnischen Erfassung mindestens einer Eigenschaft von Innenräumen, insbesondere von Schiffen.

Bei der häufig behördlich vorgeschriebenen Inspektion von Innenräumen, z.B. von industriellen Anlagen, insbesondere von Schiffen, dienen Fotos als visuelle Informationsträger zur Dokumentation. Beispielsweise kann anhand von Inspektionsfotos der Strukturzustand eines Schiffes zu einem bestimmten Zeitpunkt dokumentiert werden. Dies ist im Rahmen der Durchführung eines gattungsbildenden Verfahrens bzw. unter Verwendung einer gattungsbildenden Inspektionskameraeinheit insbesondere im Zusammenhang mit Schiffen allgemein üblich. Dabei werden die Inspektionsfotos jedoch unsystematisch gleichsam wie Bilder in einem Schuhkarton verwaltet, ohne dass ein Bezug des jeweiligen Inspektionsfotos hinsichtlich Ort und Orientierung im Schiffskörper gegeben ist. Allenfalls werden manuelle Aufzeichnungen über die Lage von

Inspektionsfotos durch den Inspektor, der die Inspektionsfotos erstellt hat, nach Abschluss eines Inspektionslaufs aus der Erinnerung heraus unsystematisch vermerkt.

Der Nutzen der Inspektionsfotos ist daher mit Nachteil eingeschränkt. Denn sowohl die Wiederauffindbarkeit im Schiffskörper von durch ein Inspektionsfoto dokumentierten Schaden als auch eine historische Auswertung der zeitlichen Entwicklung von Strukturschäden anhand eines Vergleichs von zu

unterschiedlichen Zeitpunkten aufgenommenen Inspektionsfotos ist mit Nachteil nicht systematisch oder nur mit erhöhtem Aufwand möglich.

Auch ist eine Einordnung von Inspektionsfotos in ein bestehendes Modell beispielsweise des Schiffskörpers aus den geschilderten Gründen nicht oder nur mit erhöhtem Aufwand möglich. Es besteht daher ein Bedarf an einer Inspektionskameraeinheit der eingangs genannten Art sowie an einem Verfahren zur Inspektion von Innenräumen der eingangs genannten Art, welche jeweils den Nutzen der Inspektionsfotos erhöhen und beispielsweise auch eine verbesserte Historienbetrachtung ermöglichen. Ebenso besteht ein Bedarf an einer Sensoreinheit der eingangs genannten Art,

Es ist daher Aufgabe der vorliegenden Erfindung, eine Inspektionskameraeinheit der eingangs genannten Art, ein Verfahren zur Inspektion der eingangs genannten Art beziehungsweise eine Sensoreinheit anzugeben, welche in dem genannten Sinne verbessert sind.

Erfindungsgemäß wird diese Aufgabe anhand einer Inspektionskameraeinheit mit einer Inspektionskamera zur Aufnahme von, vorzugsweise farbigen,

Inspektionsfotos von Innenräumen, insbesondere von Schiffen, gelöst, welche Referenzierungsmittel zum Referenzieren der Inspektionsfotos aufweist. Im Sinne der vorliegenden Schrift wird unter dem Begriff„Referenzieren" insbesondere die Erfassung von Positions- und/oder Orientierungsdaten verstanden. Dadurch, dass erfindungsgemäß die Inspektionskameraeinheit in der Lage ist, ihre Position und/oder Orientierung zu erfassen, kann jedem mit der Inspektionskamera aufgenommenen Inspektionsfoto automatisch diese

Information beigefügt werden. Dies ermöglicht eine systematische Auswertung der Inspektionsfotos auch bei einer Historienbetrachtung.

Sofern die von den Referenzierungsmitteln erfassten Ortsdaten und

Orientierungsdaten mit einem vorhandenen, externen Koordinatensystem des zu inspizierenden Innenraums, beispielsweise des Schiffes, in Bezug gebracht werden, wenn also eine Registrierung, d.h. eine Bestimmung der

Koordinatentransformation zwischen dem zur Positionierung verwendeten Koordinatensystem mit dem Schiffskoordinatensystem mittels mindestens eines Passpunktes, vorgenommen wird, lassen sich mit Vorteil die im Rahmen der Inspektion mit Hilfe der erfindungsgemäßen Inspektionskameraeinheit aufgenommenen Inspektionsfotos dem externen Schiffskoordinatensystem zuordnen. Eine Registrierung im Sinne der Erfindung kann gleichermaßen mittels einer manuellen Zuordnung von Punkten des Schiffskoordinatensystems zu Punkten des zur Positionierung verwendeten Koordinatensystems vorgenommen. Dabei wird beispielsweise durch eine Bedienperson manuell mindestens ein Passpunkt in einem Inspektionsfoto ausgewählt und jeweils einem Ort im Schiffskoordinatensystem zugeordnet.

In bevorzugter Ausgestaltung der erfindungsgemäßen Inspektionskameraeinheit umfassen die Referenzierungsmittel eine Stereokammer mit einer ersten Referenzierungskamera und einer zweiten Referenzierungskamera, zur Bestimmung von den Inspektionsfotos zuordenbaren relativen Ortsdaten der Inspektionskamera und Orientierungsdaten der Inspektionskamera. Die erste und zweite Referenzierungskamera sind dabei in einer festen räumlichen Anordnung zur Inspektionskamera innerhalb der Inspektionskameraeinheit angeordnet. Anhand der parallel aufgenommenen Referenzierungsbilder der beiden

Referenzierungskameras der Stereokamera kann mittels Bildverarbeitung bei bekanntem festen Abstand zwischen der ersten und zweiten

Referenzierungskamera unter Einsatz von trigonometrischen Berechnungen Ort und Orientierung der Stereokamera und damit der Inspektionskamera in Bezug auf den Innenraum ermittelt werden.

Zur Reduzierung der Datenmenge kann im Rahmen der Erfindung die erste Referenzierungskamera und/oder die zweite Referenzierungskamera als schwarz/weiß Kamera ausgestaltet sein. Für die Zwecke der Referenzierung der Inspektionsfotos wird es in vielen Anwendungsfällen ausreichend sein, lediglich Kontraste, nicht jedoch Farbinformationen, aufzuzeichnen. Die hierdurch mit Vorteil einhergehende erhebliche Datenreduzierung ermöglicht den Einsatz von Bildverarbeitung bei der Referenzierung anhand der von den

Referenzierungskameras aufgenommen Referenzierungsbilder. Mit Vorteil kann eine Referenzierung somit erfindungsgemäß auch in Echtzeit erfolgen. Dies ermöglicht beispielsweise mit Vorteil auch die Aufzeichnung einer Trajektorie, welche die erfindungsgemäße Inspektionskameraeinheit während eines

Inspektionslaufs im Innenraum, also insbesondere im Schiffskörper, durchlaufen ist.

In weiterer bevorzugter Ausgestaltung der Erfindung ist die Stereokamera infrarotsensitiv ausgestaltet und umfasst eine Infrarotquelle, wobei vorzugsweise die Infrarotquelle gepulst betreibbar ausgestaltet ist. Da die Inspektion häufig in schlecht beleuchteten oder komplett dunklen Innenräumen erfolgt, ist der Einsatz von Infrarotbildern innerhalb der Stereokamera vorteilhaft. Wenn die

Inspektionsfotos im sichtbaren Bereich, insbesondere farbig, aufgenommen werden, ist bei der erfindungsgemäßen Ausgestaltung der Stereokamera als infrarotsensitive Kamera zudem gewährleistet, dass die Infrarotquelle die Inspektionsfotos nicht beeinflusst. Ferner benötigt eine Infrarotquelle mit Vorteil weniger Energie als beispielsweise eine Lichtquelle im sichtbaren Bereich.

Eine gepulste Betriebsweise der Infrarotquelle vermindert mit Vorteil den Energiebedarf der Infrarotquelle. Dies ist vorteilhaft mit Blick darauf, dass die erfindungsgemäße Inspektionskameraeinheit als portables Gerät, beispielsweise als Helmkameraeinheit, ohne externe Energieversorgung betrieben wird.

In weiterer vorteilhafter Ausgestaltung der erfindungsgemäßen

Inspektionskameraeinheit weist die Stereokamera eine Bildverarbeitungseinheit zum Referenzieren anhand eines Bildvergleichs eines mit der ersten

Referenzierungskamera aufgenommenen ersten Referenzierungsbildes mit einem parallel mit der zweiten Referenzierungskamera aufgenommenen zweiten Referenzierungsbildes auf. Diese Ausgestaltung der Erfindung ermöglicht es mit Vorteil, eine Bestimmung von den Inspektionsfotos zugeordneten Ortsdaten und Orientierungsdaten auf Seiten der Inspektionskameraeinheit, insbesondere in Echtzeit, vorzunehmen. Mit Vorteil kann auf diese Weise lediglich ein

Parametersatz zur Kennzeichnung der Ortsdaten, also typischerweise ein

Koordinatentriplet, sowie Orientierungsdaten, typischerweise ein Winkeltriplet, aufgezeichnet werden. Der Speicherbedarf gegenüber der Abspeicherung der vollständigen Referenzbilder ist mit Vorteil erheblich niedriger.

Besonders günstig ist es, wenn im Rahmen der Erfindung der Bildvergleich eine Auswahl mindestens eines Auswertemusters in dem ersten Referenzierungsbild, ein Auffinden des Auswertemusters in dem zweiten Referenzierungsbild und eine Bestimmung der Position des Auswertemusters innerhalb des ersten

Referenzierungsbildes und innerhalb des zweiten Referenzierungsbildes umfasst. Unter Berücksichtung des bekannten Abstands der ersten

Referenzierungskamera von der zweiten Referenzierungskamera lässt sich durch Kenntnis der Positionen des Auswertemusters innerhalb der beiden

Referenzierungsbilder anhand trigonometrischer Berechnungen Ort und Orientierung der Stereokamera und, bei bekannter, feststehender relativer Anordnung der Inspektionskamera zur Stereokamera, Ort und Orientierung der Inspektionskamera ermitteln.

Die Referenzierung gestaltet sich besonders verlässlich, wenn in Ausgestaltung der Erfindung das Auswertemuster einen Bildbereich mit einem maximalen Kontrast umfasst.

In Weiterbildung der erfindungsgemäßen Inspektionskameraeinheit umfasst sie einen Beschleunigungssensor und/oder einen Neigungssensor. Dadurch, dass erfindungsgemäß ein Beschleunigungssensor vorgesehen sein kann, gestaltet sich die Ortsbestimmung und/oder Orientierungsbestimmung mit Vorteil noch zuverlässiger. Denn es steht eine zusätzliche Messgröße zur Verfügung, welche eine Referenzierung der Inspektionsfotos ermöglicht. Wenn beispielsweise die Referenzierungsbilder nicht auswertbar sind, weil sie beispielsweise verwackelt sind oder weil eine Störung im Strahlengang vorhanden ist, kann ausgehend von dem anhand der Stereokamera zuletzt ermittelten Wert für Ort und Orientierung anhand der Auswertung das Beschleunigungssensor und/oder des

Neigungssensors ermittelt werden, an welcher aktuellen Position und in welcher aktuellen Orientierung sich die Inspektionskamera befindet. Dieses ist insbesondere vorteilhaft, um eine lückenlose Trajektorie, welche die

Inspektionskameraeinheit während eines Inspektionslaufs in dem zu

inspizierenden Innenraum, beispielsweise im Schiffskörper, durchlaufen ist, zu ermitteln. Aber auch in Fällen, in denen die Referenzierungsbilder

uneingeschränkt für die Referenzierung nutzbar sind, sind Daten eines zusätzlichen Beschleunigungssensors und/oder eines zusätzlichen

Neigungssensors vorteilhaft. Denn das Suchfeld zum Auffinden der momentanen Position des Auswertemusters kann gezielt eingeschränkt werden aufgrund der Kenntnis der voraussichtlichen Position des Auswertemusters auf dem

Referenzierungsbild. Dadurch lässt sich die Rechenzeit mit Vorteil reduzieren. In weiterer vorteilhafter Ausgestaltung der erfindungsgemäßen

Inspektionskameraeinheit sind die Referenzierungsmittel zur Auswertung von Daten bezüglich eines Öffnungswinkels der Inspektionskamera ausgestaltet. Die zusätzliche Kenntnis des Öffnungswinkels der Inspektionskamera ermöglicht in Verbindung mit der Kenntnis der Registrierung in Bezug auf ein

Koordinatensystem des zu untersuchenden Innenraums, also insbesondere des zu untersuchenden Schiffes, die Feststellung, ob zwei gegebene

Inspektionsfotos denselben Abschnitt des gegebenen Innenraums zeigen. Dabei kann im Rahmen der Erfindung die Zuordnung zu einem

Schiffskoordinatenmodell dazu dienen, eine Schnittfläche des Erfassungswinkels der Inspektionskamera mit Wandungen des Schiffsinnenraumes zu bestimmen. All dies ist entscheidend für eine Historienanalyse, wenn beispielsweise durch Vergleich von zu unterschiedlichen Zeitpunkten aufgenommen Inspektionsfotos festgestellt werden soll, ob ein Strukturschaden sich vergrößert oder in sonstiger Weise verändert hat. Allgemein lässt sich auf diese Weise im Rahmen der Erfindung die Entwicklung von Befunden mit der Zeit beobachten, wobei in diesem Sinne der Begriff Befund beispielsweise auch der Zustand einer

Beschichtung oder das Vorhandensein von Schlamm oder anderen

Ablagerungen an einem Ort umfassen kann.

In anderer vorteilhafter Ausgestaltung der Erfindung ist die erste

Referenzierungskamera oder die zweite Referenzierungskamera die

Inspektionskamera. Die Komplexität der erfindungsgemäßen

Inspektionskameraeinheit lässt sich auf diese Weise mit Vorteil reduzieren. Es wird also erfindungsgemäß neben der ohnehin für die Aufnahme der

Inspektionsfotos vorhandenen Inspektionskamera lediglich eine zusätzliche Referenzierungskamera vorgesehen, wobei ein Bildvergleich zwischen dem Referenzierungsbild der Referenzierungskamera und dem Inspektionsfoto vorgenommen wird. Sofern es sich bei der Inspektionskamera um eine

Farbkamera handelt, kann der Bildvergleich nach Umrechnung des

Inspektionsfotos in ein schwarz/weiß Foto erfolgen.

Es ist im Rahmen der Erfindung vorteilhaft, wenn visuelle Positionsanzeigemittel, vorzugsweise eine Laserlichtquelle umfassend, zur Anzeige eines aufgrund des Ortes und der Orientierung der Inspektionskamera von einem Inspektionsfoto erfassbaren Objektbereichs vorgesehen sind. Beispielsweise kann mittels Laserlicht ein Fadenkreuz auf den Objektbereich projiziert werden, welches den Mittelpunkt eines Inspektionsfotos anzeigt, wenn ein solches aufgenommen wird. Dies kann von großem Vorteil sein, wenn die erfindungsgemäße

Inspektionskameraeinheit beispielsweise als Helmkamera vom Inspektor getragen wird und sich der Blickwinkel des Inspektors von dem„Blickwinkel" der Inspektionskamera unterscheidet.

Um eine problemlose Referenzierung in Echtzeit zu begünstigen, ist es in Ausgestaltung der Erfindung vorteilhaft, wenn der Bildvergleich lediglich auf Basis eines Teilbereichs, insbesondere eine im Wesentlichen linienartigen Bereichs, beider Referenzierungsbilder erfolgt. Konkret kann also ein im ersten Referenzierungsbild ausgewähltes Auswertemuster im zweiten

Referenzierungsbild auf eine Linier gesucht werden, wenn die Kenntnis der geometrischen Anordnung der beiden Referenzierungskamera der Stereokamera oder Daten aus einem Beschleunigungssensor und/oder Daten aus einem Neigungssensor berücksichtigt werden.

Die erfindungsgemäße Inspektionskameraeinheit ermöglicht die Abspeicherung einer Trajektorie, wenn eine Speichereinheit vorgesehen ist, um eine zeitliche Reihe von Inspektionsfotos und eine zeitliche Reihe von relativen Ortsdaten der Inspektionskamera und/oder Orientierungsdaten der Inspektionskamera abzuspeichern.

Eine vollständige Entkopplung der Ortsbestimmung von der Aufnahme der Inspektionsfotos wird in Ausgestaltung der Erfindung erzielt, wenn die

Inspektionskamera zwischen der ersten Referenzierungskamera und der zweiten Referenzierungskamera angeordnet ist. In dieser Ausgestaltung ist somit die Inspektionskamera insbesondere separat von der ersten und zweiten

Referenzierungskamera ausgestaltet.

Die der Erfindung zugrundeliegende Aufgabe wird hinsichtlich des Verfahrens durch ein Verfahren zur Inspektion von Innenräumen, insbesondere von Schiffen, durch Aufnahme von, vorzugsweise farbigen, Inspektionsfotos mittels einer

Inspektionskamera gelöst, bei welchem die Inspektionsfotos referenziert werden, in dem bei der Aufnahme relative Ortsdaten der Inspektionskamera und

Orientierungsdaten der Inspektionskamera bestimmt und den Inspektionsfotos zugeordnet werden, wobei vorzugsweise die Inspektionskamera nach einem der Ansprüche 1 1 - 24 ausgestaltet ist.

In vorteilhafter Ausgestaltung des erfindungsgemäßen Verfahrens beinhaltet es ein Verfahren zur Vermaßung von Strukturen in den Innenräumen anhand der Inspektionsfotos, umfassend: - Auswählen in einem Inspektionsfoto zweier Inspektionsfotobildpunkte,

- anschließend Bestimmen in dem ersten Referenzierungsbild und in dem zweiten Referenzierungsbild den ausgewählten Inspektionsfotobildpunkten entsprechender Referenzierungsbildpunkte

- und Berechnen deren euklidischen Abstands.

Hinsichtlich der Sensoreinheit wird die der Erfindung zugrundeliegende Aufgabe durch eine Sensoreinheit mit Sensormitteln zur messtechnischen Erfassung mindestens einer Eigenschaft von Innenräumen, insbesondere von Schiffen, gelöst, welche zwecks Bestimmung einer durch relative Ortsdaten und

Orientierungsdaten gekennzeichneten Lage der Sensormittel mit

Lagegebermitteln zum Zusammenwirken mit den Referenzierungsmitteln einer Inspektionskameraeinheit nach einem der Ansprüche 1 bis 14 versehen ist. Beispielsweise kann die Sensoreinheit einen Ultraschalldickemesssensor als Sensormittel aufweisen, zur ultraschallbasierten Messung der Dicke

beispielsweise einer Stahlplatte eines Schiffsinnenraums. Dadurch, dass erfindungsgemäß die Sensoreinheit mit Lagegebermitteln versehen ist, kann in Zusammenwirken mit einer Inspektionskameraeinheit wie oben beschrieben die Lage der Sensormittel, also beispielsweise die Lage des

Ultraschalldickemesssensors, bestimmt werden. Auf diese Weise lässt sich mit Vorteil festhalten, an welchem Ort und in welcher Orientierung sich

beispielsweise der Ultraschalldickemesssensor zum Zeitpunkt der Aufnahme des Messwertes befand. Dazu muss er bei der messtechnischen Erfassung der Dicke im Sichtfeld der Referenzierungsmittel der Inspektionskameraeinheit angeordnet sein.

In bevorzugter Ausgestaltung der erfindungsgemäßen Sensoreinheit umfassen die Lagegebermittel voneinander auf einer Sensorachse beabstandet angeordnete, einen optischen Kontrast hervorrufende, insbesondere punktartige, Bereiche. Diese Bereiche können im Rahmen der Erfindung mit Vorteil bei dem oben beschriebenen Bildvergleich der Bilder zweier Referenzierungskameras als Auswertemuster mit einem maximalen Kontrast herangezogen werden.

Die Lagegebermittel können in weiterer günstiger Ausgestaltung der Erfindung zuschaltbar ausgeschaltet sein. Insbesondere können die Lagegebermittel mindestens eine punktförmige

Lichtquelle aufweisen. Beispielsweise kann der Lagegeber aus zwei voneinander beabstandet angeordneten Leuchtdioden aufgebaut sein, welche bei Auslösung der Speicherung eines Messsignals, beispielsweise einer

Ultraschalldickemessung, kurzzeitig eingeschaltet werden, um auf diese Weise als Auswertemuster mit maximalem Kontrast von den Referenzierungskameras erfasst werden zu können.

Die Erfindung wird anhand eines Ausführungsbeispiels unter Bezugnahme auf eine Zeichnung näher erläutert.

Die Figuren der Zeichnung zeigen im Einzelnen:

Figur 1 : ein schematisches Blockschaltbild einer Vermessungsanordnung.

Figur 1 a: perspektivische schematische Ansicht einer Ausführungsform der erfindungsgemäßen Inspektionskameraeinheit;

Figur 2: beispielhafte Veranschaulichung eines Ausführungsbeispiels des von der Inspektionskameraeinheit gemäß Fig. 1 a eingesetzten

Bildverarbeitungsverfahrens;

Figur 3: schematische Darstellung der Veranschaulichung im Rahmen der Erfindung möglicher Ausgestaltungen einer Inspektionskameraeinheit;

Figur 4: beispielhafte Veranschaulichung einer Ausführung des

erfindungsgemäßen Verfahrens;

Figur 5: schematische Veranschaulichung der Durchführung einer

Dickenmessung mit einer erfindungsgemäßen Sensoreinheit im

Zusammenwirken mit einer erfindungsgemäßen Inspektionskameraeinheit.

In Fig. 1 ist eine erfindungsgemäße Vermessungsanordnung 1 in einem schematischen Blockschaltbild dargestellt. Die Vermessungsanordnung 1 umfasst ein sensorisches System 2 zur Erzeugung von Messdaten. Das sensorische System 2 umfasst hierbei einen Sensor 3, z.B. einen Feuchtesensor. Weiter umfasst das sensorische System 2 eine Steuer- und Auswerteeinrichtung 4, die Ausgangssignale des Sensors 3 vorverarbeiten kann und einen Betrieb des Sensors 3 steuert. Weiter dargestellt ist, dass das sensorische System 2 eine Betätigungseinrichtung 5 zur Aktivierung des sensorischen Systems 2 oder der Vermessungsanordnung 1 umfasst, die beispielsweise als Schalter ausgebildet sein kann.

Weiter umfasst die Vermessungsanordnung 1 ein kombiniertes

Lageerfassungssystem 6. Das kombinierte Lageerfassungssystem 6 umfasst als erstes unreferenziertes Lageerfassungssystem einen Inertialsensor 7. Weiter umfasst das kombinierte Lageerfassungssystem 6 als zweites unreferenziertes Lageerfassungssystem ein Stereokamerasystem, welches eine erste Kamera 8 und eine zweite Kamera 9 umfasst. Das erste unreferenzierte

Lageerfassungssystem erfasst erste Positions- und Orientierungsdaten mit Bezug auf ein systemeigenes dreidimensionales Koordinatensystem 1 1.

Entsprechend erfasst das zweite unreferenzierte Lageerfassungssystem zweite Positions- und Orientierungsdaten mit Bezug auf ein systemeigenes

dreidimensionales Koordinatensystem 12. Hierbei erfasst die erste Kamera 8 und die zweite Kamera 9 jeweils Bilddaten in einem zweidimensionalen

kameraeigenen Koordinatensystem 13, 14, wobei die Bilddaten in diesen Koordinatensystemen 13, 14 dann von einer weiteren Steuer- und

Auswerteeinrichtung 10 in das systemeigene dreidimensionale

Koordinatensystem 12 umgerechnet werden. Somit werden erste Positionsund/oder Orientierungsdaten von dem Inertialsensor 7 und Bilddaten von den Kameras 8, 9 des Stereokamerasystems an die weitere Steuer- und

Auswerteeinrichtung 10 übertragen, die aus den Ausgangssignalen Positions- und/oder Orientierungsinformationen berechnet, wobei die in den

Ausgangssignalen des Inertialsensors 7 kodierten ersten Positions- und/oder Orientierungsdaten mit den in den Bilddaten der Kameras 8, 9 kodierten Positions- und/oder Orientierungsdaten miteinander fusioniert werden. Die berechneten Positions- und/oder Orientierungsinformationen können z.B.

referenziert zu einem vermessungsanordnungsfesten Koordinatensystem 15 sein. Hierbei kann die Auswerte- und Recheneinrichtung 10 auch Methoden der Bildverarbeitung durchführen. Weiter werden sowohl die von der ersten Steuer- und Auswerteeinrichtung 4 als auch die von der weiteren Steuer- und Auswerteeinrichtung 10 bestimmten Daten in einer Speichereinrichtung 16 referenziert zueinander gespeichert. Somit sind also vorverarbeitete Messdaten räumlich referenziert zu einem gemeinsamen Koordinatensystem, nämlich dem vermessungsanordnungsfesten Koordinatensystem 15, des Inertialsensors 7 und des Stereokamerasystems gespeichert. Das vermessungsanordnungsfeste Koordinatensystem 15 ist hierbei läge- und rotationsfest gegenüber der

Vermessungsanordnung 1.

Das sensorische System 2 und die Elemente des kombinierten

Lageerfassungssystems 6 sind ebenfalls orts- und drehfest zueinander auf oder in der Vermessungsanordnung 1 angeordnet. Insbesondere sind auch die Kameras 8, 9 sowie der Initialsensor 7 orts- und drehfest zueinander angeordnet. Dies bedeutet, dass sich eine Registrierung zwischen den einzelnen

Ausgangsdaten während des Betriebes nicht ändert.

Auch können das sensorische System 2 und die Elemente des kombinierten Lageerfassungssystems 6 mechanisch lose gekoppelt sein, z.B. wenn es die Anforderungen an die Genauigkeit der räumliche Referenzierung zulassen.

Mechanisch lose kann beispielsweise bedeuten, dass die mechanische Kopplung derart ausgebildet ist, dass sich eine Position des sensorischen Systems 2 immer innerhalb eines Kugelvolumens mit einem vorbestimmten Radius befindet, wobei ein Mittelpunkt des Kugelvolumens referenziert zu den Positions- und/oder Orientierungsinformationen bekannt ist. Dies gestattet beispielsweise eine Feuchtemessung per Hand direkt an einer Schiffswand.

Die weitere Steuer- und Auswerteeinrichtung 10 kann hierbei in Echtzeit eine Lage in drei translatorischen und drei rotatorischen Freiheitsgraden, bezogen auf das vermessungsanordnungsfeste Koordinatensystem 1 15, bestimmen.

Zusätzlich kann die weitere Steuer- und Auswerteeinrichtung 10 aus den

Ausgangssignalen der Kameras 8, 9 ein 3D-Modell erzeugen. Informationen des 3D-Modells können ebenfalls in der Speichereinrichtung 16 räumlich referenziert gespeichert werden. Die Figur 1 a zeigt eine Inspektionskameraeinheit 101 , welche auf einem Arbeitshelm 102 befestigt ist. Die genaue Art der Befestigung der

Inspektionskameraeinheit 101 am Arbeitshelm 102 ist der Darstellung gemäß Figur 1 a nicht zu entnehmen. Sie kann in beliebiger, dem

Fachmann wohl bekannter Weise erfolgen.

Die Inspektionskameraeinheit 1a weist einen Gehäuserahmen 103 auf, auf welchem diverse Einzelkomponenten, welche nachstehend näher beschrieben werden, in festen Positionen zueinander angebracht sind. Zum einem ist an dem Gehäuserahmen 103 eine Inspektionskamera 104 befestigt. Die Inspektionskamera 104 ist als digitale Farbkamera mit geeigneter Auflösung ausgestaltet.

Weiterhin ist auf dem Gehäuserahmen 103 eine Stereokamera 105 fixiert. Die Stereokamera 105 weist eine erste Referenzlerungskamera 106 und eine in einem Abstand 107 zur ersten Referenzlerungskamera 106 parallel zu dieser angeordnete zweite Referenzlerungskamera 108 auf. Die erste Referenzlerungskamera 106 und die zweiter Referenzlerungskamera 108 sind jeweils als digitale infrarotsensitive schwarz/weiß Kameras

ausgestaltet, welche also lediglich einen Intensitätswert pro Bildpunkt aufzeichnen. Jeder Referenzlerungskamera 106, 108 ist eine gepulst ansteuerbare Infrarotlichtquelle 109 bzw. 110 zugeordnet. Eine

Bildeintrittsebene bei der Referenzlerungskamera 106 und 108 ist deckungsgleich. Die Bildeintrittsebene der Referenzierungskameras 106, 108 liegt jedoch vor einer Bildeintrittsebene der Inspektionskamera 104. Diese Verhältnisse sind in der perspektivischen Ansicht gemäß Figur 1a zu erkennen.

Die Inspektionskamera 104 ist zwischen der ersten

Referenzlerungskamera 106 und der zweiten Referenzlerungskamera 108 auf einer zentralen Verbindungslinie 110 zwischen den Referenzierungskameras 106, 108 derart angeordnet, dass die optischen Achsen der Referenzierungskameras 106, 108 parallel zur optischen Achse des Stereokamera 105 ausgerichtet sind. An dem Gehäuserahmen 03 ist ferner eine Lichtquelle 111 zur

Ausleuchtung mit sichtbarem Licht angeordnet. Die sichtbare Lichtquelle 11 1 ist über eine nicht dargestellte Steuerung der Inspektionskamera 104 mit der Inspektionskamera 104 synchron nach Art eines Blitzlichtes betreibbar. In dem Gehäuserahmen 103 sind ferner eine Bildverarbeitungseinheit zur Durchführung eines Bildvergleichs eines mit der ersten

Referenzierungskamera 106 aufgenommenen ersten

Referenzierungsbildes mit einem parallel mit der zweiten

Referenzierungskamera 108 aufgenommenen zweiten

Referenzierungsbildes befestigt. Außerdem ist am Gehäuserahmen 103 eine Speichereinheit zum Abspeichern einer zeitlichen Reihe von

Inspektionsfotos der Inspektionskamera 104 sowie einer zeitlichen Reihe von Ortsdaten der Inspektionskamera 104 und Orientierungsdaten der Inspektionskamera 104 vorgesehen. Die Speichereinheit und die

Bildverarbeitungseinheit sind in der Figur 1a nicht zu erkennen. Sie können im Rahmen der Erfindung insbesondere in einer separaten portablen Einheit, die beispielsweise nach Art eines Rucksacks

ausgestaltet sein kann, vorgesehen sein.

Außerdem weist die Inspektionskameraeinheit 01 einen an dem

Gehäuserahmen 103 befestigten Beschleunigungssensor 1 12 sowie einen ebenfalls an dem Gehäuserahmen 103 befestigten Neigungssensor 113 auf. Der Beschleunigungssensor 112 ist beispielsweise auf Basis eines pieoelektischen Sensors aufgebaut. Der Neigungssensor 113 kann in jeder dem Fachmann wohl bekannten Art ausgestaltet sein.

Beispielsweise können im Rahmen der Erfindung kapazitive

Flüssigkeitsneigungssensoren eingesetzt werden. Schließlich ist auf dem Gehäuserahmen 103 ein Laserpointer 124 angebracht, welcher ein Fadenkreuz an einem Objekt im Innenraum 121 anzeigt, zur Markierung des Mittelpunkts des Objektbereichs, welches von einem Inspektionsfoto 122 erfasst wird, wenn ein Inspektionsfoto 122 aufgenommen wird.

In der Figur 2 ist beispielhaft das der erfindungsgemäßen

Inspektionskameraeinheit 101 zugrundeliegende Prinzip zur Bestimmung von Ortsdaten und Orientierungsdaten anhand eines Bildvergleichs eines mit der ersten Referenzierungskamera 106 aufgenommenen ersten Referenzierungsbildes 114 mit einem parallel mit der zweiten

Referenzierungskamera 108 aufgenommenen zweiten

Referenzierungsbildes 115 gezeigt. In Figur 2 sind die

Referenzierungsbilder 114, 115 in einer Graustufendarstellung zur Veranschaulichung der zu einem Bildpunkt gehörenden Intensität des Infrarotlichtes dargestellt.

In einem ersten Schritt wird in dem ersten Referenzierungsbild 114 ein Auswertemuster 116 ausgewählt. Das Auswertemuster 116 betrifft einen Bildbereich mit einem maximalen Kontrast, nämlich den Übergang von schwarz nach weiß. Im zweiten Schritt wird das Auswertemuster 1 16 in dem parallel aufgenommenen zweiten Referenzierungswert 1 15 aufgesucht, entsprechend dem parallelen Auswertemuster 117.

Anschließend wird eine Position des Auswertemusters 1 16 innerhalb des ersten Referenzierungsbildes 1 14 ermittelt und die zu dieser Position gehörenden Koordinaten (x,y) werden aufgezeichnet. Entsprechend wird eine Position des parallelen Auswertemusters 117 innerhalb des zweiten Referenzierungsbildes 115 ermittelt und mit den Koordinaten (x ' ,y ' ) aufgezeichnet. Unter Berücksichtigung der geometrischen relativen Anordnung der ersten Referenzierungskamera 106 zu der zweiten Referenzierungskamera 108 sowie gegebenenfalls unter Berücksichtigung von Daten des

Beschleunigungssensors 1 12 und/oder des Neigungssensors 13 kann gemäß der Erfindung der Bildvergleich beim Aufsuchen des parallelen Auswertemusters 117 in dem zweiten Referenzierungsbild 1 15 auf einen im wesentlichen linienartigen bzw. rechteckartigen Bereich 118 beschränkt werden, um die Rechenzeit zu vermindern.

Anhand der durch die Koordinaten (x,y) bzw. (χ ' , y ' ) -charakterisierten Positionen des Auswertemusters 1 16 im ersten Referenzierungsbild 1 14 bzw. des parallelen Auswertemusters 117 im zweiten Referenzierungsbild 115 wird anhand triogonometrischer Berechnungen unter

Berücksichtigung des Abstands 107 zwischen der ersten

Referenzierungskamera 106 und der zweiten Referenzierungskamera 108 Ort und Orientierung der Stereokamera 105 und aufgrund der bekannten Anordnung der Inspektionskamera 104 relativ zur Stereokamera 105 auch der Inspektionskamera 104 vorgenommen.

In Figur 3 sind unterschiedliche Befestigungsmöglichkeiten im Rahmen der Erfindung der Inspektionskameraeinheit 101 gemäß Figur 1 a rein schematisch gezeigt. Links im Bild ist veranschaulicht, dass die

Inspektionskameraeinheit 101 an einer Art Weste 1 19 im Brustbereich eines Inspektors 120 befestigt sein kann.

Im mittleren Teil der Figur 3 ist eine Anbringung der erfindungsgemäßen Inspektionskameraeinheit 101 auf einem Arbeitshelm 102 veranschaulicht. Schließlich zeigt der rechte Teil der Figur 3 die Anbringung der

erfindungsgemäßen Inspektionskameraeinheit 101 an einer Weste 119 im Nackenbereich des Inspektors 120. ln Figur 4 ist veranschaulicht, wie im Rahmen der Erfindung eine

Registrierung, d.h. Ausrichtung der im Rahmen der von der

Inspektionskameraeinheit 101 nach der Erfindung gewonnenen

Referenzierungsdaten anhand eines externen Models des Innenraums, beispielsweise eines Schiffes, erfolgt. Dazu wird mit der

Inspektionskameraeinheit 101 in dem zu inspizierenden Innenraum 121 ein Inspektionsfoto 122 einmalig manuell einem dreidimensionalen Model 123 des Innenraumes 121 zugeordnet.

Anhand der Figuren 1 a - 4 ist somit eine Inspektionskameraeinheit 101 sowie ein Verfahren zur Inspektion von Innenräumen 121 vorgeschlagen, welche mit Vorteil eine Zuordnung der gewonnenen Inspektionsfotos 122 zu einem existierenden dreidimensionalen Modell 123 ermöglichen. Der Nutzen der Inspektionsfotos 122 erhöht sich dadurch erheblich.

Beispielsweise können Historienenbetrachtungen durch Vergleich von zu unterschiedlichen Zeitpunkten aufgenommenen Inspektionsfotos 122 vorgenommen werden, da feststellbar ist, welche Inspektionsfotos 122 denselben Bereich des Innenraums 121 zeigen. Für die Feststellung kann auch ein bekannter Öffnungswinkel der Inspektionskamera 104

berücksichtigt werden, welcher Anhand der Kenntnis von Lage und Orientierung der Inspektionskamera 104 einen Blickkegel definiert, dessen Schnittebene mit dem dreidimensionalen Modell 123 des Innenraumes 121 den erfassten Objektbereich angibt.

Hierdurch ist mit Vorteil eine Inspektionskameraeinheit sowie ein zugehöriges Verfahren geschaffen, welches sich im Innenraum einsetzen lassen, wo in der Regel ein Zugriff auf beispielsweise satellitengestützte Positionsbestimmungsverfahren nicht möglich ist. Zudem muss der Innenraum nicht zuvor mit Vorrichtungen versehen werden, welche eine Ortung ermöglichen. Die Figur 5 veranschaulicht schematisch die Durchführung einer

Dickenmessung mit einer erfindungsgemäßen Sensoreinheit 125 zur Ultraschalldickenmessung. Die Sensoreinheit 125 weist einen

Ultraschalldickemesssensor 126, eine Sensorbedienungseinheit 127, einen Sensordatenspeicher 128 sowie einen Lagegeber 129 auf. In dem in Figur 5 veranschaulichten Ausführungsbeispiel sind die

Sensorbedienungseinheit 127 und der Sensordatenspeicher 128 über ein Kabel mit der Einheit aus dem Sensorkopf 126 und dem Lagegeber 129 verbunden. Dies eröffnet die Möglichkeit, die Sensorbedienungseinheit 127 und den Sensordatenspeicher 128 beispielsweise in einem Rucksack, den eine Bedienperson auf dem Rücken trägt, anzuordnen, um die den eigentlichen Sensorkopf 126 enthaltende Einheit leicht und dadurch gut handhabbar auszugestalten.

Der Lagegeber 129 ist in Verlängerung des Sensorkopfes 126 sich an diesen anschließend auf der Sensorkopfachse 130 angeordnet. Der

Lagegeber 129 weist zwei voneinander entlang der Sensorkopfachse 130 beabstandet angeordnete Leuchtdioden 131 , 132 auf. Die Leuchtdioden 131 , 132 sind mit der Sensorbedienungseinheit 127 derart verbunden, dass bei Auslösung der Speicherung eines Messsignals des Sensorkopfes 126 in dem Sensordatenspeicher 128 die Leuchtdioden 131 , 132 kurzzeitig eingeschaltet werden. Die Leuchtdioden senden gemäß dem in Figur 5 veranschaulichten Ausführungsbeispiel Infrarotlicht aus.

Die in Figur 5 veranschaulichte Sensoreinheit 125 wirkt bei

bestimmungsgemäßem Gebrauch mit einer infrarotsensitiven

Stereokamera 105 als Bestandteil einer Inspektionskameraeinheit 101 beispielsweise gemäß Figur 1a wie folgt zusammen.

Wenn über die Sensorbedienungseinheit 127 die Speicherung eines Messsignals des Sensorkopfes 126 zur Ultraschalldickemessung eines zu vermessenden Objekts, wie zum Beispiel einer Stahlplatte 133, ausgelöst wird, werden die Leuchtdioden 131 , 132 kurzzeitig eingeschaltet. Die Leuchtdioden 131 , 132 strahlen dann Infrarotlicht 134 ab.

Die Referenzierungskameras 106, 107 der Stereokamera 105 als

Bestandteil einer Inspektionskamera 101 nehmen sodann die

Sensoreinheit 125 jeweils auf. Dabei weisen aufgrund des abgestrahlten Infrarotlichts 134 die die Leuchtdioden 131 , 132 aufweisenden Abschnitte des Lagegebers 129 einen erhöhten Kontrast auf. Aufgrund des erhöhten Kontrasts ist es der Stereokamera 105 anhand des weiter oben

beschriebenen Verfahrens möglich, Ort und Lage des Sensorkopfs 126 der Sensoreinheit 125 zum Zeitpunkt der Auslösung der Speicherung eines Messsignals im Sensordatenspeicher 128 aufzuzeichnen.

Voraussetzung ist, dass bei der Auslösung der Speicherung eines

Messsignals die Sensoreinheit 125 und insbesondere der Lagegeber 129 im Sichtfeld der beiden Referenzierungskameras 106, 107 befindlich ist.

Mit Vorteil ist es mit der erfindungsgemäß ausgestalteten Sensoreinheit 125 möglich, auch Ort und Lage des Sensorkopfs 126 zum Zeitpunkt der Speicherung eines Messsignals aufzuzeichnen. Dies ermöglicht es beispielsweise im Falle einer Ultraschalldickemessung der Stahlplatte 133, dem gewonnenen Dickenmesswert eine genaue Lage und Richtung der Dickenmessung zuzuordnen. Ort und Lage werden dabei relativ zu Ort und Lage der Stereokamera 105 aufgezeichnet. Ort und Lage der

Stereokamera 105 lassen sich anhand des oben beschriebenen

Verfahrens mittels Referenzierung einem externen Koordinatensystem wie zum Beispiel einem Schiffskoordinatensystem zuordnen. 101 Inspektionskameraeinheit

102 Arbeitshelm

103 Gehäuserahmen

104 Inspektionskamera

105 Stereokamera

106 erste Referenzierungskamera

107 Abstand

108 zweite Referenzierungskamera

109 Infrarotlichtquelle

1 10 zentrale Verbindungslinie

1 1 Lichtquelle

2 Beschleunigungssensor

1 13 Neigungssensor

114 erstes Referenzierungsbild

1 15 zweites Referenzierungsbild

1 16 Auswertemuster

117 paralleles Auswertemuster

1 18 rechteckartiger Teilbereich

1 19 Weste

120 Inspekteur

121 Innenraum

122 Inspektionsphoto

123 dreidimensionales Modell

124 Laserpointer

125 Sensoreinheit

126 Sensorkopf

127 Sensorbedienungseinheit 128 Sensordatenspeicher

129 Lagegeber

130 Sensorkopfachse

131 Leuchtdiode

132 Leuchtdiode

133 Stahlplatte

134 IR-Licht