US20150302570A1 | 2015-10-22 | |||
DE19704496A1 | 1998-03-12 |
FILIBERTO CHIABRANDO ET AL: "Sensors for 3D Imaging: Metric Evaluation and Calibration of a CCD/CMOS Time-of-Flight Camera", SENSORS, vol. 9, no. 12, 11 December 2009 (2009-12-11), pages 10080 - 10096, XP055372288, DOI: 10.3390/s91210080
MARVIN LINDNER ET AL: "Lateral and Depth Calibration of PMD-Distance Sensors", 1 January 2006, ADVANCES IN VISUAL COMPUTING LECTURE NOTES IN COMPUTER SCIENCE;;LNCS, SPRINGER, BERLIN, DE, PAGE(S) 524 - 533, ISBN: 978-3-540-48626-8, XP019050872
1. Verfahren zum Kalibrieren oder/und Evaluieren einer Licht laufzeitkamera (1 , 20) mit Hilfe einer Referenzfläche (45), wobei die Lichtlaufzeitkamera (1, 20) einen Lichtlaufzeitsensor (22) bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Licht laufzeitkamera (1, 20) durch translatorische Abstandsänderungen verschiedene Abstände zwischen der Lichtlaufzeitkamera (1, 20) und der Referenzfläche (45) eingestellt werden, mit den Schritten: - Ermittlung von ersten Entfernungsdaten für einen ersten Abstand - Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand, - Berechnung von Entfernungsdifferenzen aus den ersten und zweiten Entfernungsdaten - Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) ausgehend von den berechneten Entfernungsdifferenzen. 2. Verfahren nach Anspruch 1 , bei dem ausgehend von den Entfernungsdifferenzen ein Aufpunkt (AP) auf dem Lichtlaufzeitsensor (22) berechnet wird, an dessen Position die Entfernungsdifferenzen ein Minimum aufweisen. 3. Verfahren nach Anspruch 2, bei dem ausgehend von der Position des bestimmten Aufpunkts oder/und eines um den Aufpunkt liegenden Pixelbereichs eine Orientierung des Lichtlaufzeitsensors (22) bzw. der Lichtlaufzeitkamera (1, 20) in Relation zur Referenzfläche (45) ermittelt wird. 4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung des Lichtlaufzeitsensors (22) eine Kalibrierung oder/und Evaluation der Lichtlaufzeitkamera (1, 20) erfolgt. 5. Verfahren nach Anspruch 4, bei dem ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung ein ,fixed pattern phase noise' (FPPN) ermittelt wird. 6. Vorrichtung zur Kalibrierung einer Licht laufzeitkamera (20) oder eines Lichtlaufzeitkamerasystems (1) die zur Durchführung eines Verfahrens gemäß einem der Ansprüche 1 bis 5 ausgebildet ist, mit einer Verfahreinheit zur Einstellung eines Abstandes zwischen der Lichtlaufzeitkamera (1, 20) und einer Referenzfläche (45), mit einer Auswerteeinheit zur Kalibrierung der Lichtlaufzeitkamera (1, 20), die derart ausgebildet ist, dass ausgehend von Entfernungsdaten, die in unterschiedlichen Abständen ermittelt wurden, eine Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) bestimmt wird. |
Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Kalibrierung einer
Lichtlaufzeitkamera oder eines Lichtlaufzeitkamerasystems nach Gattung der unabhängigen Ansprüche.
Mit Lichtlaufzeitkamera bzw. Lichtlaufzeitkamerasystem sollen insbesondere alle
Lichtlaufzeit- bzw. 3D-TOF-Kamerasysteme umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als
Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit
Photomischdetektoren (PMD) geeignet, wie sie u.a. in der DE 197 04 496 AI beschrieben und beispielsweise von der Firma 'ifm electronic GmbH' oder 'PMD-Technologies GmbH' als 03D-Kamera bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
Aufgabe der Erfindung ist es, die Genauigkeit der Entfernungsmessung eines
Lichtlaufzeitkamerasystems zu verbessern.
Die Aufgabe wird durch die erfindungsgemäße Vorrichtung und das erfindungsgemäße Verfahren gemäß der unabhängigen Ansprüche gelöst.
Vorteilhaft ist ein Verfahren zum Kalibrieren oder/und Evaluieren einer Lichtlaufzeitkamera mit Hilfe einer Referenzfiäche vorgesehen, wobei die Lichtlaufzeitkamera einen
Lichtlaufzeitsensor bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Lichtlaufzeitkamera durch translatorische
Abstandsänderungen verschiedene Abstände zwischen der Lichtlaufzeitkamera und der Referenzfläche eingestellt werden, mit den Schritten:
- Ermittlung von ersten Entfernungsdaten für einen ersten Abstand
- Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand,
- Berechnung von Entfernungsdifferenzen aus den ersten und zweiten Entfernungsdaten
- Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfiäche (45) ausgehend von den berechneten Entfernungsdifferenzen.
Dieses Vorgehen hat den Vorteil, dass zu einer Kalibrierung die Lichtlaufzeitkamera nicht mit hoher Präzision in Relation zur Referenzfläche ausgerichtet werden braucht. - -
Es ist ferner vorgesehen, das ausgehend von den Entfernungsdifferenzen ein Aufpunkt auf dem Lichtlaufzeitsensor berechnet wird, an dessen Position die Entfernungsdifferenzen ein Minimum aufweisen.
Wobei ausgehend von der Position des bestimmten Aufpunkts oder/und eines um den
Aufpunkt liegenden Pixelbereichs eine Orientierung des Lichtlaufzeitsensors (22) bzw. der Lichtlaufzeitkamera (1, 20) in Relation zur Referenzfläche (45) ermittelt wird, und anhand der ermittelten Orientierung des Lichtlaufzeitsensors (22) eine Kalibrierung oder/und Evaluation der Licht laufzeitkamera (1, 20) erfolgt.
Besonders vorteilhaft ist es, wenn ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung ein ,fixed pattern phase noise' (FPPN) ermittelt wird.
Ebenso vorteilhaft ist eine Vorrichtung zur Durchführung eines der vorgenannten Verfahren vorgesehen.
Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.
Es zeigen:
Figur 1 schematisch ein Lichtlaufzeitkamerasystem,
Figur 2 eine modulierte Integration erzeugter Ladungsträger,
Figur 3 eine erfindungsgemäße Kalibriervorrichtung
Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.
Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer
Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 AI bekannt ist.
Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem
Lichtlaufzeitsensor 22.
Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel- Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als - -
Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.
Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Licht laufzeitsensor 22 über einen Modulator 30
gemeinsam mit einem bestimmten Modulationssignal M 0 mit einer Basisphasenlage φο beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φο des
Modulationssignals Mo der Lichtquelle 12 um definierte Phasenlagen (p va r verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von (p va r = 0°, 90°, 180°, 270° verwendet.
Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein
intensitätsmoduliertes Signal S pl mit der ersten Phasenlage pl bzw. pl = φο + ( var aus. Dieses Signal S pl bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(^) mit einer zweiten Phasenlage p2 = φο + (pvar + Δφ(^) als
Empfangssignal S p2 auf den Licht laufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal M 0 mit dem empfangenen Signal S p2 gemischt, wobei aus dem
resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.
Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.
Das Grundprinzip der Phasenmessung ist schematisch in Figur 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals Mo mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal S p2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(ΐ^ auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten
Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals Mo in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage Mo + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten - -
Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(^) und somit eine Entfernung d des Objekts bestimmen.
Zur Charakterisierung von 2D-Kamera-Systemen ist es üblich eine solche Kamera und/oder ein Target auf einer linearen Verfahreinheit anzuordnen und gegeneinander zu verschieben. Üblicherweise ist es vorgesehen, das Target, beispielsweise ein geeignetes Test-Chart, gut zu beleuchten und die Kamera gegenüber dem Target zu verschieben. So wird vermieden, dass auch die Targetbeleuchtung mit verschoben werden muss.
Eine vergleichbare Anordnung kann grundsätzlich auch zur Evaluierung und/oder
Kalibrierung eines Abstandssensors herangezogen werden. Zur Vermessung von 3D-Kameras wird vorzugsweise eine Linear- Verfahreinheit verwendet, die normal, d.h. senkrecht, zu einer planaren Referenzfläche bekannter Reflektivität in einer streulichtarmen Umgebung ausgerichtet ist. Streulichtarm bedeutet hier, dass das Material oder die Farbe des
Messaufbaus nicht-reflektierend im relevanten Lichtspektrum, üblicherweise nahes Infrarot, ist. Die auszumessende 3D-Kamera ist auf der Verfahreinheit angeordnet und durch verschieben der Verfahreinheit mitsamt der Kamera werden Daten (Rohdaten) der Kamera in verschiedenen Abständen aufgenommen und ausgewertet.
Für eine präzise Evaluation von Restfehlern der Distanzmessung und/oder zur Kalibration von systematischen Messfehlern, die beispielsweise als so genanntes„Wiggling" bekannt sind, ist es erforderlich, präzise Referenzwerte zu messen. Bei einer oben genannten
Verfahreinheit bzw. Messschiene bedeutet das in der Regel, eine präzise mechanische Ausrichtung der Kamera gegenüber der Referenzfläche/Target. Voraussetzung ist, dass die Verfahreinheit präzise senkrecht gegenüber einer planaren Referenzfläche bzw. demTarget ausgerichtet ist. Diese mechanische Ausrichtung ist aufwendig und fehleranfällig.
Kernüberlegung der Erfindung ist es, den Aufwand für eine Kalibrierung/Evaluation einer Kamera zu verringern.
Die Erfindung geht aus von folgenden Überlegungen: Wird eine Lichtlaufzeitkamera um eine bestimmte Distanz verfahren, z.B. 1000 mm, dann sollte sich aus den Entfernungsdaten der Kamera exakt diese Differenz ermitteln können. Das gilt grundsätzlich allerdings nur für den Pixel, dessen Blickwinkel durch das Objektiv der Kamera normal auf die Referenzfläche ausgerichtet ist.
Ein solcher Pixel mit einem orthogonalen Blickwinkel auf die Referenzfläche zeichnet sich dadurch aus, der er den kleinsten Abstand zu Referenzfläche aufweist. Da jedes Pixel einen - - individuellen Offset besitzt (,fixed pattern phase noise' (FPPN)), ist es zunächst ohne Kalibration nicht möglich, den Pixel mit dem geringsten Abstand zur Referenzfläche durch eine direkte Messung zu ermitteln.
Erfindungsgemäß wird vorgeschlagen, dass die Differenzwerte zweier (oder mehrerer) Messungen in unterschiedlichen Distanzen ausgewertet werden. In einem solchen
Differenzbild ist das FPPN nicht mehr vorhanden. Durch die gegebene Präzision in der Ausrichtung der Verfahreinheit gegenüber der Referenzfläche ist gewährleistet, dass der Minimalwert im Differenzbild die Pixelposition definiert, die orthogonal auf die
Referenzfläche blickt. Diese Pixelposition kann zur Auswertung der systematischen
Messfehlern, beispielsweise des Wigglings, bei beliebigen Abständen, eingestellt durch die Verfahreinheit, herangezogen werden.
Die oben beschriebene Methode erfordert ausdrücklich keine besondere Präzision in der Montage der Kamera und ist daher sehr robust und liefert eine sehr hohe Datenqualität.
Die oben beschriebene Methode erlaubt es ferner, unter Zuhilfenahme einer Linsenkalibration des Kameraobjektivs die Kalibration des FPPNs eines Licht laufzeitsensors zu verbessern. Mittels einer Linsenkalibration lassen sich dann die tatsächlichen Abstände der einzelnen Bildpixel zu ihren jeweiligem Zielpunkt auf der Referenzfläche bestimmen.
Das FPPN ergibt sich als Differenz von tatsächlichem und gemessenem Abstand. Ein Ausrichtungsfehler bei einer herkömmlichen Kalibration führt somit zu Fehlern in der FPPN- Kalibration.
Durch die erfindungsgemäße Methode ist allerdings bereits die Pixelposition im Bild präzise bestimmt worden, die orthogonal auf die Fläche ausgerichtet ist. Mittels der Daten der Linsenkalibration lässt sich daraus eine eventuell vorhandene Rotation bzw. Orientierung der Kamera gegenüber der Referenzfläche bestimmen und daraus wiederum die tatsächlichen Abstände zur FPPN-Bestimmung entsprechend korrigieren.
Die erfindungsgemäße Methode ist identisch anwendbar, wenn an Stelle der Kamera die Referenzfläche auf einer linearen Verfahreinheit montiert ist.
Das Verfahren ermöglicht eine sehr hohe Präzision von Kalibrationsdaten wie Wiggling und FPPN, ohne dass eine präzise, aufwendige mechanische Ausrichtung einer einzelnen Kamera notwendig ist. Es wird lediglich ausgenutzt, dass die lineare Verfahreinheit präzise gegenüber der planaren Messfläche ausgerichtet ist. - -
Figur 3 zeigt schematisch das erfindungsgemäße Vorgehen. Im dargestellten Beispiel ist die Lichtlaufzeitkamera 20 nicht planparallel zum Objekt bzw. Referenzfläche 45 angeordnet. Im Bereich des Blickfeldes FOV (field of view) existiert jedoch ein orthogonaler Sichtvektor OV der parallel zur Normalen der Referenzfläche ausgerichtet ist. Dieser orthogonale Sichtvektor OV entspricht einem Aufpunkt auf dem Lichtlaufzeitsensor. Bei einer rein translatorischen Bewegung der Kamera 20 bleibt die parallele Ausrichtung des orthogonalen Sichtvektors OV zur Normalen der Referenzfläche 45 erhalten und auch die Position des Aufpunkts AP auf dem Lichtlaufzeitsensor ändert sich nicht. Der Aufpunkt weist grundsätzlich den minimalsten (optischen) Abstand zur Referenzfläche auf.
Erfindungsgemäß ist es für eine Kalibrierung vorgesehen, für mindestens zwei Abstände dl, d2 Entfernungsdaten und Differenzen zu ermitteln, (ij kennzeichnet das Pixel ij im
Sensorarray) d 12 ij — + FPPN) - (d Uj + FFPN)
In bekannter Weise hebt sich durch die Differenzbildung das fixed pattern noise auf. Über alle Pixel ij lässt sich dann ein Tiefenbild bzw. in diesem Fall ein Differenztiefenbild ermitteln.
Zur Bestimmung der Orientierung des Lichtlaufzeitsensors 22 in Relation zur Referenzfläche 45 wird zunächst ein Punkt/ Aufpunkt auf dem Lichtlaufzeitsensor 22 bestimmt, an dem die Entfernungsdifferenz di 2 bzw. das Differenztiefenbild ein Minimum aufweist.
In einer möglichen Ausgestaltung wird als Aufpunkt die Position des Pixels bestimmt, das die minimalste Entfernungsdifferenz aufweist.
Besonders vorteilhaft ist es jedoch vorgesehen, anhand der pixelindividuellen
Entfernungsdifferenzen einen Aufpunkt zu extrapolieren. Beispielsweise könnte das
Entfernungs-Minimum in einem hochskalierten und geglätteten Differenztiefenbild bestimmt werden. Dieses Vorgehen hat den Vorteil, dass die Position des Aufpunkts losgelöst von der Sensorauflösung genauer bestimmt und somit auch die Orientierung des Lichtlaufzeitsensors und im Ergebnis die FPPN-Korrektur präziser berechnen werden kann.
In Figur 3 ist der Einfachheit halber nur die Lichtlaufzeitkamera 20 gezeigt, grundsätzlich funktioniert das erfindungsgemäße Vorgehen auch, indem das vollständige
Lichtlaufzeitkamerasystem 1, mit Kamera 20 und Beleuchtung 10 gemeinsam translatorisch bewegt werden. . .
Bezugszeichen
1 Lichtlaufzeitkamerasystem
10 Beleuchtungsmodul
12 Beleuchtung
20 Empfänger, Lichtlaufzeitkamera
22 Lichtlaufzeitsensor
30 Modulator
35 Phasenschieber, Beleuchtungsphasenschieber
40 Objekt
45 Referenzfläche, Target
φ, A( (tL> laufzeitbedingte Phasenverschiebung
( V ar Phasenlage
φο Basisphase
Mo Modulationssignal
pl erste Phase
p2 zweite Phase
Sp 1 Sendesignal mit erster Phase
Sp2 Empfangssignal mit zweiter Phase
Ga, Gb Integrationsknoten
d Objektdistanz
q Ladung
FOV field of view, Blickfeld
OV Orthogonaler Vektor