Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
DEVICE AND METHOD FOR CALIBRATING A LIGHT PROPAGATION TIME CAMERA
Document Type and Number:
WIPO Patent Application WO/2017/157643
Kind Code:
A1
Abstract:
The invention relates to a method for calibrating and/or evaluating a light propagation time camera (1, 20) by means of a reference surface (45), wherein the light propagation time camera (1, 20) has a light propagation time sensor (22) consisting of an array of light propagation time pixels, in which method various spacings between the light propagation time camera (1, 20) and the reference surface (45) are set in order to calibrate and/or evaluate the light propagation time camera (1, 20) by means of translational spacing changes, the method have the following steps: determining first distance data for a first spacing, determining second distance data for a second spacing, calculating distance differences from the first and second distance data, determining an orientation of the light propagation time camera (1, 20) with respect to the reference surface (45) on the basis of the calculated distance differences.

Inventors:
BECKER STEFAN (DE)
Application Number:
PCT/EP2017/054461
Publication Date:
September 21, 2017
Filing Date:
February 27, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
PMDTECHNOLOGIES AG (DE)
International Classes:
G01S7/497; G01S17/894; G06T7/80; G01S17/36
Foreign References:
US20150302570A12015-10-22
DE19704496A11998-03-12
Other References:
INGO SCHILLER: "Calibration of a PMD-camera using planar calibration pattern together with a multi-camera setup", 28 April 2008 (2008-04-28), XP055032500, Retrieved from the Internet [retrieved on 20120712]
FILIBERTO CHIABRANDO ET AL: "Sensors for 3D Imaging: Metric Evaluation and Calibration of a CCD/CMOS Time-of-Flight Camera", SENSORS, vol. 9, no. 12, 11 December 2009 (2009-12-11), pages 10080 - 10096, XP055372288, DOI: 10.3390/s91210080
MARVIN LINDNER ET AL: "Lateral and Depth Calibration of PMD-Distance Sensors", 1 January 2006, ADVANCES IN VISUAL COMPUTING LECTURE NOTES IN COMPUTER SCIENCE;;LNCS, SPRINGER, BERLIN, DE, PAGE(S) 524 - 533, ISBN: 978-3-540-48626-8, XP019050872
Attorney, Agent or Firm:
SCHUHMANN, Jörg (DE)
Download PDF:
Claims:
1. Verfahren zum Kalibrieren oder/und Evaluieren einer Licht laufzeitkamera (1 , 20) mit Hilfe einer Referenzfläche (45), wobei die Lichtlaufzeitkamera (1, 20) einen

Lichtlaufzeitsensor (22) bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Licht laufzeitkamera (1, 20) durch translatorische Abstandsänderungen verschiedene Abstände zwischen der

Lichtlaufzeitkamera (1, 20) und der Referenzfläche (45) eingestellt werden, mit den Schritten:

- Ermittlung von ersten Entfernungsdaten für einen ersten Abstand

- Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand,

- Berechnung von Entfernungsdifferenzen aus den ersten und zweiten

Entfernungsdaten

- Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) ausgehend von den berechneten Entfernungsdifferenzen.

2. Verfahren nach Anspruch 1 ,

bei dem ausgehend von den Entfernungsdifferenzen ein Aufpunkt (AP) auf dem Lichtlaufzeitsensor (22) berechnet wird, an dessen Position die

Entfernungsdifferenzen ein Minimum aufweisen.

3. Verfahren nach Anspruch 2,

bei dem ausgehend von der Position des bestimmten Aufpunkts oder/und eines um den Aufpunkt liegenden Pixelbereichs eine Orientierung des Lichtlaufzeitsensors (22) bzw. der Lichtlaufzeitkamera (1, 20) in Relation zur Referenzfläche (45) ermittelt wird.

4. Verfahren nach einem der vorhergehenden Ansprüche, bei dem ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung des Lichtlaufzeitsensors (22) eine Kalibrierung oder/und Evaluation der Lichtlaufzeitkamera (1, 20) erfolgt.

5. Verfahren nach Anspruch 4, bei dem ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung ein ,fixed pattern phase noise' (FPPN) ermittelt wird.

6. Vorrichtung zur Kalibrierung einer Licht laufzeitkamera (20) oder eines

Lichtlaufzeitkamerasystems (1) die zur Durchführung eines Verfahrens gemäß einem der Ansprüche 1 bis 5 ausgebildet ist,

mit einer Verfahreinheit zur Einstellung eines Abstandes zwischen der

Lichtlaufzeitkamera (1, 20) und einer Referenzfläche (45), mit einer Auswerteeinheit zur Kalibrierung der Lichtlaufzeitkamera (1, 20), die derart ausgebildet ist, dass ausgehend von Entfernungsdaten, die in unterschiedlichen Abständen ermittelt wurden,

eine Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfläche (45) bestimmt wird.

Description:
Vorrichtung und Verfahren zur Kalibrierung einer Lichtlaufzeitkamera

Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Kalibrierung einer

Lichtlaufzeitkamera oder eines Lichtlaufzeitkamerasystems nach Gattung der unabhängigen Ansprüche.

Mit Lichtlaufzeitkamera bzw. Lichtlaufzeitkamerasystem sollen insbesondere alle

Lichtlaufzeit- bzw. 3D-TOF-Kamerasysteme umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als

Lichtlaufzeit bzw. 3D-TOF-Kameras sind insbesondere PMD-Kameras mit

Photomischdetektoren (PMD) geeignet, wie sie u.a. in der DE 197 04 496 AI beschrieben und beispielsweise von der Firma 'ifm electronic GmbH' oder 'PMD-Technologies GmbH' als 03D-Kamera bzw. als CamCube zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.

Aufgabe der Erfindung ist es, die Genauigkeit der Entfernungsmessung eines

Lichtlaufzeitkamerasystems zu verbessern.

Die Aufgabe wird durch die erfindungsgemäße Vorrichtung und das erfindungsgemäße Verfahren gemäß der unabhängigen Ansprüche gelöst.

Vorteilhaft ist ein Verfahren zum Kalibrieren oder/und Evaluieren einer Lichtlaufzeitkamera mit Hilfe einer Referenzfiäche vorgesehen, wobei die Lichtlaufzeitkamera einen

Lichtlaufzeitsensor bestehend aus einem Array von Lichtlaufzeitpixeln aufweist, bei dem zur Kalibrierung oder/und Evaluierung der Lichtlaufzeitkamera durch translatorische

Abstandsänderungen verschiedene Abstände zwischen der Lichtlaufzeitkamera und der Referenzfläche eingestellt werden, mit den Schritten:

- Ermittlung von ersten Entfernungsdaten für einen ersten Abstand

- Ermittlung von zweiten Entfernungsdaten für einen zweiten Abstand,

- Berechnung von Entfernungsdifferenzen aus den ersten und zweiten Entfernungsdaten

- Ermittlung einer Orientierung der Lichtlaufzeitkamera (1, 20) zur Referenzfiäche (45) ausgehend von den berechneten Entfernungsdifferenzen.

Dieses Vorgehen hat den Vorteil, dass zu einer Kalibrierung die Lichtlaufzeitkamera nicht mit hoher Präzision in Relation zur Referenzfläche ausgerichtet werden braucht. - -

Es ist ferner vorgesehen, das ausgehend von den Entfernungsdifferenzen ein Aufpunkt auf dem Lichtlaufzeitsensor berechnet wird, an dessen Position die Entfernungsdifferenzen ein Minimum aufweisen.

Wobei ausgehend von der Position des bestimmten Aufpunkts oder/und eines um den

Aufpunkt liegenden Pixelbereichs eine Orientierung des Lichtlaufzeitsensors (22) bzw. der Lichtlaufzeitkamera (1, 20) in Relation zur Referenzfläche (45) ermittelt wird, und anhand der ermittelten Orientierung des Lichtlaufzeitsensors (22) eine Kalibrierung oder/und Evaluation der Licht laufzeitkamera (1, 20) erfolgt.

Besonders vorteilhaft ist es, wenn ausgehend von den erfassten Entfernungsdaten und der ermittelten Orientierung ein ,fixed pattern phase noise' (FPPN) ermittelt wird.

Ebenso vorteilhaft ist eine Vorrichtung zur Durchführung eines der vorgenannten Verfahren vorgesehen.

Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert.

Es zeigen:

Figur 1 schematisch ein Lichtlaufzeitkamerasystem,

Figur 2 eine modulierte Integration erzeugter Ladungsträger,

Figur 3 eine erfindungsgemäße Kalibriervorrichtung

Bei der nachfolgenden Beschreibung der bevorzugten Ausführungsformen bezeichnen gleiche Bezugszeichen gleiche oder vergleichbare Komponenten.

Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einer

Lichtlaufzeitkamera, wie sie beispielsweise aus der DE 197 04 496 AI bekannt ist.

Das Lichtlaufzeitkamerasystem 1 umfasst eine Sendeeinheit bzw. ein Beleuchtungsmodul 10 mit einer Beleuchtung 12 und einer dazugehörigen Strahlformungsoptik 15 sowie eine Empfangseinheit bzw. Lichtlaufzeitkamera 20 mit einer Empfangsoptik 25 und einem

Lichtlaufzeitsensor 22.

Der Lichtlaufzeitsensor 22 weist mindestens ein Laufzeitpixel, vorzugsweise auch ein Pixel- Array auf und ist insbesondere als PMD-Sensor ausgebildet. Die Empfangsoptik 25 besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 15 der Sendeeinheit 10 kann beispielsweise als - -

Reflektor oder Linsenoptik ausgebildet sein. In einer sehr einfachen Ausgestaltung kann ggf. auch auf optische Elemente sowohl empfangs- als auch sendeseitig verzichtet werden.

Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasenverschiebung des emittierten und empfangenen Lichts die Laufzeit und somit die zurückgelegte Wegstrecke des empfangenen Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle 12 und der Licht laufzeitsensor 22 über einen Modulator 30

gemeinsam mit einem bestimmten Modulationssignal M 0 mit einer Basisphasenlage φο beaufschlagt. Im dargestellten Beispiel ist ferner zwischen dem Modulator 30 und der Lichtquelle 12 ein Phasenschieber 35 vorgesehen, mit dem die Basisphase φο des

Modulationssignals Mo der Lichtquelle 12 um definierte Phasenlagen (p va r verschoben werden kann. Für typische Phasenmessungen werden vorzugsweise Phasenlagen von (p va r = 0°, 90°, 180°, 270° verwendet.

Entsprechend des eingestellten Modulationssignals sendet die Lichtquelle 12 ein

intensitätsmoduliertes Signal S pl mit der ersten Phasenlage pl bzw. pl = φο + ( var aus. Dieses Signal S pl bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 40 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke entsprechend phasenverschoben Δφ(^) mit einer zweiten Phasenlage p2 = φο + (pvar + Δφ(^) als

Empfangssignal S p2 auf den Licht laufzeitsensor 22. Im Lichtlaufzeitsensor 22 wird das Modulationssignal M 0 mit dem empfangenen Signal S p2 gemischt, wobei aus dem

resultierenden Signal die Phasenverschiebung bzw. die Objektentfernung d ermittelt wird.

Als Beleuchtungsquelle bzw. Lichtquelle 12 eignen sich vorzugsweise Infrarot-Leuchtdioden. Selbstverständlich sind auch andere Strahlungsquellen in anderen Frequenzbereichen denkbar, insbesondere kommen auch Lichtquellen im sichtbaren Frequenzbereich in Betracht.

Das Grundprinzip der Phasenmessung ist schematisch in Figur 2 dargestellt. Die obere Kurve zeigt den zeitlichen Verlauf des Modulationssignals Mo mit der die Beleuchtung 12 und der Lichtlaufzeitsensor 22 angesteuert werden. Das vom Objekt 40 reflektierte Licht trifft als Empfangssignal S p2 entsprechend seiner Lichtlaufzeit tL phasenverschoben Δφ(ΐ^ auf den Lichtlaufzeitsensor 22. Der Lichtlaufzeitsensor 22 sammelt die photonisch erzeugten

Ladungen q über mehrere Modulationsperioden in der Phasenlage des Modulationssignals Mo in einem ersten Akkumulationsgate Ga und in einer um 180° verschobenen Phasenlage Mo + 180° in einem zweiten Akkumulationsgate Gb. Aus dem Verhältnis der im ersten und zweiten - -

Gate Ga, Gb gesammelten Ladungen qa, qb lässt sich die Phasenverschiebung Δφ(^) und somit eine Entfernung d des Objekts bestimmen.

Zur Charakterisierung von 2D-Kamera-Systemen ist es üblich eine solche Kamera und/oder ein Target auf einer linearen Verfahreinheit anzuordnen und gegeneinander zu verschieben. Üblicherweise ist es vorgesehen, das Target, beispielsweise ein geeignetes Test-Chart, gut zu beleuchten und die Kamera gegenüber dem Target zu verschieben. So wird vermieden, dass auch die Targetbeleuchtung mit verschoben werden muss.

Eine vergleichbare Anordnung kann grundsätzlich auch zur Evaluierung und/oder

Kalibrierung eines Abstandssensors herangezogen werden. Zur Vermessung von 3D-Kameras wird vorzugsweise eine Linear- Verfahreinheit verwendet, die normal, d.h. senkrecht, zu einer planaren Referenzfläche bekannter Reflektivität in einer streulichtarmen Umgebung ausgerichtet ist. Streulichtarm bedeutet hier, dass das Material oder die Farbe des

Messaufbaus nicht-reflektierend im relevanten Lichtspektrum, üblicherweise nahes Infrarot, ist. Die auszumessende 3D-Kamera ist auf der Verfahreinheit angeordnet und durch verschieben der Verfahreinheit mitsamt der Kamera werden Daten (Rohdaten) der Kamera in verschiedenen Abständen aufgenommen und ausgewertet.

Für eine präzise Evaluation von Restfehlern der Distanzmessung und/oder zur Kalibration von systematischen Messfehlern, die beispielsweise als so genanntes„Wiggling" bekannt sind, ist es erforderlich, präzise Referenzwerte zu messen. Bei einer oben genannten

Verfahreinheit bzw. Messschiene bedeutet das in der Regel, eine präzise mechanische Ausrichtung der Kamera gegenüber der Referenzfläche/Target. Voraussetzung ist, dass die Verfahreinheit präzise senkrecht gegenüber einer planaren Referenzfläche bzw. demTarget ausgerichtet ist. Diese mechanische Ausrichtung ist aufwendig und fehleranfällig.

Kernüberlegung der Erfindung ist es, den Aufwand für eine Kalibrierung/Evaluation einer Kamera zu verringern.

Die Erfindung geht aus von folgenden Überlegungen: Wird eine Lichtlaufzeitkamera um eine bestimmte Distanz verfahren, z.B. 1000 mm, dann sollte sich aus den Entfernungsdaten der Kamera exakt diese Differenz ermitteln können. Das gilt grundsätzlich allerdings nur für den Pixel, dessen Blickwinkel durch das Objektiv der Kamera normal auf die Referenzfläche ausgerichtet ist.

Ein solcher Pixel mit einem orthogonalen Blickwinkel auf die Referenzfläche zeichnet sich dadurch aus, der er den kleinsten Abstand zu Referenzfläche aufweist. Da jedes Pixel einen - - individuellen Offset besitzt (,fixed pattern phase noise' (FPPN)), ist es zunächst ohne Kalibration nicht möglich, den Pixel mit dem geringsten Abstand zur Referenzfläche durch eine direkte Messung zu ermitteln.

Erfindungsgemäß wird vorgeschlagen, dass die Differenzwerte zweier (oder mehrerer) Messungen in unterschiedlichen Distanzen ausgewertet werden. In einem solchen

Differenzbild ist das FPPN nicht mehr vorhanden. Durch die gegebene Präzision in der Ausrichtung der Verfahreinheit gegenüber der Referenzfläche ist gewährleistet, dass der Minimalwert im Differenzbild die Pixelposition definiert, die orthogonal auf die

Referenzfläche blickt. Diese Pixelposition kann zur Auswertung der systematischen

Messfehlern, beispielsweise des Wigglings, bei beliebigen Abständen, eingestellt durch die Verfahreinheit, herangezogen werden.

Die oben beschriebene Methode erfordert ausdrücklich keine besondere Präzision in der Montage der Kamera und ist daher sehr robust und liefert eine sehr hohe Datenqualität.

Die oben beschriebene Methode erlaubt es ferner, unter Zuhilfenahme einer Linsenkalibration des Kameraobjektivs die Kalibration des FPPNs eines Licht laufzeitsensors zu verbessern. Mittels einer Linsenkalibration lassen sich dann die tatsächlichen Abstände der einzelnen Bildpixel zu ihren jeweiligem Zielpunkt auf der Referenzfläche bestimmen.

Das FPPN ergibt sich als Differenz von tatsächlichem und gemessenem Abstand. Ein Ausrichtungsfehler bei einer herkömmlichen Kalibration führt somit zu Fehlern in der FPPN- Kalibration.

Durch die erfindungsgemäße Methode ist allerdings bereits die Pixelposition im Bild präzise bestimmt worden, die orthogonal auf die Fläche ausgerichtet ist. Mittels der Daten der Linsenkalibration lässt sich daraus eine eventuell vorhandene Rotation bzw. Orientierung der Kamera gegenüber der Referenzfläche bestimmen und daraus wiederum die tatsächlichen Abstände zur FPPN-Bestimmung entsprechend korrigieren.

Die erfindungsgemäße Methode ist identisch anwendbar, wenn an Stelle der Kamera die Referenzfläche auf einer linearen Verfahreinheit montiert ist.

Das Verfahren ermöglicht eine sehr hohe Präzision von Kalibrationsdaten wie Wiggling und FPPN, ohne dass eine präzise, aufwendige mechanische Ausrichtung einer einzelnen Kamera notwendig ist. Es wird lediglich ausgenutzt, dass die lineare Verfahreinheit präzise gegenüber der planaren Messfläche ausgerichtet ist. - -

Figur 3 zeigt schematisch das erfindungsgemäße Vorgehen. Im dargestellten Beispiel ist die Lichtlaufzeitkamera 20 nicht planparallel zum Objekt bzw. Referenzfläche 45 angeordnet. Im Bereich des Blickfeldes FOV (field of view) existiert jedoch ein orthogonaler Sichtvektor OV der parallel zur Normalen der Referenzfläche ausgerichtet ist. Dieser orthogonale Sichtvektor OV entspricht einem Aufpunkt auf dem Lichtlaufzeitsensor. Bei einer rein translatorischen Bewegung der Kamera 20 bleibt die parallele Ausrichtung des orthogonalen Sichtvektors OV zur Normalen der Referenzfläche 45 erhalten und auch die Position des Aufpunkts AP auf dem Lichtlaufzeitsensor ändert sich nicht. Der Aufpunkt weist grundsätzlich den minimalsten (optischen) Abstand zur Referenzfläche auf.

Erfindungsgemäß ist es für eine Kalibrierung vorgesehen, für mindestens zwei Abstände dl, d2 Entfernungsdaten und Differenzen zu ermitteln, (ij kennzeichnet das Pixel ij im

Sensorarray) d 12 ij — + FPPN) - (d Uj + FFPN)

In bekannter Weise hebt sich durch die Differenzbildung das fixed pattern noise auf. Über alle Pixel ij lässt sich dann ein Tiefenbild bzw. in diesem Fall ein Differenztiefenbild ermitteln.

Zur Bestimmung der Orientierung des Lichtlaufzeitsensors 22 in Relation zur Referenzfläche 45 wird zunächst ein Punkt/ Aufpunkt auf dem Lichtlaufzeitsensor 22 bestimmt, an dem die Entfernungsdifferenz di 2 bzw. das Differenztiefenbild ein Minimum aufweist.

In einer möglichen Ausgestaltung wird als Aufpunkt die Position des Pixels bestimmt, das die minimalste Entfernungsdifferenz aufweist.

Besonders vorteilhaft ist es jedoch vorgesehen, anhand der pixelindividuellen

Entfernungsdifferenzen einen Aufpunkt zu extrapolieren. Beispielsweise könnte das

Entfernungs-Minimum in einem hochskalierten und geglätteten Differenztiefenbild bestimmt werden. Dieses Vorgehen hat den Vorteil, dass die Position des Aufpunkts losgelöst von der Sensorauflösung genauer bestimmt und somit auch die Orientierung des Lichtlaufzeitsensors und im Ergebnis die FPPN-Korrektur präziser berechnen werden kann.

In Figur 3 ist der Einfachheit halber nur die Lichtlaufzeitkamera 20 gezeigt, grundsätzlich funktioniert das erfindungsgemäße Vorgehen auch, indem das vollständige

Lichtlaufzeitkamerasystem 1, mit Kamera 20 und Beleuchtung 10 gemeinsam translatorisch bewegt werden. . .

Bezugszeichen

1 Lichtlaufzeitkamerasystem

10 Beleuchtungsmodul

12 Beleuchtung

20 Empfänger, Lichtlaufzeitkamera

22 Lichtlaufzeitsensor

30 Modulator

35 Phasenschieber, Beleuchtungsphasenschieber

40 Objekt

45 Referenzfläche, Target

φ, A( (tL> laufzeitbedingte Phasenverschiebung

( V ar Phasenlage

φο Basisphase

Mo Modulationssignal

pl erste Phase

p2 zweite Phase

Sp 1 Sendesignal mit erster Phase

Sp2 Empfangssignal mit zweiter Phase

Ga, Gb Integrationsknoten

d Objektdistanz

q Ladung

FOV field of view, Blickfeld

OV Orthogonaler Vektor