Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR DETERMINING, BY SCANNING, THE DISTANCE AND SPEED OF AT LEAST ONE OBJECT
Document Type and Number:
WIPO Patent Application WO/2022/013422
Kind Code:
A1
Abstract:
The invention relates to a method for determining, by scanning, the distance and speed of at least one object (W1, W2, W3). An optical signal is emitted from a light source with a frequency which varies over time. Then, a first local differential frequency distribution (D1) is calculated, which specifies, for different pixels on the object, the differential frequency between a measurement signal originating from the optical system and being reflected on the respective pixel and a reference signal not being reflected on the object. Furthermore, a second such local differential frequency distribution (D2) is determined. In a further step, the two differential frequency distributions (D1, D2) are adjusted by carrying out a transformation of the respective local scanning points (pixels) of the first and/or second local differential frequency distribution (D1, D2) in such a manner that after this alignment in the two differential frequency distributions (D1', D2'), pixels corresponding to one another originate from the same object point. Distance and speed are calculated for each of these pixels on the at least one object using the two aligned differential frequency distributions (D1', D2').

Inventors:
HORN JAN (DE)
Application Number:
PCT/EP2021/069954
Publication Date:
January 20, 2022
Filing Date:
July 16, 2021
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
ZEISS CARL AG (DE)
International Classes:
G01S7/493; G01S17/34; G01S17/42; G01S17/58; G01S17/89; G01S7/481
Foreign References:
US20200182978A12020-06-11
US6317073B12001-11-13
US10209360B22019-02-19
Other References:
D. LOWE: "Dis-tinctive image features from scale-invariant keypoints", INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 60, no. 2, 2004, pages 91 - 110
C. STILLER ET AL.: "Digital Image Sequence Processing, Compression and Analysis", 2005, CRC PRESS, article "The computation of motion", pages: 73 - 108
D. LOWE: "Distinctive image features from scale-invariant keypoints", INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 60, no. 2, 2004, pages 91 - 110, XP019216426, DOI: 10.1023/B:VISI.0000029664.99615.94
Attorney, Agent or Firm:
OSTERTAG & PARTNER PATENTANWÄLTE MBB (DE)
Download PDF:
Claims:
Patentansprüche

1. Verfahren zur scannenden Abstands- und Geschwindigkeitsermittlung wenigstens eines Objekts, wobei das Verfahren folgende Schritte aufweist:

• Aussenden, unter Verwendung einer Lichtquelle, eines optischen Signals mit zeitlich variierender Frequenz;

• Bestimmen einer ersten örtlichen Differenzfrequenz-Verteilung (D1), welche für unterschiedliche Pixel auf dem wenigstens einen Objekt (W1, W21, W3) jeweils die Differenzfrequenz (fbU) zwischen einem aus dem optischen Signal hervorgegangenen, an dem jeweiligen Pixel reflektierten Messsignal und ei nem nicht an dem Objekt (W1, W21, W3) reflektierten Referenzsignal angibt;

• Bestimmen einer zweiten örtlichen Differenzfrequenz-Verteilung (D2), welche für unterschiedliche Pixel auf dem wenigstens einen Objekt (W1, W21, W3) jeweils die Differenzfrequenz zwischen einem aus dem optischen Signal her vorgegangenen, an dem jeweiligen Pixel reflektierten Messsignal und einem nicht an dem Objekt (W1, W21, W3) reflektierten Referenzsignal angibt;

• Angleichen der ersten und der zweiten Differenzfrequenz-Verteilung unter Durchführung einer Transformation der jeweiligen örtlichen Abtastpunkte (Pixel) der ersten und/oder der zweiten örtlichen Differenzfrequenz- Verteilung derart, dass nach dieser Angleichung in den beiden Differenzfre quenz-Verteilungen (DV, D2') einander korrespondierende Pixel vom glei chen Objektpunkt herrühren; und

• Ermitteln von Abstand und Geschwindigkeit für jedes dieser Pixel auf dem wenigstens einen Objekt (W1, W21, W3) unter Verwendung der beiden an geglichenen Differenzfrequenz-Verteilungen (DV, D2').

2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Durchführung der Transformation eine Koregistrierung zwischen der ersten und der zweiten Diffe renzfrequenz-Verteilung (D1, D2) umfasst.

3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass sich die für die Bestimmung der ersten örtlichen Differenzfrequenz-Verteilung (D1) und die für die Bestimmung der zweiten örtlichen Differenzfrequenz-Verteilung (D2) jeweils herangezogenen Messsignale hinsichtlich der Zeitabhängigkeit der Frequenz des verwendeten optischen Signals voneinander unterscheiden.

4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die zum Angleichen der ersten und der zweiten Differenzfrequenz-Verteilung (D1, D2) durchgeführte Transformation eine nicht-affine Transformation ist.

5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zum Angleichen der ersten und der zweiten Differenzfrequenz- Verteilung (D1, D2) durchgeführte Transformation basierend auf den Differenz frequenz-Verteilungen (D1, D2) berechnet wird.

6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zum Angleichen der ersten und der zweiten Differenzfrequenz- Verteilung (D1, D2) durchgeführte Transformation basierend auf den jeweiligen zu den Differenzfrequenz-Verteilungen gehörenden Signalstärke-Verteilungen berechnet wird.

7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zum Angleichen der ersten und der zweiten Differenzfrequenz- Verteilung (D1, D2) durchgeführte Transformation sowohl basierend auf den Dif ferenzfrequenz-Verteilungen (D1, D2) als auch basierend auf den jeweiligen zu den Differenzfrequenz-Verteilungen (D1, D2) gehörenden Signalstärke- Verteilungen berechnet wird.

8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Abstandsbild und ein Geschwindigkeitsbild einer Szene berechnet wer den, wobei jedes Pixel innerhalb des Abstands- bzw. Geschwindigkeitsbildes je weils einen Abstands- bzw. Geschwindigkeitswert innerhalb der Szene repräsen tiert.

9. Vorrichtung zur scannenden Abstands- und Geschwindigkeitsermittlung wenigs tens eines Objekts (W1, W2, W3) , dadurch gekennzeichnet, dass die Vorrichtung zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche ausgelegt ist.

Description:
Verfahren und Vorrichtung zur scannenden Abstands- und Ge- schwindigkeitsermittlung wenigstens eines Objekts

HINTERGRUND DER ERFINDUNG

1. Gebiet der Erfindung

Die Erfindung betrifft ein Verfahren und eine Vorrichtung zur scannenden Abstands und Geschwindigkeitsermittlung wenigstens eines Objekts. Das Verfahren bzw. die Vorrichtung kann zur Ermittlung von Abständen sowohl bewegter als auch unbewegter Objekte und insbesondere zur Ermittlung der Topographie bzw. Form eines räumlich ausgedehnten dreidimensionalen Objekts verwendet werden.

2. Stand der Technik

Zur optischen Abstandsmessung von Objekten ist u.a. ein auch als LIDAR bezeichnetes Messprinzip bekannt, bei welchem ein optisches Signal zu dem betreffenden Objekt hin ausgestrahlt und nach an dem Objekt erfolgter Rückreflexion ausgewertet wird. In der Praxis kommen sowohl laufzeitbasierte Messsysteme (TOF-LIDAR-Messsysteme,

TOF = „time of flight"), bei denen direkt die Laufzeit des Laserlichts zum jeweiligen Ob jekt und zurück gemessen wird, als auch FMCW-LIDAR-Messsysteme mit Verwendung eines frequenzmodulierten FMCW-Lasers (FMCW= „frequency-modulated continuous wave") zum Einsatz. Fig. 6a zeigt lediglich in schematischer Darstellung einen für sich bekannten prinzipiel len Aufbau, in welchem ein von einer Lichtquelle 610 ausgesandtes Signal 611 mit zeit lich veränderter Frequenz (auch als „Chirp" bezeichnet) in zwei Teilsignale aufgespalten wird, wobei diese Aufspaltung z.B. über einen nicht dargestellten Strahlteiler (z.B. einen teildurchlässigen Spiegel oder einen faseroptischen Splitter) erfolgt. Die beiden Teil- Signale werden über einen Signalkoppler 645 gekoppelt und an einem Detektor 650 einander überlagert, wobei das erste Teilsignal als Referenzsignal 622 ohne Reflexion an dem mit „640" bezeichneten Objekt zum Signalkoppler 645 und zum Detektor 650 gelangt. Das zweite am Signalkoppler 645 bzw. am Detektor 650 eintreffende Teilsignal verläuft hingegen als Messsignal 621 über einen optischen Zirkulator 620 und einen Scanner 630 zum Objekt 640, wird von diesem zurückreflektiert und gelangt somit im Vergleich zum Referenzsignal 622 mit einer Zeitverzögerung und entsprechend veränderter Fre quenz zum Signalkoppler 645 und zum Detektor 650. Über eine Auswerteeinrichtung 660 wird das vom Detektor 650 gelieferte Detektorsignal relativ zur Messvorrichtung bzw. der Lichtquelle 610 ausgewertet, wobei die zu einem bestimmten Zeitpunkt er fasste Differenzfrequenz zwischen Messsignal 621 und Referenzsignal 622 charakteris tisch für den Abstand des Objekts 640 von der Messvorrichtung bzw. der Lichtquelle 610 ist. Dabei kann zum Erhalt zusätzlicher Information hinsichtlich der Relativge schwindigkeit zwischen dem Objekt 640 und der Messvorrichtung bzw. der Lichtquelle 610 der zeitabhängige Frequenzverlauf des von der Lichtquelle 610 ausgesandten Sig nals 611 auch so beschaffen sein, dass zwei Abschnitte bzw. Teilsignale vorliegen, in denen die zeitliche Ableitung der von der Lichtquelle 610 erzeugten Frequenz zuei nander entgegengesetzt ist, wobei die entsprechenden Abschnitte bzw. Teilsignale dann als „up-chirp" und „down-chirp" bezeichnet werden können.

Aus den für diese beiden Teilsignale bestimmten Differenz- bzw. Schwebungsfrequen zen werden dann sowohl die Dopplerverschiebung f als auch die hinsichtlich des Dopplereffekts korrigierte Schwebungsfrequenz f wie folgt berechnet: f bd f bu h = 2 (1) f bd f bu

†D — 2 (2) wobei f u die Schwebungsfrequenz während des „up-chirp" und f die Frequenz während des „down-chirp" bezeichnet.

In Fig. 6b sind für Messsignal 621 und Referenzsignal 622 sowohl die Zeitabhängigkeit der Frequenz f als auch die Zeitabhängigkeit der Frequenz f s des Detektorsignals, welche der jeweiligen Schwebungsfrequenz f u, f während des „up-chirp" bzw. wäh rend des „down-chirp" entspricht, aufgetragen. Der Zusammenhang zwischen dem Objektabstand d und der hinsichtlich des Dopplereffekts korrigierten Schwebungsfre quenz f b ist dann gegeben durch f b = 2*K*d/c (3) wobei K die Chirprate der Frequenzdurchstimmung und c die Lichtgeschwindigkeit be zeichnen.

Fig. 7 zeigt ausgehend von dem zuvor anhand von Fig. 6a-6b beschriebenen Aufbau eine schematische Darstellung zur Erläuterung des Signalflusses bei der Abstands- bzw. Geschwindigkeitsberechnung. Dabei umfasst der mit „700" bezeichnete Block („FMCW-Vorrichtung") sämtliche in Fig. 6a dargestellten Komponenten bis auf den Scanner 630, d.h. die Lichtquelle 610, den optischen Zirkulator 620, den Signalkoppler 645 den Detektor 650 und die Auswerteeinrichtung 660. Zwischen diesem Block bzw. der FMCW-Vorrichtung 700 und dem in Fig. 7 mit „730" bezeichneten Scanner kann die Übertragung der jeweiligen optischen (Mess-)Signale z.B. wellenleiterbasiert auf ei nem photonisch integrierten Schaltkreis (PIC) realisiert sein. Über die innerhalb der FMCW-Vorrichtung 700 vorhandene Auswerteeinrichtung erfolgt die Berechnung der Abstand- und Geschwindigkeitsdaten unmittelbar auf Basis der Schwebungs- bzw. Dif ferenzfrequenzen (zwischen Mess- und Referenzsignal), und auf dieser Basis über ei nen Block 760 eine entsprechende Szenenbild-Berechnung unter Bereitstellung eines Abstandsbildes und eines Geschwindigkeitsbildes.

Ein in der Praxis auftretendes Problem ist jedoch, dass die vorstehend dargestellte Ab stands- und Geschwindigkeitsermittlung von Annahmen ausgeht, welche u.U. zumin dest teilweise nicht erfüllt sind: Konkret liegt den vorstehenden Berechnungen zum ei nen die Annahme zugrunde, dass die jeweiligen, für die Schwebungsfrequenzen wäh rend des „up-chirp" und während des „down-chirp" herangezogenen Messsignale aus derselben Strahlrichtung bzw. von dem gleichen Objektort kommen. Des Weiteren liegt den vorstehenden Berechnungen auch die Annahme zugrunde, dass die Zeitdau er des jeweiligen „up-chirp" bzw. „down-chirp" hinreichend kurz ist, um von einer kon stanten Geschwindigkeit des Objekts in der jeweiligen Strahlrichtung bzw. einem kon stanten Objektabstand ausgehen zu können. Insbesondere die o.g. Annahme übereinstimmender Strahlrichtungen bzw. Objektorte der für den „up-chirp" und den „down-chirp" herangezogenen Messsignale ist in Sze narien nicht mehr gerechtfertigt, bei denen etwa infolge einer vergleichsweise schnel len, innerhalb der betrachteten Szene stattfindenden Bewegung z.B. das Messsignal während des „up-chirp" noch von einem Fahrzeug, während des „down-chirp" jedoch - infolge zwischenzeitlicher Weiterbewegung des Fahrzeugs - bereits von einem ande ren Objekt (z.B. einem Gebäude, Baum etc.) zurückreflektiert wird.

Des Weiteren erweist sich die Annahme übereinstimmender Strahlrichtungen auch in Szenarien als unzutreffend, in denen die zum Abscannen des Objekts verwendete Scaneinrichtung selbst eine Weiterbewegung des jeweiligen Messstrahls während des Scanvorgangs bewirkt, weil etwa die Scaneinrichtung ein mechanisch bewegliches Ab lenkspiegel in Kombination mit einem dispersiven optischen Element zwecks Realisie rung eines zweidimensionalen Scanvorgangs einsetzt.

Da in den vorstehend beschriebenen Szenarien die zur Berechnung der Schwebungs frequenzen f bu, f bd herangezogenen Messsignale letztlich aus unterschiedlichen Strahlrichtungen bzw. von unterschiedlichen Objektpunkten stammen, ist eine fehler hafte Interpretation der Messergebnisse und somit eine fehlerhafte Erfassung der be trachteten Szene die Folge.

Fig. 8a-8c zeigen lediglich schematische und stark vereinfachte Skizzen zur Veran schaulichung der vorstehenden Überlegungen.

Dabei zeigt Fig. 8a ein Szenario, bei welchem keinerlei Bewegung in der betrachteten Szenerie stattfindet und die sowohl für den „up-chirp" als auch für den „down-chirp" jeweils erhaltenen Schwebungs- bzw. Differenzfrequenzen der gleichen Strahlrichtung des Messsignals bzw. übereinstimmenden Objektpunkten zugeordnet sind. Fig. 8b ent spricht einem Szenario, bei welchem das betrachtete Objekt bzw. Fahrzeug sich von links nach rechts bewegt, und Fig. 8c zeigt ein Szenario, bei welchem zusätzlich zu der Objektbewegung von Fig. 8b eine Weiterbewegung des jeweiligen Messstrahls wäh rend des Scanvorgangs erfolgt. Während im Szenario von Fig. 8a eine störungsfreie Abbildung der Szene gegeben ist, ergibt sich für die Szenarien von Fig. 8b und Fig. 8c eine fehlerhafte Erfassung.

Zum Stand der Technik wird lediglich beispielhaft auf die Publikationen D. Lowe: „Dis- tinctive image features from scale-invariant keypoints", International Journal of Com puter Vision 60 (2004), Nr. 2, S. 91-110 und C. Stiller et al.: "The computation of moti- on", in: T. Reed (Hrsg.): „Digital Image Sequence Processing, Compression and Analy sis", CRC Press (2005), S. 73-108, verwiesen.

ZUSAMMENFASSUNG DER ERFINDUNG

Vor dem obigen Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein Ver fahren und eine Vorrichtung zur scannenden Abstands- und Geschwindigkeitsermitt lung wenigstens eines Objekts bereitzustellen, welche eine möglichst genaue und zu verlässige Abstandsmessung unter zumindest teilweiser Vermeidung der vorstehend beschriebenen Nachteile ermöglichen.

Diese Aufgabe wird durch das Verfahren gemäß den Merkmalen des unabhängigen Patentanspruchs 1 bzw. die Vorrichtung gemäß den Merkmalen des nebengeordneten Patentanspruchs 9 gelöst.

Ein erfindungsgemäßes Verfahren zur scannenden Abstands- und Geschwindigkeits ermittlung wenigstens eines Objekts weist folgende Schritte auf:

Aussenden, unter Verwendung einer Lichtquelle, eines optischen Signals mit zeit lich variierender Frequenz;

Bestimmen einer ersten örtlichen Differenzfrequenz-Verteilung, welche für unter schiedliche Pixel auf dem wenigstens einen Objekt jeweils die Differenzfrequenz zwischen einem aus dem optischen Signal hervorgegangenen, an dem jeweiligen Pixel reflektierten Messsignal und einem nicht an dem Objekt reflektierten Refe renzsignal angibt;

Bestimmen einer zweiten örtlichen Differenzfrequenz-Verteilung, welche für unter schiedliche Pixel auf dem wenigstens einen Objekt jeweils die Differenzfrequenz zwischen einem aus dem optischen Signal hervorgegangenen, an dem jeweiligen Pixel reflektierten Messsignal und einem nicht an dem Objekt reflektierten Refe renzsignal angibt;

Angleichen der ersten und der zweiten Differenzfrequenz-Verteilung unter Durch führung einer Transformation der jeweiligen örtlichen Abtastpunkte (Pixel) der ers ten und/oder der zweiten örtlichen Differenzfrequenz-Verteilung derart, dass nach dieser Angleichung in den beiden Differenzfrequenz-Verteilungen einander kor respondierende Pixel vom gleichen Objektpunkt herrühren; und

Ermitteln von Abstand und Geschwindigkeit für jedes dieser Pixel auf dem wenigs tens einen Objekt unter Verwendung der beiden angeglichenen Differenzfrequenz- Verteilungen.

Der Erfindung liegt insbesondere das Konzept zugrunde, die für die Abschnitte bzw. Teilsignale mit unterschiedlicher Zeitabhängigkeit der von der Lichtquelle erzeugten Frequenz (insbesondere also für „up-chirp" und „down-chirp") detektorseitig ermittel ten Schwebungsfrequenzen nicht unmittelbar zur Abstands- bzw. Geschwindigkeits ermittlung (auf Basis der eingangs angegebenen Formeln (1) und (2)) heranzuziehen.

Vielmehr erfolgt erfindungsgemäß zunächst eine Anpassung (engl.: „Matching") der für den „up-chip" erhaltenen örtlichen Verteilung von Differenzfrequenz-Werten und/und der für den „down-chirp" erhaltenen Verteilung von Differenzfrequenz-Werten anei nander dahingehend, dass die in den entsprechend angepassten Verteilungen einan der korrespondierenden Differenzfrequenz-Werte von Messsignalen stammen, die von ein- und demselben Ort auf dem Objekt bzw. innerhalb der betrachteten Szene reflek tiert wurden. Mit anderen Worten werden die Abtastpunkte in beiden Differenzfre quenz-Verteilungen so aneinander angeglichen, dass von in den beiden Verteilungen korrespondierenden Pixeln die jeweiligen Informationen vom gleichen Objektpunkt herrühren.

Gemäß einer Ausführungsform umfasst die Durchführung der Transformation eine Ko- registrierung zwischen der ersten und der zweiten Differenzfrequenz-Verteilung. Erfindungsgemäß können dabei die genannten Differenzfrequenz-Verteilungen jeweils für sich genommen als Bild interpretiert werden, so dass besagte Anpassung im Wege einer Koregistrierung (d.h. unter Anwendung einer für sich bekannten Methode der Bildverarbeitung) insoweit miteinander in Übereinstimmung gebracht werden, dass die jeweils entsprechenden Bildbereiche denselben Pixeln auf dem Objekt entsprechen.

Indem nun für die Abstands- bzw. Geschwindigkeitsermittlung Differenzfrequenz- Werte erst nach der vorstehend beschriebenen Anpassung bzw. Koregistrierung ver wendet werden, wird erfindungsgemäß sichergestellt, dass die letztlich verwendeten Informationen aus dem „up-chirp" und dem „down-chirp" für die Berechnung eines bestimmten Abstands- und Geschwindigkeitswertes auch von ein- und demselben Pi xel auf dem Objekt (bzw. vom gleichen Ort innerhalb der betrachteten Szene) stam men.

Unter erneuter Bezugnahme auf die o.g. Interpretation der beiden erfindungsgemäß ermittelten Differenzfrequenz-Verteilungen als „Bilder" bedeutet die bei der Erfindung erfolgende Durchführung einer Koregistrierung, dass vor der eigentlichen Abstand- und Geschwindigkeitsberechnung im Wege der Bildverarbeitung eine Transformation wenigstens eines der beiden Bilder in solcher Weise durchgeführt wird, dass beide Bil der vor dem Verrechnen der Differenzfrequenzen zur Deckung gebracht werden (so dass die jeweiligen Pixel bzw. Objektorte für beide Bilder Übereinanderliegen).

Gemäß einer Ausführungsform unterscheiden sich die für die Bestimmung der ersten örtlichen Differenzfrequenz-Verteilung und die für die Bestimmung der zweiten örtli chen Differenzfrequenz-Verteilung jeweils herangezogenen Messsignale hinsichtlich der Zeitabhängigkeit der Frequenz des verwendeten optischen Signals voneinander.

Gemäß einer Ausführungsform ist die zum Angleichen der ersten und der zweiten Dif ferenzfrequenz-Verteilung durchgeführte Transformation eine nicht-affine Transforma tion. Mit anderen Worten geht die zum Angleichen der ersten und der zweiten Diffe renzfrequenz-Verteilung durchgeführte Transformation über eine rein affine Transfor mation (welche Verschiebungen, Skalierungen, Drehungen, Scherungen sowie Kombi nationen hiervon umfasst) hinaus, so dass die Transformation auch nicht- verzerrungsfrei (engl.: „non-rigid") erfolgt.

Gemäß einer Ausführungsform wird die zum Angleichen der ersten und der zweiten Differenzfrequenz-Verteilung durchgeführte Transformation basierend auf den Diffe renzfrequenz-Verteilungen berechnet.

Gemäß einer Ausführungsform wird die zum Angleichen der ersten und der zweiten Differenzfrequenz-Verteilung durchgeführte Transformation basierend auf den jeweili gen zu den Differenzfrequenz-Verteilungen gehörenden Signalstärke-Verteilungen be rechnet. Dabei können die zu den Differenzfrequenz-Verteilungen gehörenden Signal stärke-Verteilungen zusätzlich oder alternativ zu den eigentlichen Differenzfrequenz- Verteilungen für die Angleichung bzw. die Berechnung der hierzu durchzuführenden Transformation herangezogen werden.

In Ausführungsformen der Erfindung erfolgt somit die zuvor beschriebene Bildanpas sung nicht (oder nicht allein) unter Berücksichtigung der Peak-Positionen in den jewei ligen Differenzfrequenz-Verteilungen, sondern zusätzlich oder alternativ auch unter Berücksichtigung der jeweiligen Peakhöhen. Besagte Peakhöhen repräsentieren letzt lich die Reflektivität des Objekts (und damit die Helligkeit in einem entsprechenden Graustufenbild), so dass als zusätzliche Information auch Graustufenbilder der betrach teten Szene erhalten und zur Verbesserung des durchgeführten „Matchings" genutzt werden können.

Gemäß einer Ausführungsform werden ein Abstandsbild und ein Geschwindigkeitsbild einer Szene berechnet, wobei jedes Pixel innerhalb des Abstands- bzw. Geschwindig keitsbildes jeweils einen Abstands- bzw. Geschwindigkeitswert innerhalb der Szene re präsentiert.

Die Erfindung betrifft weiter auch eine Vorrichtung zur scannenden Abstands- und Ge schwindigkeitsermittlung wenigstens eines Objekts, welche zur Durchführung eines Verfahrens mit den vorstehend beschriebenen Merkmalen konfiguriert ist. Zu Vorteilen und vorteilhaften Ausgestaltungen der Vorrichtung wird auf die obigen Ausführungen im Zusammenhang mit dem erfindungsgemäßen Verfahren Bezug genommen. Weitere Ausgestaltungen der Erfindung sind der Beschreibung sowie den Unteran sprüchen zu entnehmen.

Die Erfindung wird nachstehend anhand von in den beigefügten Abbildungen darge stellten Ausführungsbeispielen näher erläutert.

KURZE BESCHREIBUNG DER ZEICHNUNGEN

Es zeigen:

Figur 1 -3 schematische Darstellungen zur Erläuterung eines erfindungs- gemäßen Verfahrens bzw. einer erfindungsgemäßen Vorrichtung zur Abstands- und Geschwindigkeitsermittlung in einer ersten Ausfüh- rungsform;

Figur 4-5 schematische Darstellungen zur Erläuterung eines erfindungs gemäßen Verfahrens bzw. einer erfindungsgemäßen Vorrichtung zur Abstands- und Geschwindigkeitsermittlung in einer weiteren Ausfüh rungsform; Figuren 6-7 schematische Darstellungen zur Erläuterung eines herkömmlichen

Verfahrens bzw. einer Vorrichtung zur Abstands- und Geschwindig keitsermittlung;

Figur 8a-8c schematische Skizzen zur Veranschaulichung eines der vorliegenden Erfindung zugrundeliegenden Problems Figur 9 Draufsicht auf eine Szene, bei der ein erfindungsgemäßer LIDAR

Scanner drei Wände abscannt, die unterschiedlich weit vom Scanner entfernt sind;

Figur 10 eine schematische Darstellung der Scantrajektorie auf den drei Wän den; Figur 11 die zueinander verschobenen Differenzfrequenz-Verteilungen auf grund des zeitlichen Versatzes von Up-Chirp und Down-Chirp; und Figur 12 die Differenzfrequenz-Verteilungen nach der Registrierung.

DETAILLIERTE BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN

Im Weiteren werden Aufbau und Funktionsweise einer erfindungsgemäßen Vorrich tung in beispielhaften Ausführungsformen unter Bezugnahme auf die schematischen Darstellungen in Fig. 1-5 sowie 9 bis 12 beschrieben.

1. Erstes Ausführungsbeispiel

Der mit „100" bezeichnete Block („FMCW-Vorrichtung") umfasst entsprechend dem anhand von Fig. 6a dargestellten Aufbau die herkömmlichen Komponenten Lichtquel le, optischer Zirkulator, Signalkoppler und Detektor. Die Lichtquelle weist einen fre quenzmodulierten FMCW-Laser (FMCW= „frequency-modulated continuous wave") zum Aussenden eines optischen Signals mit zeitlich variierender Frequenz („chirp") auf. Bei dem Laser kann es sich z.B. um einen DFB-Laser, um einen WGMR-Laser oder auch um einen VCSEL-Laser handeln. Zwischen der FMCW-Vorrichtung 100 und dem in Fig. 1 mit „130" bezeichneten Scanner kann die Übertragung der jeweiligen optischen (Mess-)Signale z.B. wellenleiterbasiert auf einem photonisch integrierten Schaltkreis (PIC) realisiert sein.

Des Weiteren umfasst die FMCW-Vorrichtung 100 auch eine vereinfachte Auswerteein richtung, welche anhand des vom Detektor gelieferten Detektorsignals zwar Schwe bungsfrequenzen und entsprechende Schwebungs- bzw. Differenzfrequenz- Verteilungen ermittelt, jedoch im Unterschied zum herkömmlichen Konzept von Fig. 6- 7 unmittelbar auf diesen Differenzfrequenz-Verteilungen noch keine Abstands- und Geschwindigkeitsermittlung durchführt.

Den im Weiteren unter Bezugnahme auf Fig. 1-5 sowie 9 bis 12 beschriebenen Ausfüh rungsformen ist insoweit nämlich gemeinsam, dass die Abstands- und Geschwindig keitsermittlung eines Objekts bzw. die entsprechende Szenenbild-Berechnung im Un terschied zu dem herkömmlichen, in Fig. 6a-6b und Fig. 7 dargestellten Konzept nicht unmittelbar basierend auf den mit der FMCW-Vorrichtung 100 ermittelten Differenz frequenz-Verteilungen für „up-chirp" und „down-chirp" erfolgt, sondern zunächst eine im Weiteren beschriebene Angleichung dieser Differenzfrequenz-Verteilungen vorge nommen wird.

Unter Bezugnahme zunächst auf Fig. 1 stellt somit die FMCW-Vorrichtung 100 sowohl für den „up-chirp" als auch für den „down-chirp" zunächst separate Schwebungsfre quenzbilder bzw. örtliche Differenzfrequenz-Verteilungen bereit. Sodann erfolgt erfin dungsgemäß zunächst eine Angleichung der beiden Differenzfrequenz-Verteilungen (d.h. der Schwebungsfrequenzbilder für „up-chirp" und „down-chirp"), was gemäß Fig. 2 einer Registrierung der betreffenden Schwebungsfrequenzbilder entspricht. Diese Angleichung bzw. Registrierung beinhaltet die Durchführung einer Transformation der ersten und/oder der zweiten örtlichen Differenzfrequenz-Verteilung, welche im Aus führungsbeispiel von Fig. 1-3 basierend auf den Differenzfrequenz-Verteilungen selbst (d.h. den jeweiligen Peak-Positionen in den Detektorsignal-Spektren) berechnet wird.

Hinsichtlich für sich bekannten Methoden der Registrierung wird auf die Publikationen D. Lowe: „Distinctive image features from scale-invariant keypoints", International Journal of Computer Vision 60 (2004), Nr. 2, S. 91-110 und C. Stiller et al.: "The compu- tation of motion", in: T. Reed (Hrsg.): „Digital Image Sequence Processing, Compressi- on and Analysis", CRC Press (2005), S. 73-108, verwiesen.

Die Berechnung von Abstand und Geschwindigkeit des Objekts bzw. Ermittlung der entsprechenden Szenenbilder erfolgt erfindungsgemäß - wie in Fig. 2 dargestellt - erst auf Basis der angeglichenen bzw. koregistrierten Schwebungsfrequenzbilder, so dass die beim eingangs beschriebenen herkömmlichen Ansatz (mit unmittelbarer Verwen dung der nicht angeglichenen Differenzfrequenz-Verteilungen) bestehenden Probleme und eine entsprechend fehlerhafte Bestimmung der Szenerie vermieden werden.

Mit der o.g. Durchführung einer Transformation der ersten und/oder der zweiten örtli chen Differenzfrequenz-Verteilung ist gemeint, dass alternativ entweder nur eine der beiden Differenzfrequenz-Verteilungen an die jeweils andere (unverändert gelassene) Verteilung angepasst oder auch beide Differenzfrequenz-Verteilungen jeweils trans formiert und auf diese Weise einander angenähert werden können. In weiteren Ausführungsformen der Erfindung kann die Berechnung der zum Anglei chen der (für „up-chirp" und „down-chirp" erhaltenen) Differenzfrequenz-Verteilungen nicht (oder nicht allein) basierend auf den Differenzfrequenz-Verteilungen selbst bzw. den jeweiligen Peakpositionen im Detektorsignal-Spektrum (vgl. Fig. 3), sondern zu sätzlich oder alternativ auch basierend auf den zu den Differenzfrequenz-Verteilungen jeweils gehörenden Signalstärke-Verteilungen (d.h. basierend auf den Peakhöhen in den jeweiligen Detektorsignal-Spektren, vgl. Fig. 5) erfolgen.

Fig. 4 zeigt hierzu in Abwandlung von Fig. 2 ein Diagramm, gemäß dem die Berech nung der o.g. Transformation auf Basis der Peakhöhen in den jeweiligen Detektorsig nal-Spektren (d.h. basierend auf den zu den jeweiligen Differenzfrequenz-Verteilungen für „up-chirp" und „down-chirp" gehörenden Signalstärke-Verteilungen) berechnet wird. Die Anwendung der so berechneten Transformation auf die für „up-chirp" und „down-chirp" ermittelten Schwebungsfrequenzbilder liefert wiederum koregistrierte und entsprechend angeglichene Schwebungsfrequenzbilder bzw. Differenzfrequenz- Verteilungen, die dann - insoweit analog zur Ausführungsform von Fig. 1 -3 - zur Ab stands- und Geschwindigkeitsberechnung sowie Bereitstellung entsprechender Sze nenbilder verwendet werden.

Die vorstehend genannte Transformation wenigstens einer der Differenzfrequenz- Verteilungen bzw. die entsprechende Bildverarbeitung erfolgt dabei in Ausführungs formen der Erfindung auch nicht-verzerrungsfrei („non-rigid"). Mit anderen Worten ist die für die Bildanpassung („Matching") durchgeführte Transformation nicht auf Ver schiebungen, Skalierungen, Drehungen, Scherungen oder perspektivische Transforma tionen beschränkt.

2. Zweites Ausführungsbeispiel

Besonders vorteilhaft ist das Verfahren bei FMCW LIDAR Systemen mit einer dispersi- ven Scan-Achse einsetzbar. Hierbei wird die Frequenzmodulation des Lasers neben der Abstandsmessung auch zur Bewegung des Scan-Strahls in der Szene genutzt. Dazu kommt ein dispersives Element (z.B. Gitter) im Scanner zum Einsatz. Bei dispersiv scan nenden LIDAR Systemen ist es von Vorteil, die einzelnen zeitlichen Segmente der Fre- quenzmodulation („up-chirp" bzw. „down-chirp") zeitlich nicht zu kurz zu wählen. Dies bedeutet aber gleichzeitig, dass die auf diesen zeitlichen Segmenten basierenden Dif ferenzfrequenz-Verteilungen zeitlich weit auseinander liegen können. Finden nun Be wegungen in der Szene statt (z.B. fahrendes Fahrzeug) oder führt beispielsweise eine zweite rotierende Scan-Achse eine Drehbewegung durch, sind die Positionen von Ob jekten in der Szene für die jeweilige Entstehung der Differenzfrequenz-Verteilungen während den zeitlichen Segmenten der Frequenzmodulation unterschiedlich. Mit an deren Worten: Während dem „up-chirp" befinden sich Objekte im Bild an einer ande ren Position als im „down-chirp".

Da das Abstands- und Geschwindigkeitsbild beim FMCW-LIDAR aus einer punktweisen Verrechnung von Differenzfrequenzen in der Up-Chirp-Differenzfrequenz-Verteilung und in der Down-Chirp-Differenzverteilung entsteht, führt dies zu fehlerhaften Mess punkten.

Als einfaches Beispiel wird hier die in der Figur 9 gezeigte Szene angenommen, bei welcher der LIDAR Scanner drei Wände W1, W2 und W3 abscannt. Die Wand W2 ist dabei etwas weiter vom Scanner entfernt als die Wände W1 und W3.

Die horizontale Scan-Achse wird durch eine Rotation eines Scanspiegels 10 gebildet. Die vertikale Achse soll dispersiv gebildet werden. Der Einfachheit halber wird ange nommen, dass der Scan-Strahl 12 auf der Wand durch die Scanner-Roatation mit kon stanter Geschwindigkeit in der durch eine Pfeil angedeuteten Richtung, d.h. von links nach rechts, läuft. Zusätzlich wird nur ein Scan-Strahl 12 betrachtet. Mit diesem einen Scan-Strahl 12 entsteht durch die mechanische Scan-Bewegung und durch die zweite dispersive Achse bereits ein einfaches LIDAR-Bild und als Vorstufe dieses Bildes zwei Differenzfrequenz-Verteilungen.

Wie bereits erwähnt, werden die Wände W1 bis W3 in links-rechts-Richtung durch die Drehbewegung des Scanspiegels 10 gescannt; der Scan-Vorgang in vertikaler Richtung wird durch ein dispersives System bewirkt. Durch die Frequenzmodulation mit steigen der Frequenz in ersten Teilsegmenten („up-chirp") und fallender Frequenz in zweiten Teilsegmenten („down-chirp") wird zusammen mit dem dispersiven Element im Scan- ner eine sägezahnartige Scan-Trajektorie 14 erreicht, wie sie in der Figur 10 gezeigt ist. Die durchgezogenen Linien 14a stellen die Up-Chirp-Teile und die gestrichelten Linien 14b die Down-Chirp-Anteile dar.

Die Figur 11 illustriert, wie aufgrund des zeitlichen Versatzes von Up-Chirp und Down- Chirp die entsprechenden Teile in den Differenzfrequenz-Verteilungen D1, D2 gegen einander verschoben sind. Ein entfernteres Objekt (Wand W2) führt in diesem Beispiel zu einer höheren Differenzfrequenz als ein nahes Objekt (Wände W1 und W3). Die Dif ferenzfrequenz im Up-Chirp ist in der Figur 11 mit f bu und die Differenzfrequenz im Down-Chirp mit f bd . bezeichnet. Anstelle oder zusätzlich zu der dargestellten reinen Verschiebung können je nach Szeneninhalt die beiden Differenzfrequenz-Verteilungen D1, D2 auch leicht verzeichnet sein.

Die in der Figur 11 erkennbaren Kanten, d.h. Sprünge in den Differenzfrequenz- Verteilungen D1, D2, können dazu verwendet werden, um die Schwebungsfrequenz bilder zu registrieren, bevor die Berechnung von Abstand und Geschwindigkeit erfolgt. Die Bildregistrierung, mit der die Kanten überlagert werden, kann mit gängigen Me thoden der Bildverarbeitung erfolgen.

Die Figur 12 zeigt die Differenzfrequenz-Verteilungen D1', D2' nach der Registrierung. Die Kanten sind nun vollständig überlagert. Würde die Registrierung nicht vorgenom men werden, würden an den Kanten falsche Messungen entstehen, da nicht zueinan der passende Werte für Schwebungsfrequenzen im Up-Chirp und Down-Chirp einan der zugeordnet würden.

Die in diesem Beispiel dargestellten Ansätze können auch auf komplexere Szenen übertragen werden, die mit mehreren Scan-Strahlen erfasst werden. Zusätzlich zu Kan ten könnten dann beispielsweise auch Ecken in Schwebungsfrequenzbildern genutzt werden, um die für die Registrierung der Bilder erforderliche Transformation zu be rechnen.

Statt zur Registrierung die Schwebungsfrequenzinformation zu verwenden, kann es von Vorteil sein, die ebenfalls vorhandene Graustufeninformation heranzuziehen, wie dies oben mit Bezug auf die Figur 4 erläutert wurde. Dies hat den Vorteil, dass auch Texturen zur Bildregistrierung genutzt werden können, die im Schwebungsfrequenz bild nicht sichtbar wären. Eine Wand in konstantem Abstand hätte im Schwebungsfre quenzbild einen konstanten Wert. Im Graustufenbild, welches aus den Peak-Höhen ex trahiert wird (vgl. Figur 5), könnte beispielsweise auch die Helligkeits-Textur auf der Wand zur Bildregistrierung herangezogen werden.

Wenn die Erfindung auch anhand spezieller Ausführungsformen beschrieben wurde, erschließen sich für den Fachmann zahlreiche Variationen und alternative Ausfüh rungsformen, z.B. durch Kombination und/oder Austausch von Merkmalen einzelner Ausführungsformen. Dementsprechend versteht es sich für den Fachmann, dass derar- tige Variationen und alternative Ausführungsformen von der vorliegenden Erfindung mit umfasst sind und die Reichweite der Erfindung nur im Sinne der beigefügten Pa tentansprüche und deren Äquivalente beschränkt ist.