Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND APPARATUS FOR DETERMINING DISTANCE
Document Type and Number:
WIPO Patent Application WO/2009/049887
Kind Code:
A1
Abstract:
The invention relates to a method for determining the distance (R) between at least one object (1) situated in space and an image capture apparatus having an image generation element (2) and a sensor (3), wherein the sensor (3) comprises a plurality of sensor elements (4) arranged flat next to one another, the image generation element (2) maps at least one portion of the space onto the sensor (3), and wherein a space portion sensed by the image generation element (2) at a particular angle of deviation (α) is mapped onto a particular sensor element (4). The invention allows the comprehensive detection of object distances, particularly in a large portion of the sensed space using simple technical means. The relative speed (v) of the movement of the image capture apparatus relative to the object (1) is ascertained and a space map angle speed (ωmes,sensor) is determined by evaluating the sensor element signals from at least two sensor elements (4) - voxels (5). The object distance (R) is determined using the relative speed (v) of the image capture apparatus, the orthogonal object angle speed (ωmes) obtained from the space map angle speed (ωmes,sensor) of the object (1) mapped onto the sensor elements (4) and the angle of deviation (α) of the object (1).

Inventors:
SCHWARTE RUDOLF (DE)
Application Number:
PCT/EP2008/008770
Publication Date:
April 23, 2009
Filing Date:
October 16, 2008
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
IFM ELECTRONIC GMBH (DE)
SCHWARTE RUDOLF (DE)
International Classes:
G01B11/02; B60K31/00; G01B11/04; G01S17/89; G06T7/00; G06T7/20; G01S17/931
Domestic Patent References:
WO2006069978A22006-07-06
Foreign References:
US6535114B12003-03-18
US6535114B12003-03-18
Other References:
ANDREW J DAVISON ET AL: "MonoSLAM: Real-Time Single Camera SLAM", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE, IEEE SERVICE CENTER, LOS ALAMITOS, CA, US, vol. 29, no. 6, 1 June 2007 (2007-06-01), pages 1052 - 1067, XP011179664, ISSN: 0162-8828
BOLLES R C ET AL: "EPIPOLAR-PLANE IMAGE ANALYSIS: AN APPROACH TO DETERMINING STRUCTUREFROM MOTION", INTERNATIONAL JOURNAL OF COMPUTER VISION, DORDRECHT, NL, 1 January 1987 (1987-01-01), pages 7 - 55, XP000572465
CIPOLLA R ET AL: "Robust structure from motion using motion parallax", COMPUTER VISION, 1993. PROCEEDINGS., FOURTH INTERNATIONAL CONFERENCE O N BERLIN, GERMANY 11-14 MAY 1993, LOS ALAMITOS, CA, USA,IEEE COMPUTER SOCI, 11 May 1993 (1993-05-11), pages 374 - 382, XP010128599, ISBN: 978-0-8186-3870-1
A. J. DAVISON; I. D. REID; N. D. MOLTON; O. STASSE: "MonoSLAM: Real-Time Single Camera SLAM", IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHI, NE INTELLIGENCE, vol. 29, no. 6, June 2007 (2007-06-01)
Attorney, Agent or Firm:
GESTHUYSEN, VON ROHR & EGGERT (Essen, DE)
Download PDF:
Claims:

Patentansprüche:

1. Verfahren zur Bestimmung des Abstandes (R) wenigstens eines im Raum befindlichen Objektes (1) zu einer Bilderfassungsvorrichtung mit einem Bilder- zeugungselement (2) und einem Sensor (3), wobei der Sensor (3) aus mehreren im wesentlichen flächig nebeneinander angeordneten Sensorelementen (4) besteht, das Bilderzeugungselement (2) wenigstens einen Teil des Raumes auf den Sensor (3) abbildet - Raumabbild -, wobei ein von dem Bilderzeugungselement (2) unter einem bestimmten Ablagewinkel (α) erfaßter Raumteil auf ein be- stimmtes Sensorelement (4) abgebildet wird und von den Sensorelementen (4) entsprechende Sensorelementsignale erzeugt werden, dadurch gekennzeichnet, daß die Relativgeschwindigkeit (v) der Bewegung der Bilderfassungsvorrichtung zu dem Objekt (1) ermittelt wird, daß durch Auswertung der Sensorelementsignale wenigstens zweier Sensorelemente (4) - Voxel (5) - eine Raumabbildwinkelgeschwindigkeit (ω mes , s e n s or ) ermittelt wird und über die Relativgeschwindigkeit (v) der Bilderfassungsvorrichtung, die aus der Raumabbildwinkelgeschwin- digkeit (ω mes,sensor ) des auf die Sensorelemente (4) abgebildeten Objekts (1) gewonnene orthogonale Objektwinkelgeschwindigkeit (ω mes ) und den Ablagewinkel (α) des Objekts (1) der Objektabstand (R) ermittelt wird.

2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Raumabbild- Winkelgeschwindigkeit (ω mes,Sensor ) ermittelt wird, indem durch geeignete Gewichtung der Sensorelementsignale wenigstens zweier Sensorelemente (4) -

Voxel (5) - in wenigstens einer Sensorrichtung (x, y, r, s, t) ein Ortsfrequenzfϊl- ter gebildet wird, wobei das Ortsfrequenzfilter mindestens die Sensorelementsignale des Voxels (5) einer Ortsfrequenzfilterung in wenigstens zwei verschiede- nen Ortsfrequenzfilterphasen (φ 0 , φ 90 ) unterzieht, und aus den erhaltenen korrespondierenden Ortsfrequenzfilterkomponenten (Ao, A 90 ) eine Raumabbildphase (φ) des Voxels (5) ermittelt wird, daß durch zeitliche Signalabtastung des Ortsfrequenzfilters wenigstens zwei Raumabbildphasen (φ) des Voxels (5) ermittelt werden und aus den zeitlich beabstandeten Raumabbildphasen (φ) die Raumab- bildwinkelgeschwindigkeit (ω mes ,sensor) ermittelt wird.

3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß zur Ermittlung der Raumabbildwinkelgeschwindigkeit (ω mes,Sensor ) und damit des Objektabstandes (R) im wesentlichen nur die Translationskomponente der Bewegung der Bilderfassungsvorrichtung herangezogen wird, insbesondere indem enthaltene Rotationskomponenten (ω rot ) der Bewegung der Bilderfassungsvorrichtung durch Stabilisierung der Bilderfassungsvorrichtung kompensiert und/oder enthaltene Rotationskomponenten (ω rot ) der Bewegung der Bilderfassungsvorrichtung erfaßt und eliminiert werden.

4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß bei Ermittlung von Raumabbildwinkelgeschwindigkeiten (ω x , ω y ) in mehr als einer Sensorrichtung (x, y, r, s, t) die erhaltenen Raumabbildwinkelgeschwindigkeiten (ω x , ω y ) vektoriell zu einer Gesamtraumabbildwinkelgeschwindigkeit (cθ geS ) addiert werden und die Gesamtraumabbildwinkelgeschwindigkeit (ω ges ) der Ermittlung des Objektabstandes (R) zugrundegelegt wird.

5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß die Schwerpunkte der in verschiedenen Sensorrichtungen (x, y, r, s, t) zur Berechnung des Objektabstandes (R) für einen bestimmten Raumteil gebildeten Voxel (5) nahe zusammen liegen, insbesondere im wesentlichen identisch sind.

6. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Gewichtungen von Sensorelementsignalen der Sensorelemente (4) eines Vo- xels (5) in einer Sensorrichtung (x, y, r, s, t) in einer Ortsfrequenzfilterphase (φo, φ 90 ) unter Berücksichtigung der Geometrie der beteiligten Sensorelemente (4) so gewählt wird, daß eine möglichst gute Sinus-Approximation (6) realisiert wird.

7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß die Sinus- Approximationen (6) der Gewichtungen der Sensorelementsignale in den we- nigstens zwei Ortsfrequenzfilterphasen (φo, φ 90 ) in einer Sensorrichtung (x, y, r, s, t) relativ zueinander um im wesentlichen eine viertel Ortsperiode zueinander phasenverschoben sind.

8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die Ortsfrequenzfilterung in wenigstens einer Sensorrichtung (x, y, r, s, t) in verschiedenen Ortsfrequenzfilterphasen (φo, φ 90 ) durchgeführt wird, indem wenig-

stens ein Sensorelement (4) einem Voxel (5) - unabhängig von der auszuwertenden Ortsfrequenzfilterphase (φ 0 , ς> 9 o) - fest zugeordnet wird und der Sensor (3) in und/oder entgegen der einen Sensorrichtung (x, y, r, s, t) entsprechend der zu erzielenden Ortsfrequenzfilterkomponente (Ao, A 9 o) in der jeweiligen Ortsfre- quenzfilterphase (φ 0 , ψ 9 o) verschoben wird - Sensorverschiebung - und/oder das Raumabbild in und/oder entgegen der einen Sensorrichtung (x, y, r, s, t) entsprechend der zu erzielenden Ortsfrequenzfilterkomponente (Ao, A 90 ) in der jeweiligen Ortsfrequenzfilterphase (φ 0 , φ 9 o) verschoben wird - Raumabbildverschiebung -, wobei die Raumabbildverschiebung auf dem Sensor (3) insbesonde- re durch Lageänderung des Bilderfassungselements (2) erzielt wird.

9. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, daß die Ortsfrequenzfilterung in wenigstens einer Sensorrichtung (x, y, r, s, t) in verschiedenen Ortsfrequenzfilterphasen (φ 0 , φ 90 ) durchgeführt wird, indem je aus- zuwertender Ortsfrequenzfilterphase (φ 0 , 9 90 ) — zumindest teilweise - verschiedene Sensorelemente (4) einem Voxel (5) - Phasenvoxel - fest zugeordnet werden, wobei die derart entstehenden Phasenvoxel in der auszuwertenden Sensorrichtung (x, y, r, s, t) gegeneinander ortsphasenverschoben sind - Voxelverschie- bung -.

10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, daß zur Feststellung der Ortsfrequenzfilterkomponenten (Ao, A 90 ) der Ortsfrequenzfilterphasen (φ 0 , ψ 9 o) eines Voxels (5) in einer Sensorrichtung (x, y, r, s, t) nicht nur die gewichteten Sensorelementsignale des betreffenden, die Ortsperiode de- finierenden Voxels (5) - Zentralvoxel - herangezogen werden, sondern zusätzlich auch die Sensorsignale von wenigstens einer in der auszuwertenden Sensorrichtung (x, y, r, s, t) liegenden ortsperiodischen Wiederholung des zentralen Voxels (5) - Nebenvoxel (7) -, so daß das Zentralvoxel (5) und das Nebenvoxel (7) eine Voxelzeile definieren, wobei insbesondere die korrespondierenden Sen- sorsignale des Zentralvoxels (5) und des Nebenvoxels (7) aufsummiert werden.

11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, daß die Sensorsignale der Nebenvoxel (7) schwächer gewichtet werden als die korrespondierenden Sensorsignale des Zentralvoxels (5), insbesondere mit zunehmendem Abstand von dem Zentralvoxel (5) abnehmend gewichtet werden, insbesondere gemäß einer glockenförmigen Gewichtungskurve, vorzugsweise gemäß einer harmoni-

schen Gewichtungskurve, vorzugsweise gemäß einer Gewichtungskurve ohne Gleichanteil.

12. Verfahren nach einem der Ansprüche 1 bis 1 1, dadurch gekennzeichnet, daß die Sensorelemente (4) des Sensors (3) hexagonal ausgestaltet werden - Hexel - und eine hexagonale Parkettierung des Sensors (3) bilden, wobei je durch Ortsfrequenzfilterung auszuwertender Sensorrichtung (r, s, t) wenigstens je vier Hexel zu einem zweizeiligen Voxel (5) zusammengefaßt werden, insbesondere wobei die in einer Zeile des Voxels (5) benachbarten Hexel ein Ortsfrequenzfilter zur Auswertung jeweils einer Ortsfrequenzfilterphase (φ 0 , φ 90 ) bilden und dazu insbesondere mit unterschiedlichen Vorzeichen gewichtet werden.

13. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß die Sensorelemente (4) des Sensors (3) hexagonal ausgestaltet werden - Hexel - und eine hexagonale Parkettierung des Sensors (3) bilden, wobei je durch Ortsfrequenzfilterung auszuwertender Sensorrichtung (r, s, t) wenigstens je sechs Hexel zu einem dreizeiligen Voxel (5) zusammengefaßt werden, insbesondere wobei die in der mittleren Zeile des Voxels (5) benachbarten Hexel ein Ortsfrequenzfilter zur Auswertung in einer Ortsfrequenzfϊlterphase (φ 9 o) bilden und die in den beiden äußeren Zeilen des Voxels (5) benachbarten Hexel ein Ortsfre- quenzfilter zur Auswertung in einer anderen Ortsfrequenzfilterphase (φ 0 ) bilden, wobei die korrespondierenden Sensorsignale der Sensorelemente (4) dazu insbesondere mit unterschiedlichen Vorzeichen gewichtet werden.

14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, daß das Voxel (5) in zwei Sensorrichtungen (r, s) einer Ortsfrequenzfilterung unterzogen wird, wobei die Sensorrichtungen (r, s) im wesentlichen einen Winkel von 120° bzw. 240° einschließen oder daß das Voxel (5) in drei Sensorrichtungen (r, s, t) einer Ortsfrequenzfilterung unterzogen wird, wobei die Sensorrichtungen im we- sentlichen einen Winkel von jeweils 120° einschließen.

15. Verfahren nach einem der Ansprüche 1 bis 11, dadurch gekennzeichnet, daß die Sensorelemente (4) des Sensors (3) rechteckig, insbesondere quadratisch ausgestaltet werden und eine im wesentlichen orthogonale Parkettierung des Sensors (3) bilden, wobei wenigstens eine erste durch Ortsfrequenzfilterung auszuwertende Sensorrichtung (x, y) in Diagonalerstreckung der rechteckigen Sen-

- 7 -

sorelemente (4) gewählt wird, und je sechs Sensorelemente (4) zu einem dreizei- ligen Voxel (5) bzw. Phasenvoxel mit je zwei Sensorelementen (4) in jeder Zeile (8, 9, 10) des Voxels (5) zur Auswertung in einer Ortsfrequenzfilterphase (φ 0 , (p 9 o) zusammengefaßt werden.

16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß zur Ermittlung der Ortsfrequenzfilterkomponente (A 0 ) einer ersten Ortsfrequenzfilterphase (cpo) die Sensorelementsignale der jeweils beiden Sensorelemente (4) der drei Zeilen (8, 9, 10) des Voxels (5) bzw. Phasenvoxels mit umgekehrten Vorzeichen ge- wichtet werden, wobei die drei Sensorelemente (4) mit den jeweils mit gleichem Vorzeichen gewichteten Sensorelementsignalen pfeilförmig in die eine Richtung der Diagonalerstreckung weisend angeordnet werden und daß zur Ermittlung der Ortsfrequenzfilterkomponente (A 90 ) einer zweiten Ortsfrequenzfilterphase (φ 90 ) unter Beibehaltung der Sensorelemente (4) der mittleren Zeile (9) des Voxels (5) bzw. Phasenvoxels und der Gewichtung der Sensorelementsignale der Sensorelemente (4) der mittleren Zeile (9) des Voxels (5) bzw. Phasenvoxels die beiden Sensorelemente (4) der oberen Zeile (8) und der unteren Zeile (9) des Voxels (5) bzw. des Phasenvoxels so angeordnet werden und ihre Sensorelementsignale derart mit Vorzeichen gewichtet werden, daß die drei Sensorelemente (4) mit den jeweils mit gleichem Vorzeichen gewichteten Sensorelementsignalen pfeilförmig in die andere Richtung der Diagonalerstreckung weisen.

17. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß die Sensorelementsignale der Sensorelemente (4) der mittleren Zeile (9) des Voxels (5) bzw. des Phasenvoxels betragsmäßig im wesentlichen doppelt so stark gewichtet werden wie die Sensorelementsignale der Sensorelemente (4) der oberen Zeile (8) und der unteren Zeile (10) des Voxels (5) bzw. des Phasenvoxels.

18. Verfahren nach einem der Ansprüche 15 bis 17, dadurch gekennzeichnet, daß eine zweite auszuwertende Sensorrichtung vorgesehen ist, die in der zweiten

Diagonalerstreckung der rechteckigen Sensorelemente (4) orientiert ist.

19. Verfahren nach einem der Ansprüche 1 bis 18, dadurch gekennzeichnet, daß der zu einem ersten Zeitpunkt unter einem bestimmten Ablagewinkel (α) ermit- telte Abstand (R) eines Objektes (1) zu der Bilderfassungsvorrichtung zur Prädiktion zukünftiger Abstände des Objektes (1) unter zukünftigen Ablagewinkeln

(α) unter Annahme statischer - nicht eigenbewegter Objekte - und unter Kenntnis der Relativgeschwindigkeit (v) der Bewegung der Bilderfassungsvorrichtung herangezogen wird, wobei die prädiktiv ermittelten Abstände und zugehörigen Ablagewinkel (α) des Objektes (1) insbesondere zur Identifikation eigenbeweg- ter Objekte (1) im Raum herangezogen werden.

20. Verfahren nach einem der Ansprüche 1 bis 19, dadurch gekennzeichnet, daß eine Vielzahl von Abständen R in verschiedenen Ablagewinkeln ermittelt werden und aus der Vielzahl von Abständen ein 3D-Raumbild erstellt wird.

21. Vorrichtung zur Bestimmung des Abstandes (R) zu wenigstens einem im Raum befindlichen Objekt (1), mit einem Bilderzeugungselement (2), einem Sensor (3) und einer Signalverarbeitungseinheit, wobei der Sensor (3) aus mehreren im wesentlichen flächig nebeneinander angeordneten Sensorelementen (4) besteht, von dem Bilderzeugungselement (2) wenigstens ein Teil des Raumes auf den Sensor (3) abbildbar ist - Raumabbild -, wobei ein von dem Bilderzeugungselement (2) unter einem bestimmten Ablagewinkel (α) erfaßbarer Raumteil auf ein bestimmtes Sensorelement (5) abbildbar ist und von den Sensorelementen (4) entsprechende Sensorelementsignale erzeugbar sind, dadurch gekennzeichnet, daß die Signalverarbeitungseinheit so ausgestaltet ist, daß sie ein Verfahren gemäß einem der Ansprüche 1 bis 20 durchführen kann.

Description:

Verfahren und Vorrichtung zur Abstandsbestimmung

Die Erfindung betrifft ein Verfahren zur Bestimmung des Abstandes R wenigstens eines im Raum befindlichen Objektes zu einer Bilderfassungsvorrichtung mit einem Bilderzeugungselement und einem Sensor, wobei der Sensor aus mehreren im wesentlichen flächig nebeneinander angeordneten Sensorelementen besteht, das Bilderzeugungselement wenigstens einen Teil des Raumes auf den Sensor abbildet - Raumabbild -, wobei ein von dem Bilderzeugungselement unter einem bestimmten Ablagewinkel α erfaßter Raumteil auf ein bestimmtes Sen- sorelement abgebildet wird und von den Sensorelementen entsprechende Sensorelementsignale erzeugt werden. Darüber hinaus betrifft die Erfindung auch eine Vorrichtung zur Bestimmung des Abstandes zu wenigstens einem im Raum befindlichen Objekt, mit einem Bilderzeugungselement, einem Sensor und einer Signalverarbeitungseinheit, wobei der Sensor aus mehreren im wesentlichen flä- chig nebeneinander angeordneten Sensorelementen besteht, von dem Bilderzeugungselement wenigstens ein Teil des Raumes auf den Sensor abbildbar ist - Raumabbild -, wobei ein von dem Bilderzeugungselement unter einem bestimmten Ablagewinkel α erfaßbarer Raumteil auf ein bestimmtes Sensorelement abbildbar ist und von den Sensorelementen entsprechende Sensorelementsignale erzeugbar sind.

Auf dem Gebiet der Meßtechnik, insbesondere auch im industriellen Anwendungsbereich auf dem Gebiet der Prozeßmeßtechnik, sind seit längerem diverse Verfahren bekannt, die sich mit der Bestimmung des Abstandes von einem Ob- jekt zu einer Bilderfassungsvorrichtung im weitesten Sinne befassen. Die Verfahren machen sich ganz unterschiedliche physikalische Effekte zu Nutze, sind in ihrer technischen Umsetzung mit sehr unterschiedlichem Aufwand verbunden und an unterschiedliche Randbedingungen der Umgebung geknüpft.

Wenn hier von einem Verfahren die Rede ist, das der Bestimmung des Abstandes R "wenigstens eines im Raum befindlichen Objektes" zu einer Bilderfassungsvorrichtung dient, dann ist damit nicht einschränkend gemeint, daß nur die Abstände zu bestimmten Objekten des Raumbildes erfaßt werden, vielmehr ist das Verfahren auch anwendbar auf die Erfassung einer Vielzahl von Abstandin- formationen, die das gesamte Raumbild abstandsmäßig beschreiben, jedenfalls

soweit es die Auflösung der zugrundeliegenden gerätetechnischen Ausstattung ermöglicht. Die Bezugnahme auf den Abstand eines Objektes erleichtert hier lediglich die Erläuterung des betrachteten Verfahrens.

Wenn davon die Rede, daß das Bilderfassungselement den Raum auf den Sensor abbildet, dann mag darunter zunächst einschränkend die optische Abbildung von sichtbarem Licht verstanden werden. Selbstverständlich ist dies keine Einschränkung, es kann sich um beliebige elektromagnetische Strahlung handeln, insbesondere auch solche im Terahertz-Bereich. Selbst der Einsatz akustischer Bilder- fassungsvorrichtungen ist denkbar.

Ein weit verbreitetes bekanntes Verfahren zur Abstandsbestimmung ist beispielsweise die Triangulation, mit der üblicherweise aber nur der Abstand eines Objekts erfaßt werden kann, das sich in genau einer bestimmten Richtung von der Bilderfassungsvorrichtung befindet. In genau dieser Richtung wird von der aktiven Meßvorrichtung beispielsweise ein Lichtstrahl emittiert, der von dem Objekt zumindest teilweise reflektiert wird. Von einer seitlich um die optische Basis gegenüber der Lichtquelle versetzten Empfangseinrichtung wird das sogenannte Triangulationsdreieck aus dem Sendestrahl, dem Empfangsstrahl und der gegebenen optischen Basis gebildet. Mit der optischen Basis und den beiden meßbaren Schenkelwinkeln von Sende- und Empfangslichtstrahl ist das Dreieck vollständig bestimmt. Diese Abstandsmeßtechnik wird in Variationen in der Praxis vielfältig angepaßt und z. B. durch das Streifenprojektionsverfahren auch für die dreidimensionale Objektvermessung angewendet. Das Triangulationsdreieck behindert allerdings oft den freien Meßzugang, verursacht bei kleinen Dreieckswinkeln große Fehler und erlaubt so nur begrenzte relative Entfernungen und schränkt den optischen Sichtbereich bezüglich größerer Raumwinkel ein.

Andere Verfahren bedienen sich des stereometrischen Effekts, der ebenfalls auf Triangulation beruht, wobei die erfaßbaren Objektabstände hier sehr stark von dem — meist sehr begrenzten - Abstand der Stereobildensoren abhängen und die Auswertung von Stereobildern einer vergleichsweise aufwendigen nachgelagerten Signalverarbeitung bedürfen.

Stereokamerasysteme für die dreidimensionale Objekterfassung mit passiver Beleuchtung haben vielfach bei der schnellen dreidimensionalen Erfassung in na-

türlichen Umgebungen mit diversen Problemen zu kämpfen. Beispielsweise müssen korrespondierende Bildelemente bzw. Pixelcluster in den beiden Projektionsbildern zunächst identifiziert werden, um über die zwei Richtungswinkel der zugehörigen Empfangsstrahlen der optischen Kamerabasis zum korrespondie- renden Bildelement das Triangulationsdreieck und damit den Abstand zu ermitteln (Korrespondenzproblem). Das ist ohne eindeutige Bildmerkmale, die z. B. bei einer regelmäßigen Textur fehlen, nicht möglich, weshalb ggf. eine geeignete künstliche strukturierte Beleuchtung ergänzt werden muß. Ein anderes Problem besteht darin, daß aus den verschiedenen Blickwinkeln eines Stereokamerasy- stems oft der dreidimensionale optische Fluß und der gesuchte dreidimensionale Bewegungsfluß nicht übereinstimmen, so daß die Korrespondenzen nicht ermittelt werden können (Divergenzproblem). Zusätzlich verursachen hohe Winkelgeschwindigkeiten bei der dynamischen dreidimensionalen Bilderfassung eine entsprechend beeinträchtigte Bildqualität, die bezüglich Zeit- und Berechnungsan- forderungen oft nicht auswertbar sind. Stereobilder stellen ferner hohe Anforderungen an die Raumbildqualität und weisen daher häufig recht ungleichmäßige und unzureichende Raumpunktdichten auf. Hinzu kommen Probleme der hochgenauen Kalibrierung der Pose von Stereokameras, für die WO 2006/069978 A2 „Verfahren und Vorrichtung zum Ermitteln eines Kalibrierparameters einer Ste- reokamera" eine Lösung vorschlägt.

Unter "Raumbild" oder "3D-BiId" wird hier und im folgenden das tatsächliche dreidimensionale Bild des Raumes verstanden. Im Unterschied dazu wird das - zweidimensionale - Abbild des Raumbildes, das beispielsweise durch ein BiI- derzeigungselement - z. B. Blende und/oder Optik - aus dem Raumbild erhalten wird, als "Raumabbild" bezeichnet.

Andere bekannte Verfahren beruhen auf der Auswertung von Laufzeiten eines Signals, z.B. einem sinusförmig oder pulsförmig modulierten optischen Signal, das von einer Meßvorrichtung emittiert, von dem zu erfassenden Objekt reflektiert und von der Meßvorrichtung wieder empfangen wird, wobei unter der Voraussetzung einer bekannten Signalausbreitungsgeschwindigkeit der Objektabstand anhand der gemessenen Signallaufzeit ermittelbar ist. Eindimensionale Laufzeitmeßgeräte können als sog. Laserscanner durch zweidimensionales Scan- nen des Meßstrahls bei entsprechendem Zeitaufwand Raumbilder aufnehmen.

- A -

Wieder andere Verfahren basieren auf der Interferometrie, einem Laufzeitmeßverfahren durch überlagerung von kohärenten Signalen, nämlich einerseits des emittierten Signals, das beispielsweise aus kohärenter Laserstrahlung besteht, und andererseits der von dem Objekt reflektierten Strahlung im gleichen Detek- tor. Aufgrund der grundsätzlichen Problematik in halber Wellenlänge mehrdeutiger Meßergebnisse wird die Interferometrie hauptsächlich zur sehr genauen Messung von Objektabständen - meist als Mehrfrequenzverfahren - in einer statischen Szenerie verwendet; bewegte Objekte bzw. eigenbewegte Bilderfassungsvorrichtungen erschweren die Abstandsbestimmung zusätzlich.

Bei anderen Verfahren Phasenlaufzeit- oder Pulslaufzeitdifferenzen parallel im Raummultiplexverfahren durchgeführt. Durch parallele modulierte Beleuchtung einer dreidimensionalen Szene und deren Abbildung auf einer Matrix von Laufzeitdetektoren, z.B. einer PMD(Photonenmischdetektor)-Matrix, und durch par- allele Mischung und Korrelation des ausgesendeten und der am Objekt reflektierten Signale können Zehntausende von Objektabständen parallel ermittelt werden, wie in der WO 9810255 beschrieben. Auch hier stellt sich das Problem, daß bei hohen Signalausbreitungsgeschwindigkeiten und geringen Objektabständen sehr geringe Verzögerungen des Empfangssignals zu detektieren sind, um eine Ab- Standsbestimmung vornehmen zu können; nicht selten liegen die aufzulösenden Zeitintervalle im Bereich von Nano- oder Pikosekunden mit den damit verbundenen hohen Anforderungen an die Meßtechnik.

Das bei der 3D-PMD-Kamera angewandte Verfahren der Photonenmischung im PMD-Pixel mischt das elektrische Sendermodulationssignal mit dem optischen Empfangssignal unter Auswertung extrem kurzer Signal Verzögerungen hardwaremäßig mittels der sog. PMD-Ladungsschaukel und liefert je PMD-Pixel neben der Intensität ein Volumenelement bzw. ein Voxel des Raumbildes. Nachteilig bei dieser bekannten Realisierung einer 3 D-Kamera ist ein hoher technischer Aufwand, vor allem die spezielle aktive Beleuchtung der Objekte, die begrenzte Reichweite, die speziell als Photonenmischdetektoren ausgestalteten Sensorelemente zur Abstandsbestimmung und das störende Umgebungslicht, das bei schwacher Remission die Reichweite zusätzlich einschränkt.

Im Ergebnis ist festzustellen, daß bekannte Verfahren zur Bestimmung eines Objektabstandes bzw. mehrerer Objektabstände entweder zwar vergleichsweise ein-

08770

- 5 -

fach durchfuhrbar sind (Triangulation), dann jedoch nur einen beschränkten Einsatzbereich haben oder aber bekannte Verfahren in einem weiten Bereich einsetzbar sind (3D-PMD-Kamera), dann aber technologisch vergleichsweise aufwendig zu realisieren sind.

Der Lehre der vorliegenden Erfindung liegt daher das Problem zugrunde, ein Verfahren und eine Vorrichtung zur Verfügung zu stellen, die mit einfachen technischen Mitteln eine umfassende und vorzugsweise schnelle Erfassung von Objektabständen ermöglichen, insbesondere in einem großen Teil des von der eingesetzten Bilderfassungsvorrichtung erfaßten Raumes. Es soll für den großen Anwendungsbereich dynamischer dreidimensionaler Meßaufgaben geeignet sein.

Das erfindungsgemäße Verfahren, bei dem die zuvor hergeleitete und aufgezeigte Problemstellung gelöst ist, ist zunächst und im wesentlichen dadurch gekenn- zeichnet, daß die Relativgeschwindigkeit v der Bewegung der Bilderfassungsvorrichtung zu dem Objekt - oder, gleichbedeutend, des Objektes zur Bilderfassungsvorrichtung - ermittelt wird, daß durch Auswertung der Sensorelementsignale wenigstens zweier Sensorelemente - nachfolgend auch Voxel genannt - eine Raumabbildwinkelgeschwindigkeit ω mes, s ens o r ermittelt wird und über die Re- lativgeschwindigkeit v der Bilderfassungsvorrichtung, über die aus der Raumabbildwinkelgeschwindigkeit ω meS)sensor des auf die Sensorelemente abgebildeten Objekts gewonnene orthogonale Objektwinkelgeschwindigkeit ω mes und über den Ablagewinkel α des Objekts der Objektabstand R ermittelt wird.

Zur Erläuterung des erfindungsgemäßen Verfahrens sei zunächst angenommen, daß sich die Bilderfassungsvorrichtung, bei der es sich im Falle von lichtempfindlichen Sensorelementen um eine gewöhnliche Kamera mit einem CMOS- Chip - vorzugsweise mit erweiterter Framegrabberausstattung und vielfältigen Auswertungsmöglichkeiten lokaler (Voxel bezogener) Raumabbildwinkelge- schwindigkeiten mit einem üblichen Linsenaugenobjektiv gegenüber dem alternativ möglichen Facettenaugenobjektiv - handeln kann, geradlinig oder zumindest stückweise geradlinig mit einer bestimmten Geschwindigkeit v tr durch den Raum bewegt, wobei die Bilderfassungsvorrichtung mit ihrer optischen Achse in beliebige Richtungen, z.B. bei Straßenfahrzeugen vor allem in die Richtung des Frontbereichs der stückweise geradlinigen, also translatorischen Bewegung zeigt.

Eventuell auftretende Rotationen, z.B. Kurvenfahrt von Fahrzeug und montierter Bilderfassungsvorrichtung müssen bezüglich jeder Abstandsmessung ermittelt werden und vorzugsweise je Meßintervall durch optisch-mechanische oder rechnerische Kompensation fortlaufend eliminiert werden. Die zumindest stückweise als reine Translation modellierte Bewegung der stückweise annähernd konstanten Geschwindigkeit v, r legt in der Zwischenzeit, vorzugsweise der Abtastperiode δt, die Strecke δL = v tt - δt zurück.

Das Bilderzeugungselement, beispielsweise eine Linse oder auch nur eine Loch- blende, stellt in seinem Erfassungsbereich eine eindeutige Beziehung zwischen einem Sensorelement des Sensors und einem bestimmten Ausschnitt des erfaßten Raumes her, der auf ein betreffendes Sensorelement abgebildet wird. Das gleiche gilt selbstverständlich auch für eine Gruppe von Sensorelementen — z. B. Voxel-, auch hier ist durch das Bilderzeugungselement eine eindeutige Beziehung gege- ben zwischen der Sensorelementgruppe und einem bestimmten auf die Sensorelementgruppe durch das Bilderzeugungselement abgebildeten Raumbereich. Der Winkel, unter dem gemessen von der Achse der Bewegungsrichtung der Bilderfassungsvorrichtung ein im Raum befindliches Objekt erscheint, wird als Ablagewinkel bezeichnet. Wenn davon ausgegangen wird, daß die im Raum be- findlichen Objekte ortsfest sind und eine Relativbewegung zwischen den im Raum befindlichen Objekten und der Bilderfassungsvorrichtung lediglich durch die Bewegung der Bilderfassungsvorrichtung in dem Raum zustande kommt, dann ziehen alle im Raum befindlichen Objekte auf parallelen Trajektorien in einem jeweils konstanten Objekttrajektorienabstand D zur Bewegungsachse an der bewegten Bilderfassungsvorrichtung vorüber; diese Trajektorien verlaufen also parallel zu der Trajektorie der bewegten Bilderfassungsvorrichtung.

Unendlich weit entfernte Objekte mit endlichem Objekttrajektorienabstand D entspringen aus der Sicht der Bilderfassungsvorrichtung zunächst aus einem Raumpunkt, der genau auf der Achse der Bewegungsrichtung der Bilderfassungsvorrichtung liegt - Ablagewinkel 0° -. Mit geringer werdendem Abstand des Objektes von der Bilderfassungsvorrichtung — verursacht durch die Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung zu dem Objekt - erscheint das Objekt, sofern es nicht genau auf der Achse der Bewegungsrich- tung der Bilderfassungsvorrichtung liegt, unter einem immer größer werdenden Ablagewinkel. Es ist einleuchtend, daß sich der Ablagewinkel bei konstanter Re-

lativgeschwindigkeit der geradlinigen Bewegung der Bilderfassungsvorrichtung mit abnehmendem Abstand immer weiter vergrößert, was gleichbedeutend ist mit einer zunehmenden Geschwindigkeit, mit der das Raumabbild des Objektes den Sensor überstreicht und mit entsprechend zunehmender Winkelgeschwin- digkeit des verbindenden Radiusvektors mit zunächst unbekannter Länge.

Zum besseren Verständnis der erfindungsgemäßen dreidimensionalen Vermessung von Objekten in Raum und Zeit mit einer nur zweidimensional aufnehmenden Bilderfassungsvorrichtung mittels der vorstehend beschriebenen relativen Bewegung v tr sowie mittels der durch v & verursachten und zu vermessenden Ob- jektwinkelgeschwindigkeit ω mes des auf das Objekt weisenden Objektabstands- vektors bzw. Radiusvektors R ist eine anschauliche Beschreibung im Kamerakoordinatensystem KKS, im Weltkoordinatensystem WKS und im Sensorkoordinatensystem SKS vorteilhaft. Diese komplexen geometrischen und kinemati- sehen Vorgänge werden aufgrund ihrer Bedeutung für die Funktion und Ausführung erfindungsgemäßer 3D-Kameras oder 3 D- Videokameras in den nachfolgenden Figurenbeschreibung zu den Figuren 1, 2a und 2b noch näher erläutert. Insbesondere Figur 2a vereinfacht und veranschaulicht die Zusammenhänge beliebiger relativer Bewegungen der Bilderfassungsvorrichtung im Raum mit den drei möglichen Translationsrichtungen z.B. in X-, Y-, Z-Richtung und den drei möglichen Rotationen um die X-, Y-, Z-Achsen sowie der vorzugsweise jeweils in der Ausgangsposition einer Messung im Koordinatenzentrum positionierten Bilderfassungsvorrichtung.

Zur Veranschaulichung der Lehre der Erfindung und zur Vereinfachung der Berechnung der gesuchten raumzeitlichen relativen Objektabstände von der Bilderfassungsvorrichtung sowie zur Erzielung einer fortlaufenden, schnellen dreidimensionalen Objekterfassung auf Basis der Kreisbewegungsgleichung, wobei eine Folge kurzer translatorischer Bewegungsabschnitte der Bilderfassungsvorrich- tung relativ zu einem Objekt als kurze Kreisbewegung modelliert wird, wird vorzugsweise wie folgt verfahren:

1. Die Lehre der Erfindung ermöglicht u. A. die fortlaufende schnelle dreidimensionale Objekterfassung auf Basis einer gewöhnlichen digitalen 2D-Kamera und durch eine geeigneten Auswertung der bekannten Kreisbewegungsgleichung, hier als Vektorgleichung v = ώ x R, bei der das Vektorprodukt ώ x R jeweils

nur die zueinander orthogonalen Vektorkomponenten berücksichtigt und damit den hierzu wiederum orthogonalen Geschwindigkeitsvektor v bestimmt. Da bei der Kreisbewegung mit dem Radius R, der tangentiale Geschwindigkeit eines Punktes auf dem Kreis v = 2π R / T mit der Umlaufzeit T alle drei Vektoren senkrecht zueinander stehen, gilt für die Kreisbewegung auch die entsprechende Skalargleichung v ort = ω ort "R o r t - Sind die orthogonalen Größen v ort und ω ort einer Kreisbewegungsgleichung ermittelt, so ist damit auch der gesuchte Radius R = V 0H / © ort bzw. der Objektabstand bestimmt. Durch die Erfassung einer Vielzahl von Objektabständen kann insgesamt ein 3D-Raumbild gewonnen werden.

2. Die Radiusvektoren, z.B. zu den Abtastzeitpunkten t tast = k- δt (k = 0, 1, 2, ...) je Voxel ermittelt, werden im rechtsdrehenden kartesischen Koordinatensystem als R(X, Y, Z) oder im Kugelkoordinatensystem bzw. geographischen Koordinatensystem als R(R, θ, φ) bezeichnet und sind einander bekanntlich über eine entsprechende Transformationsmatrix eindeutig zugeordnet.

3. Die drei physikalisch möglichen relativen Rotationen der Bilderfassungsvorrichtung gegenüber einem Objekt im Raum werden als cö rot (ωχ, coγ, coz) bezeichnet. Sie stören die Ermittlung der Objektabstände und müssen vermieden oder ermittelt und rechnerisch oder durch Bildstabilisierung kompensiert werden.

4. Die Pose und Bewegung der Bilderfassungsvorrichtung startet vorzugsweise vor jeder neuen Ermittlung des Objektabstandes im Zentrum des Kugelkoordinatensystems in der Z-Achsen-Ausrichtung und mit einer der Abtastperiode δt zu- geordneten — vorgegebenen oder ermittelten — Translationsgeschwindigkeit v tr . Nach der Auswahl jeweils des Voxel eigenen Ablagewinkels α - z. B. des der optischen Achse und zugleich des Sensormittelpunktes - und der Voxel eigenen Raumabbildwinkelgeschwindigkeit ω meSjs e nsor auf der Sensorebene sowie ggf. der Kompensation einer relativen Rotation kann der durch mindestens ein Voxel ge- kennzeichnete Objektabstand als Radiusvektor einer Kreisbewegung berechnet werden.

5. Bei vorgegebenen und unvermeidlichen Rotationen der Bilderfassungsvorrichtung relativ zu den Objekten z.B. in Fahrzeugen oder in einer geführten Roboter- hand sind diese z.B. mit Drehratensensoren dreidimensional zu vermessen. Sie können zu jeder Abtastperiode z.B. durch die bekannten Bildstabilisierungsver-

08770

- 9 -

fahren optisch-mechanisch kompensiert oder rechnerisch eliminiert werden. Die Berechnungen von Translation und Rotation im beschriebenen Kamerakoordinatensystem KKS stellen Abweichungen gegenüber dem Weltkoordinatensystem WKS dar. Die Abweichungen werden vorzugsweise durch fortlaufende Nachfüh- rung und jeweilig korrigierten Start im WKS bis zu einer gewissen Genauigkeitsgrenze mit erneuter Kalibrierung z.B. mit Satellitennavigation (KKS- WKS- Matching) beseitigt.

6. Ein Radiusvektor R der zu einem beliebigen Objekt im Raum weist, bildet ei- nen Ablagewinkel α mit der Z-Bewegungsachse der Bilderfassungsvorrichtung.

Während der relativen Bewegung zwischen der Bilderfassungsvorrichtung und Objekt nähern oder entfernen sich beide gegensinnig auf parallelen Geraden zumindest für die Dauer einer Abtastperiode δt unter einem Ablagewinkel von z.B. α = 45° und einem Objekttrajektorienabstand D mit der Translationsgeschwin- digkeit \ ü . Falls keine Rotation auftritt, wird nach vielen Schritten für α = 90° der kürzeste Abstand und die höchste (Pseudo-) Winkelgeschwindigkeit ω max = v tr /D erreicht sein, die danach für Z gegen minus Unendlich gegen Null strebt. Dabei sind Objekttrajektorienabstand D und Objektabstand R über D = R- sin α verknüpft.

7. Im geographischen Koordinatensystem - hier vorzugsweise auf einer Einheitskugel mit Radius 1 zur Berechnung des unbekannten Radius R - befindet sich ein Objekt zunächst aus der Sicht einer Lochkamera am Punkt P 1 (Oi, O 1 ) auf der Kugeloberfläche mit beliebigem Längengrad φi und beliebigem Breiten- grad O 1 sowie unter einem zugehörigen Ablagewinkel (X 1 zur Bewegungsachse der Bilderfassungsvorrichtung in der Ausgangsposition Kugelzentrum bzw. geographisches Zentrum GZ. Zur Beschreibung und Berechnung des folgenden Bewegungsschrittes mit Raumabtastung während der Abtastperiode δt wird diese dreidimensionale Aufgabenstellung vorzugsweise auf eine zweidimensionale re- duziert, indem nur die jeweils betroffene Längenkreisebene betrachtet wird. Da dieser Bewegungsschritt von einem durch das Bilderzeugungselement einander zugeordnetem Sensorkoordinaten- und Raumkoordinatenpaar P 1 (X 1 , yθ und P 1 (O 1 , O 1 ) zum nächsten Paar p 2 (x 2 , y 2 ) und P 2 (O 2 , O 2 ) sich immer in einer bestimmten Längenkreisebene mit δφ ~ 0 abspielt, können alle Längenkreisebenen Schicht für Schicht für alle zugehörigen Breitegrad- bzw. α- Werte in der ganzen Sensorebene bzw. im zugehörigen Raumwinkelbereich zur Bestimmung der Ob-

jektabstände bzw. Radiusvektorlängen mit jeweils φ = Konstante und α bzw. θ als Laufparameter abgearbeitet werden. Dabei sind die Koordinaten eines Paares einander z.B. über eine Transformation oder besser eine Tabelle zur schnellen Berechnung fest zugeordnet. Breitengradwinkel θ und Ablagewinkel α sind all- gemein über θ = 90° - α bzw. für änderungen über δθ = - δα direkt verknüpft während δφ ~ 0 gilt.

8. Bei der vorangehenden und der nachfolgenden Betrachtung der Projektion des Objektraumes auf eine Sensorfläche mit z.B. einer Pixelmatrix p(x, y) im Sen- sorkoordinatensystem wird zunächst von Winkelverzerrungen abgesehen, was in der Nähe der optischen Achse herkömmlicher Kameras und bei konkav sphärischen Sensoroberflächen - angepaßt z.B. an eine modellhafte Lochkamera - berechtigt ist. In diesem Fall werden Winkel und Winkelgeschwindigkeiten - zunächst bis zur Beschreibung von Gleichung (2) — als unverzerrt betrachtet.

9. Bei der benannten Abbildung durch das Bilderzeugungselement gehen die Tiefeninformationen zunächst vollständig verloren. Da in der Praxis die änderungen der Radiusvektoren R durch relativ kleine Translationsschritte δL = v tr -δt gegenüber dem Radius R aus der Sicht der Bilderfassungsvorrichtung nur als Winkeländerungen δθ und δφ bzw. als Winkelgeschwindigkeiten ώ PR (dφ/dt, dθ/dt) bzw. ώ PR x , ω γ , ω z ) abgebildet werden, werden diese hier als Pseudo-Rotationen ώ PR benannt, da keine physikalischen Rotationen zugrunde liegen. Damit darf der Radius bzw. Objektabstand erfindungsgemäß nach der Kreisbewegungsgleichung berechnet werden.

10. Diese Näherung bedeutet im Einzelnen, daß die B ilderfassungs Vorrichtung nur den projizierten orthogonalen Teil des Translationsschrittes δL ort = v ort δt = δL-sinα = v tr -sinα-δt als Winkeländerung δα bzw. als projizierten Teilumfang δU = δα -R, d.h. als Teil des Gesamtumfangs U = 2π-R erfaßt. Damit wird nähe- rungsweise die Kreissehne δL ort dem zugehörigen Kreisbogen δU gleichgesetzt, wobei Winkeländerungen δα bis in den Bereich 20°,30° bis 50° nur geringe Fehler von 0,51%, 1.15% bis 3,2% erzeugen. Mit dieser Gleichsetzung gilt δU = δL ort bzw. R = v oτt - δt und damit R = v ort - δt / δα = v tr -sin α / ω .

11. Die Lehre der Erfindung besteht wesentlich darin, unter den komplexen Randbedingungen in relativ einfacher Weise die für die Messung der Objektabstände der Umgebung hergeleiteten notwendigen Größen zu bestimmen:

a) Der Ablagewinkel α des Objekts wird aus der Sicht der Bilderfassungsvorrich- tung vorzugsweise zunächst für die optische Achse OA des Bilderzeugungselements und des Raumabbildes der Sensorabbildung auf der Einheitskugel mit O 0 = 90°- (Xo und als Schnittpunkt des Zentralbreitenkreises θo und des Zentrallängenkreises φo dieser Sensorabbildung bestimmt. φ o wird vorzugsweise zugleich als Nullmeridian des geographischen Koordinatensystems festgelegt. Für die Berechnung aller Objektabstände im Bilderfassungsbereich werden die Konstanz der α- Werte auf den Breitengraden und die Konstanz der φ- Werte in allen Längenkreisebenen zur schnellen Berechnung genutzt.

b) Die translatorische Geschwindigkeit v tr gilt für alle Objekte gleichermaßen. Sie kann sowohl seitens der Bilderfassungsvorrichtung z.B. im Transportfahrzeug als auch durch bewegte Objekte z.B. auf einem Transportband vorgegeben sein oder - falls nicht - werden entsprechende Messungen durchgerührt. Aufgrund der Projektion der Objekte auf die Sensorfläche wirkt sich die radiale Komponente δR = δL-cos α, die die Länge des Radiusvektors R ändert, im Raumabbild gar nicht aus.

c) Die Bestimmung der Raumabbildwinkelgeschwindigkeiten ω mes sensor auf der Sensorfläche bzw. im Bilderfassungsbereich ist die wesentliche Meßaufgabe. Auf einem Sensor mit einer Vielzahl von Sensorelementen und Voxeln kann eine Vielzahl von Raumabbildwinkelgeschwindigkeiten ω meSjSensor bestimmt werden, jede Raumabbildwinkelgeschwindigkeit ω mes>S e n so r für ihren korrespondierenden Raumabschnitt. Aus der bzw. jeder einzelnen Raumabbildwinkelgeschwindigkeit ω mes,sensor kann dann einfach die Objektwinkelgeschwindigkeit ω mes ermittelt werden. Wie gezeigt, liefert die Projektion z.B. einer 2D-Kamera mit ω ort = ω mes direkt - bis auf die leicht zu entzerrende cos (X 3x - Winkelverzerrung für Objekte mit einer Projektionsablage α ax von der optischen Achse, die in den Längenkreisebenen mit dem zuvor definierten Ablagewinkel α übereinstimmt. Wie die Raumabbildwinkelgeschwindigkeiten ω mes, se nsor auf der Sensorfläche tatsächlich ermittelt werden - beispielswiese durch Objektverfolgung mittels Korrelations- verfahren oder andere geeignete Verfahren -, ist für den allgemeinen Erfin-

dungsgedanken unerheblich. Jedoch zeigt sich, daß an die Messung und Auswertung der Winkelgeschwindigkeiten der Bildverschiebung zwischen den Abtastperioden δt besondere Anforderungen gestellt werden, die von vielen in der Literatur beschriebenen Verfahren nicht erfüllt werden. Daher werden in nachfol- gend beschriebenen Weiterentwicklungen der Erfindung neuartige Auswerteverfahren vorgeschlagen.

Zusammengefaßt: Unter den beschriebenen Randbedingungen wird nur eine solche Bewegungskomponente des sich relativ zur B ilderfassungs Vorrichtung nä- hernden Objektes von dem Sensor bzw. Sensorelement erfaßt, die senkrecht bzw. orthogonal zum Radiusvektor R steht, sich also als änderung des Ablagewinkels α verhält, unter dem das Objekt gesehen wird. Daher wird von dem Sensorelement der Bilderfassungsvorrichtung die translatorische Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung v, r nur mit deren orthogonalen Be- tragsanteil v^-sinα = v ort wahrgenommen. Für den relativ kleinen Bewegungsabschnitt v on - δt = δU kann dieser bekannte Abschnitt auf dem Längenkreisumfang mit noch unbekanntem Radius R aufgetragen werden. Mit sin δoi mes = δU/R und näherungsweise sin Aα,^- δci mes bei einer entsprechend hohen Bildrate ergibt sich δU = R- δo mes - Gleichzeitig hat sich durch den relativen Translationsschritt der Ablagewinkel α um ein entsprechendes unbekanntes δα mes / δt = ω mes geändert. über diese Bestimmungsgleichungen folgt direkt die hier anwendbare allgemeine skalare Kreisbewegungsgleichung v ort = co ort -R und speziell hier die Gleichung (1) zur Bestimmung des unbekannten Objektabstandes. Erfindungsgemäß wird der Zusammenhang gemäß Gleichung 1 zwischen dem Abstand R des im Raum befindlichen Objektes zu der Bilderfassungsvorrichtung, der translatorischen Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung zu dem Objekt v tr , dem Ablagewinkel α des Objektes zu der Achse der translatorischen Bewegungsrichtung der Bilderfassungsvorrichtung und der - aus der auf dem Sensor als Raumabbildwinkelgeschwindigkeit ω meß,sensor erfaßten und daraus abgeleiteten - gemessenen Objektwinkelgeschwindigkeit ω meß verwendet, um den Objektabstand R zu ermitteln:

Unter den zuvor beschriebenen Randbedingungen geht die zu messende Objektwinkelgeschwindigkeit ω mes ausschließlich auf die translatorische Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung zurück, da es eine andere Bewegungskomponente nicht gibt. Erfindungsgemäß wird der Zusam- menhang gemäß Gleichung 1 zwischen dem Abstand R des im Raum befindlichen Objektes zu der, der translatorischen Relativgeschwindigkeit der Bewegung der B ilderfassungs Vorrichtung zu dem Objekt v tr , dem Ablagewinkel α des Objektes zu der Achse der translatorischen Bewegungsrichtung der Bilderfassungsvorrichtung und der auf dem Sensor als Raumabbildwinkelgeschwindigkeit er- faßten gemessenen Objektwinkelgeschwindigkeit verwendet, um den Objektabstand R zu ermitteln.

Ein großer Vorteil dieses Verfahren besteht darin, daß zur Abstandsbestimmung nur Geschwindigkeiten gemessen werden müssen, die Objektwinkelgeschwin- digkeit ω mes - resultierend aus der Raumabbildwinkelgeschwindigkeit ω mes>Sen so r der auf den Sensor abgebildeten Objekte — und die relative translatorische Kamerageschwindigkeit v tr gegenüber den Objekten.

Damit sind absoluten Geschwindigkeiten keine prinzipiellen Grenzen gesetzt. Die Einfachheit und Leistungsfähigkeit des Verfahrens werden deutlich durch den Insektenflug z.B. der Libellen und unser schnelles Autofahren, bei dem die geringe Reichweite unseres Stereosehens nur einen Bruchteil eines evtl. erforderlichen Bremswegs ausmacht. Alle bedienen sich dieses Prinzips des schnellen 3D-Sehens, wobei die eindimensionale Gleichung 1 erfindungsgemäß in dreidi- mensionales technisches Sehen umgesetzt werden kann.

Auf der Basis von Gleichung 1 und ihrer erfindungsgemäßen dreidimensionalen Anwendung besteht die Möglichkeit, mit einfachen Mitteln — im Wesentlichen mit einer 2D-Digitalkamera oder 2D-Videokamera - räumliche Objekte dyna- misch mit relativ hoher 3D-Bildrate (Kamera abhängig) zu vermessen - quasi als 3D- Videokamera. Damit wird z.B. ein Autonom Mobiler Roboter mit mindestens einer erfindungsgemäßen B ilderfassungs Vorrichtung und Auswertung - vorzugsweise als rundum schauendes 3D- Videokamerasystem - selbständig navigieren können, wobei mit Hilfe der abschnittsweise gemessenen translativen Fahrgeschwindigkeit, abschnittsweise gleichzeitiger Messung und Kompensation der unvermeidlichen Rotationsbewegungen und laufender Nachführung des Ka-

merakoordinatensystems im Weltkoordinatensystem autonomes Fahren mit minimalem Aufwand ohne aktive Beleuchtung ermöglicht wird.

Zur technischen Umsetzung des erfindungsgemäßen Verfahrens sind bzgl. des Bilderzeugungselements und des Sensors folgende Aspekte zu berücksichtigen. Wenn das Bilderzeugungselement das Raumbild durch ein Objektiv abbildet, entsteht eine Vielzahl von Abbildungsfehlern. Heute werden praktisch nur noch korrigierte Objektive eingesetzt, deren geometrische Verzeichnungen oft vernachlässigbar sind, wenn die Abbildungsfehler nur noch in den Randbereichen Fehler von z.B. 2% erreichen. Diese Präzision vermeidet jedoch nicht die perspektivischen Verzerrungen von Winkeln und der gesuchten Winkelgeschwindigkeit ω mes = ω ort auf der üblich ebenen Sensorebene bei schrägem Lichteinfall auf dem Sensor. Dieser Fehler tritt nahe der optischen Achse kaum und durch die sphärisch angepaßte Sensoroberfläche, wie zuvor beschrieben, nicht auf. Da der Fehler auf dem speziellen Sensor beruht, wird die auf dem Sensorelement verfälschte Objektwinkelgeschwindigkeit, also die Raumabbildwinkelgeschwindigkeit, mit ω meSjs e nsor bezeichnet. Auf dem ebenen Sensor ist die Winkelablage auf der Pixelmatrix des Sensors von der optischen Achse OA(Xo, y 0 ) ebenso wie im Raum von der optischen Achse OA(θ 0 , φ o ) bzw. OA(α 0 , φ o ) bzw. auf der geo- graphischen Einheitskugel durch den Ablagewinkel α des jeweils objektbezogenen Längenkreises bestimmt. Dieser Fehler kann mit sehr guter Näherung durch G> mes,sensor = ω mes /cos (x beschrieben werden. In diesem Fall tritt Gleichung 2 anstelle Gleichung 1 mit ω mes = ω mes sensor - cos α:

R _ v, r - sinα = v, r - tanα 0W^ r - COSO! ω meß sensor

Jeder hier betrachtete Bewegungsabschnitt der B ilderfassungs Vorrichtung weist vom geographischen Zentrum GZ aus vorzugsweise Richtung Nordpol bzw. Z- Achse. Für den Fall, daß die optische Achse OA der B ilderfassungs Vorrichtung gegenüber dieser Bewegungsachse und damit auch die Sensorebene um einem Winkel ß geneigt ist, gilt für den achsennahen Bereich des Objektivs ß ~ α auch eine entsprechend geringe Verzeichnung in der Nähe der optischen Achse. Gleiches gilt für alle Längengradpunkte im Sichtbereich, die auf dem gleichen Brei- tengrad θ = 90° - α bzw. Ablagewinkel liegen. Für ß = 90° liegt der Bilderfas-

sungsbereich mit den geringsten Verzerrungen im Bereich der höchsten Winkelgeschwindigkeit und damit auch der höchsten Meßgenauigkeit. Die zugleich erforderliche hohe Abtastrate der Bildaufhahme ist entsprechend aufwendig und kann z.B. von unserem Auge bei der unmittelbaren Passage eines Straßenbaums beim Autofahren nicht erfüllt werden. Für die Schätzung der Verzerrungen ist jetzt die Größe der Breitengradwinkelabweichung zwischen dem Breitengrad der optischen Achse und dem betrachteten Voxel oder Objekt verantwortlich. Dieser Zusammenhang der entzerrenden Wirkung der Achsausrichtung auf den Bildinteressensbereich wird in Gleichung (3) - auch unter Bezug der zu Gl. (2) aufgeführten Anmerkungen - berücksichtigt.

R = V - ' sinα (3)

∞rneß.sens or ' COS( ( X - ß)

Vor einer Auswertung der später beschrieben schrittweise abgetasteten Sensor- elementsignale bzgl. der gesuchten Winkelgeschwindigkeiten ω mes können vorzugsweise die in Gleichung 2 näherungsweise berücksichtigten Verzerrungen der Winkelabbildung durch eine der bekannten zweidimensionalen Bildtransformationen so entzerrt werden, daß die kartesisch beschriebenen Pixel- und Voxel- strukturen weitgehend unverzerrte Winkelverhältnisse repräsentieren. Gleiches gilt analog für die Entzerrung der nachfolgend beschriebenen hexagonalen He- xel- und Voxelstrukturen.

Die Raumabbildwinkelgeschwindigkeit ω meSjsensor kann - wie erwähnt - mit ganz unterschiedlichen Verfahren durch Auswertung der Sensorelementsignale ge- wonnen werden.

Nach einer bevorzugten Ausgestaltung der Erfindung wird die Raumabbildwinkelgeschwindigkeit ω mes,sensor - aus der letztlich die interessierende Objektwinkelgeschwindigkeit ω meS] ableitbar ist - ermittelt, indem durch geeignete Gewich- tung der Sensorelementsignale wenigstens zweier Sensorelemente - Voxel - in wenigstens einer Sensorrichtung ein Ortsfrequenzfilter gebildet wird, wobei das Ortsfrequenzfilter mindestens die Sensorelementsignale des Voxels einer Ortsfrequenzfilterung in wenigstens zwei verschiedenen Ortsfrequenzfilterphasen φ 0 , φ 9 o unterzieht, und aus den erhaltenen korrespondierenden Ortsfrequenzfilter- komponenten A 0 , A 90 eine Raumabbildphase φ des Voxels ermittelt wird, und

indem durch zeitliche Signalabtastung des Ortsfrequenzfilters wenigstens zwei Raumabbildphasen φ des Voxels ermittelt werden und aus den zeitlich beabstan- deten Raumabbildphasen φ die Raumabbildwinkelgeschwindigkeit ω mes,sensor ermittelt wird. Es ist zu berücksichtigen, daß sich die interessierende Raumabbild- Winkelgeschwindigkeit ω mes,sensor proportional zur zeitlichen Ableitung der Raumabbildphase verhält und sich daher -je nach den realisierten geometrischen Verhältnissen - ohne weiteres aus der zeitlichen Ableitung der Raumabbildphase gewinnen läßt. Durch das Ortsfrequenzfilter ist eine Ermittlung der Raumabbildwinkelgeschwindigkeit ω meS)Sensor auch aus einem wenig strukturierte Raum- bild möglich, das auch nur ein wenig strukturiertes Raumabbild auf dem Sensor liefert.

Der sich dadurch ergebende ungewohnte Lösungsweg der vorliegenden Erfindung hat mit der Messung periodischen Strukturen sowohl im Zeitbereich, im Ortsbereich als auch im Winkelbereich zu tun:

Größen im Zeitbereich: Zeitperiode T; Dauer einer Schwingung [s], Zeitfrequenz f = l/T [Hz], Kreisfrequenz oder Winkelgeschwindigkeit ω = 2π/T = 2πf.

Größen im Ortsbereich: Ortsperiode; Länge einer Welle [m], Ortsfrequenz v = 1/λ [lp/mm Linienpaare/mm oder Perioden/m], Ortskreisfrequenz oder Ortswinkelgeschwindigkeit k = 2π/λ.

Größen im Winkelbereich sind besonders für 2D-Kameras wichtig, da deren Sensorabbildungseigenschaften auf den Raumwinkel ω im Raum keine Längenmessungen sondern nur Winkelmessungen erlauben:

Eine ideale Pixelabbildung von # pix und φ pix in den Raum erzeugt mit bipolar gewichteten Pixelpaaren Winkelperioden von horizontal 2 i9- pix und vertikal 2φ p ; x in mrad (Milli-Radiant), wobei der horizontale und der vertikale öffnungswinkel 19- M bzw. φ>j durch Division der halben zugehörigen Pixelzahl M/2 bzw. N/2 die Winkelperioden im Raum ergeben.

Die Messung der Winkelgeschwindigkeiten ω rot = ω mes wird vorzugsweise nach der Entzerrung der fehlerbehafteten Abbildung eines ebenen Sensors durchgeführt — wie nachfolgend anhand der Zeichnungen ab Fig. 3 dargestellt. Dabei

8 008770

- 17 -

wird eine Bildverschiebung z.B. in x-Richtung mit der Geschwindigkeit V x auf dem Sensor bei abwechselnd positiver und negativer Gewichtung der zufälligen Intensitäten die so gefilterte Ortsfrequenz mit 2 Pixeln pro Periode = l/2p mit p als Pixelgröße in der Summe der Amplituden der einbezogen Perioden im Zeit- bereich die Periode T x (t) = λ x /v x bzw. Frequenz f x (t) = V x / I x ein Signal A x (t) erzeugen. Dieser komplexe Zeiger A x (t) repräsentiert die durch das Ortsfrequenzfilter gewonnene lokale Spektrallinie mit zufälliger Bildamplitude und Bildphase und kann somit Phasenwerte zur Gewinnung der zugehörigen Winkelgeschwindigkeit durch Phasenänderungen pro Abtastperioden liefern.

Die Raumabbildwinkelgeschwindigkeit ω mes,sensor des Raumabbildes auf dem Sensor wird folglich über eine Ortsfrequenzanalyse der Sensorelementsignale des Sensors ermittelt. ähnlich wie im Zeitbereich durch Korrelation eines zeitveränderlichen Signals mit einer harmonischen Schwingung einer bestimmten Frequenz diejenigen Bestandteile des Zeitsignals extrahiert werden können, die die Frequenz der korrelierten harmonischen Schwingung aufweisen - Zeitfrequenzfilter -, lassen sich im Ortsbereich durch entsprechende Korrelation eines räumlich erstreckten Signals - Raumabbild - mit einem Signal — z.B. Gewichtungsbild aus Sensorelementen - bestehend aus einer harmonischen Schwingung mit einer bestimmten Ortsfrequenz, solche Bildbestandteile extrahieren, die diese spezielle Ortsfrequenz des Ortfrequenzfilters aufweisen.

Genau wie im Zeitbereich ist die Frequenzfilterung im Ortsbereich in der speziellen Gewichtung der empfangenen Sensorsignale begründet, wobei die Gewich- tung üblicherweise mit einer harmonischen Schwingung erfolgt. Der Extraktionseffekt ist darin begründet, daß sich Signale mit einer anderen Ortsfrequenz als der des Ortsfrequenzfilters herausmitteln, insbesondere dann, wenn das Ortsfrequenzfilter über mehrere Ortsperioden erstreckt wird. Erfindungsgemäß wird also durch geeignete Gewichtung von Sensorelementsignalen wenigstens zweier Sensorelemente - im folgenden allgemein als Voxel bezeichnet - in wenigstens einer Sensorrichtung ein Ortsfrequenzfilter gebildet, das es ermöglicht, das Raumabbild nach einer Ortsfrequenz auszuwerten, was in verschiedener Weise geschehen kann, worauf später im Detail eingegangen werden wird.

Erfindungsgemäß unterzieht das Ortsfrequenzfilter die Sensorelementsignale des Voxels einer Ortsfrequenzfilterung in wenigstens zwei verschiedenen Ortsfre-

quenzphasen, wobei aus den erhaltenen korrespondierenden Ortsfrequenzfüter- komponenten eine Raumabbildphase des Voxels ermittelt wird. In einem speziellen Fall kann es sich bei den zwei verschiedenen Ortsfrequenzfilterkomponenten um die Inphase- und die Quadratur-Komponente der Raumabbildphase des Vo- xels handeln.

Aufgrund der Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung bewegt sich das Raumabbild, insbesondere das Raumabbild des Objekts, dessen Abstand ermittelt werden soll, über den Sensor und damit über die Sen- sorelemente des Voxels hinweg. Bei einer zeitlichen Abtastung des Ortsfrequenzfilters werden zwei Raumabbildphasen des Voxels ermittelt, wobei dann aus der Differenz der beiden Raumabbildphasen und der Division mit der Abtastperiode die Raumabbildwinkelgeschwindigkeit des Raumabbildes ermittelt wird. Wie zuvor aufgezeigt worden ist, läßt sich dann über die Relativgeschwin- digkeit der Bilderfassungsvorrichtung, die Raumabbildwinkelgeschwindigkeit des auf das Voxel abgebildeten Objekts und über den Ablagewinkel des Objekts der Abstand des Objekts ermitteln.

Das vorliegende Verfahren zu Abstandsbestimmung dient in der praktischen Anwendung nicht nur der Bestimmung eines Abstandes eines Objektes aus dem gesamten - strukturierten — Raumbild, vielmehr wird aus der Abbildung des Raumbildes, also aus dem Raumabbild, eine Vielzahl von Abstandsinformationen in verschiedenen Ablagewinkeln gewonnen, so daß schließlich ein SD- Raumbild der gesamten wahrgenommenen Szene resultiert. Bei einer bevorzug- ten Ausgestaltung des erfindungsgemäßen Verfahrens wird daher eine Vielzahl von Abständen R in verschiedenen Ablagewinkeln ermittelt und aus der Vielzahl von Abständen ein 3D-Raumbild erstellt.

Das erfindungsgemäße Verfahren zur Abstandsbestimmung weist gegenüber aus dem Stand der Technik bekannten Verfahren erhebliche Vorteile auf. Beispielsweise kann das Verfahren mit einem ganz gewöhnlichen Sensor durchgeführt werden, im Falle eines lichtempfindlichen Sensors also beispielsweise durch Verwendung eines handelsüblichen Bildsensors zum Beispiel in CCD- oder CMOS-Technologie. Der verwendete Bildsensor muß nicht in besonderer Weise ausgestaltet sein, da die Ortsfrequenzfilterung der Sensorelementsignale eines Voxels allein durch geeignete Gewichtung der Sensorelementsignale erfolgt,

wobei diese Gewichtung durch eine nachgelagerte Signalverarbeitung erfolgen kann, die entweder algorithmisch durch eine oder mehrere für sich jeweils sequentiell arbeitende Datenverarbeitungsvorrichtungen vorgenommen wird oder beispielsweise auch hardwaremäßig implementiert sein kann; das erfindungsge- mäße Verfahren ist unabhängig von der jeweils zur Anwendung kommenden technologischen Umsetzung. Die Ortsfrequenzfilterung ist sehr einfach umsetzbar und liefert praktisch unmittelbar die Raumabbildwinkelgeschwindigkeit eines Objektes, ohne daß das Raumabbild des Objekts durch kompliziertes Auffinden von Korrespondenzen mittels Bildanalyse verfolgt werden muß.

Die Abmessungen der Sensorelemente des Sensors legen die kleinstmögliche Ortsperiode fest, mit der ein Ortsfrequenzfilter realisierbar ist, diese entspricht der Erstreckung zweier Sensorelemente in der auszuwertenden Sensorrichtung. Je nach Größe des Sensors sind jedoch beliebig größere Ortsperioden des Orts- frequenzfilters realisierbar, die insgesamt ganzzahlige Vielfache der Abmessung eines Sensorelements ausmachen können und die gleichzeitig und ggf. auch adaptiv zur genaueren Bestimmung der Raumabbildwinkelgeschwindigkeit genutzt und ausgewertet werden können.

Die Abstandsbestimmung ist auch nicht abhängig von der Fremdbeleuchtung des zu erfassenden Objekts durch die B ilderfassungs Vorrichtung mit bestimmten Meßsignalen, wie zum Beispiel kohärentem Licht. Zur Realisierung eines Ortsfrequenzfilters sind lediglich die Sensorelementsignale mit ihren erfaßten Signalintensitäten auszuwerten, hierbei kann es sich beispielsweise im Falle eines lichtempfindlichen Bildsensors z. B. um schwach melierte Grauwerte oder gleichmäßig und stochastische Texturen erzeugt durch Straßenbelag, Rasen, Blätterwerk usw. handeln, was bei anderen Bilderfassungsvorrichtungen zu unlösbaren Korrespondenzproblemen fuhren kann. Ein weiterer Vorteil des erfln- dungsgemäßen Verfahrens besteht darin, daß es nicht empfindlich ist gegenüber Eigenbewegungen der Bilderfassungsvorrichtung, eine Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung zu dem Objekt, dessen Abstand erfaßt werden soll, ist vielmehr für die Abstandsbestimmung notwendig.

Der Erfindung liegt ferner die Erkenntnis zugrunde, daß eine Rotationskompo- nente der Bewegung der Bilderfassungsvorrichtung im Rahmen des Sichtfeldes zu keiner Raumabbildverschiebung führt, die eine Ortsinformation enthält. Dies

ist beispielsweise nachvollziehbar, wenn eine Rotation der Bilderfassungsvorrichtung um eine Achse der Hauptebene des Bilderzeugungselements der Bilderfassungsvorrichtung angenommen wird. Bei dieser Rotationsbewegung werden alle Elemente des Raumbildes unabhängig von ihrem Objektabstand (!) mit der gleichen durch die Rotation verursachten Winkelgeschwindigkeit auf dem Sensor bewegt, die abgebildeten Objekte verändern in dem Raumabbild ihre relative Position zueinander nicht. Der zuvor beschriebene Effekt gilt auch für alle anderen Rotationsbewegungen und den Rotationsanteil einer gemischt rotatorisch- translatorischen Bewegung der Bilderfassungsvorrichtung.

Nach einer besonders vorteilhaften Ausgestaltung der Erfindung ist deshalb vorgesehen, daß zur Ermittlung der Raumabbildwinkelgeschwindigkeit und damit des Objektabstandes im wesentlichen nur die Translationskomponente der Bewegung der Bilderfassungsvorrichtung herangezogen wird. Dies ist beispielswei- se realisierbar, indem die enthaltenen Rotationskomponenten der Bewegung der Bilderfassungsvorrichtung durch Stabilisierung der Bilderfassungsvorrichtung kompensiert werden, wobei die Bilderfassungsvorrichtung bzw. Komponenten der Bilderfassungsvorrichtung so der Rotationsbewegung entgegengesetzt ausgerichtet werden, daß das Raumabbild auf dem Sensor die Rotationsbewegung nicht nachvollzieht, das Raumabbild folglich nur die Translationsbewegung nachbildet. Eine andere Möglichkeit besteht darin, daß die in der Bewegung der Bilderfassungsvorrichtung enthaltene Rotationskomponente zwar zu dem Sensor der Bilderfassungsvorrichtung gelangt, aber erfaßt und nachträglich eliminiert wird.

Ein Sonderfall paralleler Rotationen mag die Rotationskompensation der störenden echten Rotation veranschaulichen: bei einer ebenen Kurvenfahrt mit montierter Bilderfassungsvorrichtung und konstanter Geschwindigkeit v rot = 4m/s um einen z.B. 40m weit entfernten Baum als Kurvenmittelpunkt wird trotz der ech- ten Rotation ω rot = - 4m/s /40m = - 0, 10 rad/s (positiv, wenn in gleicher Kurvensituation der Baum spiegelverkehrt steht) auf dem Raumabbild eine falsche Winkelgeschwindigkeit ω meß = 0 gemessen, weil das betreffende abbildende Sensorelement drehbewegungslos auf den Baum gerichtet ist und so die durch Translation verursachte Pseudo-Rotation vollständig kompensiert. Erst der Wert ω meß - ω rot = 0 - (- 4m/s /40m) = +0,10 rad/s gibt den richtigen Wert wieder. Komplexere Rotationen müssen nur mit ihrem vektoriellen Anteil in der Sensor-

ebene berücksichtigt werden. Wenn dieser zum Vektor ω meß parallele Anteil ω rot ermittelt wurde, kann die störende Rotation der betreffenden Meßperiode unter Berücksichtigung der zu Gl. (2) und (3) ausgeführten Anmerkungen zum "cosα"- bzw. "cos(α-ß)"-Term gemäß Gl. (4) kompensiert werden.

Jg - V - ' sinα (4)

Bei einer weiteren vorteilhaften Ausgestaltung der Erfindung wird die Raumabbildwinkelgeschwindigkeit in mehr als nur einer Sensorrichtung ermittelt, so daß die Abbildung eines beliebig angeordneten Objektes bei beliebiger Bewegung der Bilderfassungsvorrichtung vollständig erfaßt werden kann, denn im allgemeinen Fall überstreicht das Raumabbild des Objektes auf dem Sensor den Sensor nicht nur in einer Sensorrichtung, sondern örtlich verteilt in mehreren Sensorrichtungen. Bei Ermittlung von Raumabbildwinkelgeschwindigkeiten in mehr als einer Sensorrichtung werden die je Voxel erhaltenen Raumabbildwinkelgeschwindigkeiten vektoriell zu einer Gesamtraumabbildwinkelgeschwindigkeit addiert, und die erhaltene Gesamtraumabbildwinkelgeschwindigkeit wird der Ermittlung des Objektabstandes dann zugrundegelegt, so daß eine richtige Abstandsinformation des Objektes und der Projektion der Bewegungsrichtung er- halten wird. In diesem Zusammenhang sieht eine weitere bevorzugte Ausgestaltung der Erfindung vor, daß die Schwerpunkte der in verschiedenen Sensorrichtungen zur Berechnung des Objektabstandes für einen bestimmten Raumteil gebildeten Voxel nahe zusammen liegen, insbesondere im wesentlichen identisch sind. Dies hat den Vorteil, daß die verschiedenen addierten Raumabbildwinkel- geschwindigkeiten in allen ausgewerteten Sensorrichtungen tatsächlich zu derselben Raumrichtung und daher zu demselben erfaßten Objekt gehören.

Die vollständige Trajektorie des Objektes ergibt sich bei bekannter relativer Geschwindigkeit v tr aus der Meßfolge der dreidimensionalen Objektpositionen.

In einem bevorzugten Ausführungsbeispiel des erfindungsgemäßen Verfahrens werden die Gewichtungen von Sensorelementsignalen der Sensorelemente eines Voxels in einer Sensorrichtung in einer Ortsfrequenzfilterphase so gewählt, daß eine möglichst gute Sinus-Approximation realisiert wird, so daß ein bestimmter harmonischer Anteil des Raumabbildes möglichst gut extrahiert werden kann. Bei der Wahl der Gewichtungen der Sensorelementsignale der Sensorelemente

wird dabei insbesondere auch der Geometrie der beteiligten Sensorelemente Rechnung getragen, da die Geometrie der Sensorelemente gleichermaßen die Funktionalität des erhaltenen Ortsfrequenzfilters beeinflußt. Dies ist insbesondere dann von Bedeutung, wenn die Form der Sensorelemente von der -jedenfalls für einen lichtempfindlichen Sensor üblichen - rechteckigen Form abweicht.

Bei einer weiteren, mit dem zuvor erläuterten Merkmal in Beziehung stehenden bevorzugten Ausgestaltung der Erfindung werden die Sinus-Approximationen der Gewichtungen der Sensorelementsignale in wenigstens zwei Ortsfrequenzfil- terphasen in einer Sensorrichtung relativ zueinander so gewählt, daß die Ortsfre- quenzfilterphasen um im wesentlichen eine viertel Ortsperiode zueinander phasenverschoben sind. Durch diese Maßnahme wird erreicht, daß die beiden erhaltenen korrespondierenden Ortsfrequenzfilterkomponenten orthogonal aufeinander stehen und gleichsam ein orthogonales Koordinatensystem für den Zeiger der Raumabbildphase aufspannen. Die Ortsfrequenzfilterkomponenten verhalten sich in diesem Fall wie die Inphase- und Quadratur-Komponenten von entsprechenden, aus der Nachrichtentechnik aus dem Zeitfrequenzbereich bekannten I/Q- Auswertesy stemen .

Durch die zwei mit den zwei auszuwertenden Ortsfrequenzfilterphasen korrespondierenden Ortsfrequenzfilterkomponenten wird der das Ausgangsignal des Ortsfrequenzfilters beschreibende Zeiger und damit die Raumabbildphase vollständig beschrieben, unabhängig davon, ob die Ortsfrequenzfilterphasen die Approximation einer harmonischen Schwingung darstellen und die Ortsfrequenzfϊl- terphasen relativ zueinander orthogonal aufeinander stehen. Der Betrag - also die Länge - des Zeigers des Ortsfrequenzfilterausgangssignals ermöglicht die Beurteilung der zugrundeliegenden Signalqualität, wobei Signale zu geringer Amplitude verworfen werden können.

In einer besonders vorteilhaften Ausgestaltung der Erfindung wird die Ortsfre- quenzfilterung in wenigstens einer Sensorrichtung in verschiedenen Ortsfrequenzfilterphasen durchgeführt, indem wenigstens ein Sensorelement einem Vo- xel - unabhängig von der auszuwertenden Ortsfrequenzfilterphase - fest zugeordnet wird und der Sensor in und/oder entgegen der einen Sensorrichtung ent- sprechend der zu erzielenden Ortsfrequenzfϊlterkomponente (A 0 , A 90 ) in der jeweiligen Ortsfrequenzfilterphase verschoben wird, so daß also eine Sensorver-

schiebung realisiert wird. Bei der Anwendung dieses Verfahrens kann ein Ortsfrequenzfilter in einer Phase beispielsweise aus zwei in der gewählten Sensorrichtung benachbarten Sensorelementen bestehen, deren Sensorelementsignale zum Beispiel mit unterschiedlichen Vorzeichen gewichtet werden. Das gleiche, aus denselben benachbarten Sensorelementen bestehendes Voxel gestattet eine Ortsfrequenzfilterung desselben Raumabbildes in einer anderen Ortsfrequenzfil- terphase, indem der Sensor in der gewählten Sensorrichtung verschoben wird, beispielsweise um die Länge eines halben Sensorelements bzw. um die Länge eines Viertels einer Ortsperiode verschoben wird, wodurch eine 90°- Verschiebung realisiert wird, in der Praxis z. B. durch ein als Aktor betriebenes Piezoelement. Bei dem so ausgestalteten Verfahren können die beiden Ortsfre- quenzfilterkomponenten in den verschiedenen Ortsfrequenzfilterphasen also zeitlich nur nacheinander ermittelt werden. Es ist daher besonders wünschenswert, die Verschiebung des Sensors möglichst schnell nach Erfassung der ersten Orts- frequenzfilterkomponente in der ersten Ortsfrequenzfilterphase durchzufuhren, so daß die beiden verschiedenen Ortsfrequenzfilterphasen in der gewählten Sensorrichtung möglichst zeitnah zueinander ermittelt werden, damit das Raumabbild zwischenzeitlich nur einer möglichst geringen Lageänderung unterworfen gewesen ist.

Gemäß einer weiteren bevorzugten Ausgestaltung der Erfindung, die mit der zuvor beschriebenen Ausgestaltung auch kombiniert realisiert werden kann, wird die Ortsfrequenzfilterung in wenigstens einer Sensorrichtung in verschiedenen Ortsfrequenzfilterphasen durchgeführt, indem wenigstens ein Sensorelement ei- nem Voxel - unabhängig von der auszuwertenden Ortsfrequenzfilterphase — fest zugeordnet wird und das Raumabbild in und/oder entgegen der einen Sensorrichtung entsprechend der zu erzielenden Ortsfrequenzfilterkomponente A 0 , A 9 o in der jeweiligen Ortsfrequenzfilterphase verschoben wird, wodurch eine Raumabbildverschiebung realisiert wird. Diese Raumabbildverschiebung wird insbeson- dere durch Lageänderung des Bilderfassungselements erzielt, wozu nur sehr geringe Auslenkungen des Bilderfassungselements nötig sind; es kann sich dabei auch nur um die Lageänderung eines Teils des Bilderfassungselements handeln, beispielsweise um die Auslenkung eines Prisma, das Bestandteil des Bilderfassungselements sein kann. Für die Auswertung der Sensorelementsignale gilt bei der Raumabbildverschiebung grundsätzlich das gleiche, was zuvor auch zu der Sensorverschiebung ausgeführt worden ist.

Wenn davon die Rede ist, daß es vorliegend um ein Verfahren zur Bestimmung des Abstandes wenigstens eines im Raum befindlichen Objektes zu einer Bilderfassungsvorrichtung mit einem Bilderzeugungselement und einem Sensor geht, dann mag dies zunächst die Vorstellung mit sich bringen, daß hier lediglich optische Bilderfassungsvorrichtungen betrachtet würden. Tatsächlich ist das erfindungsgemäße Verfahren weder auf die Verwendung mit einer "üblichen" Bilderfassungsvorrichtung im sichtbaren Bereich des Lichtes beschränkt, noch überhaupt auf die Verwendung mit einer Bilderfassungsvorrichtung, die sich auf die Detektion elektromagnetischer Strahlung beschränkt. Vielmehr ist das hier beschriebene Verfahren auf eine Vielzahl von Signalen anwendbar, die von im Raum befindlichen Objekten ausgehen, also beispielsweise von diesen Objekten reflektiert werden. Dabei kann es sich in Analogie zu dem von Objekten reflektierten Tageslicht beispielsweise auch um von Objekten reflektierte Schallwellen handeln, die durch ein gasförmiges oder flüssiges Medium transportiert werden. Das erfindungsgemäße Verfahren hängt grundsätzlich nicht von der Art der Bilderfassungsvorrichtung und der Art der erhaltenen Sensorelementsignale ab, solange der Sensor aus mehreren im wesentlichen flächig nebeneinander angeordneten Sensorelementen besteht und das Bilderzeugungselement wenigstens einen Teil des Raumes auf den Sensor abbildet und ein von dem Bilderzeugungselement unter einem bestimmten Ablagewinkel erfaßter Raumteil auf ein bestimmtes Sensorelement abgebildet wird und von den Sensorelementen entsprechende - wie auch immer geartete - Sensorsignale erzeugt werden.

Nach einer weiteren besonders bevorzugten Ausgestaltung des erfindungsgemäßen Verfahrens, wird die Ortsfrequenzfilterung in wenigstens einer Sensorrichtung in verschiedenen Ortsfrequenzfilterphasen durchgeführt, indem je auszuwertender Ortsfrequenzfϊlterphase - zumindest teilweise - verschiedene Sensorelemente einem Voxel - Phasenvoxel - fest zugeordnet werden, wobei die derart entstehenden Phasenvoxel in der auszuwertenden Sensorrichtung gegeneinander ortsphasenverschoben sind, wodurch letztlich eine Voxelverschiebung realisiert wird. Das Verfahren gemäß diesem Ausführungsbeispiel hat den Vorteil, daß zur Auswertung zweier verschiedener Ortsfrequenzfilterphasen nur ein zu einem einzigen Zeitpunkt von dem Sensor erfaßtes Raumabbild erforderlich ist, es müs- sen lediglich — sofern die Phasenvoxel zumindest teilweise die gleichen Sensorelemente verwenden - die Sensorelementsignale bestimmter Sensorelemente mehrfach bewertet bzw. gewichtet werden, um eine

mehrfach bewertet bzw. gewichtet werden, um eine Ortsfrequenzfilterung in den beiden Ortsfrequenzfilterphasen zu ermöglichen. Mit diesem Verfahren lassen sich insgesamt sehr hohe Abtastraten der Ortsfrequenzfilter erzielen.

Im Extremfall haben die Phasenvoxel, also die Voxel, die die Ortsfrequenzfilterung in verschiedenen Ortsfrequenzfilterphasen ermöglichen, überhaupt keine gemeinsamen Sensorelemente mehr, so daß zur Erfassung verschiedener Ortsfrequenzfilterphasen nicht mal mehr eine Voxelverschiebung notwendig ist. Auch wenn es in diesem Fall keine Sensorelemente gibt, die sowohl zur Auswer- tung der einen als auch der anderen Ortsfrequenzfϊlterphase benötigt werden, ist dies ein besonderer Fall des vorbeschriebenen Verfahrens der Voxelverschiebung, auch wenn in diesem Fall gerade keine Voxelverschiebung mehr notwendig ist.

Gemäß einer weiteren bevorzugten Ausgestaltung der Erfindung werden zur Feststellung der Ortsfrequenzfilterkomponenten eines Voxels in einer Sensorrichtung nicht nur die gewichteten Sensorelementsignale des betreffenden, die Ortsperiode definierenden Voxels - Zentralvoxel - herangezogen, sondern zusätzlich auch die Sensorsignale von wenigstens einer in der auszuwertenden Sen- sorrichtung liegenden ortsperiodischen Wiederholung des zentralen Voxels - Nebenvoxel — , so daß das Zentralvoxel und das Nebenvoxel eine Voxelzeile definieren, wobei insbesondere die korrespondierenden Sensorsignale des Zentral- voxels und des Nebenvoxels aufsummiert werden. Das Zentralvoxel bildet vorzugsweise den Mittelpunkt einer Voxelzeile. Von besonderen Vorteil ist es in diesem Zusammenhang, wenn die Sensorsignale der Nebenvoxel schwächer gewichtet werden als die korrespondierenden Sensorsignale des Zentralvoxels, nämlich insbesondere mit zunehmenden Abstand von dem zentralen Voxel abnehmend gewichtet werden, insbesondere gemäß einer glockenförmigen Gewichtungskurve, vorzugsweise gemäß einer harmonischen Gewichtungskurve, vorzugsweise gemäß einer Gewichtungskurve ohne Gleichanteil. Es eignet sich beispielsweise eine Gaußkurve als Gewichtungskurve. Durch diese Maßnahme wird gewährleistet, daß Oberwellen und Rauschen grundsätzlich unterdrückt werden und daß das aus einem Zentralvoxel hinauswandernde Raumabbild weiterhin erfaßt wird und zur kontinuierlichen Erfassung der Raumabbildwinkelge- schwindigkeit weiter erfaßbar ist, so daß eine gewisse Stetigkeit in der Erfassung

der Raumabbildphasen und damit der Raumabbildwinkelgeschwindigkeit gewährleistet ist.

Aus den zuvor gemachten allgemeinen Ausfuhrungen zu dem erfindungsgemä- ßen Verfahren, insbesondere zu den geometrischen und kinematischen Besonderheiten des erfindungsgemäßen Verfahrens, geht hervor, daß die Relativgeschwindigkeit der Bilderfassungsvorrichtung - hier insbesondere die Translationskomponente der Bewegung - direkt in den ermittelten Objektabstand eingeht. Vor diesem Hintergrund ist ersichtlich, daß eine statische Szenerie von Objekten mit dem erfindungsgemäßen Verfahren ohne weiteres gut erfaßbar ist, sich Un- genauigkeiten jedoch dann ergeben, wenn die im Erfassungsbereich der Bilderfassungsvorrichtung befindlichen Objekte eine - unbekannte — Eigenbewegung aufweisen.

Gemäß einer besonders bevorzugten und vorteilhaften Ausgestaltung der Erfindung wird der zu einem ersten Zeitpunkt unter einem bestimmten Ablagewinkel ermittelte Abstand eines Objektes zu der Bilderfassungsvorrichtung zur Prädiktion zukünftiger Abstände des Objektes unter zukünftigen Ablagewinkeln unter Annahme statischer - nicht eigenbewegter Objekte - und unter Kenntnis der Re- lativgeschwindigkeit der Bewegung der B ilderfassungs Vorrichtung herangezogen. Zum Verständnis dieser Ausgestaltung der Erfindung ist es wichtig, sich zu vergegenwärtigen, daß der von der Bilderfassungsvorrichtung erfaßte Verlauf eines statischen Objektes bei bekannter Relativgeschwindigkeit der Bewegung der Bilderfassungsvorrichtung zu diesem Objekt zu jedem Zeitpunkt determinierbar ist, sobald die Position des Objektes - Objektabstand und Ablagewinkel - zu einem Zeitpunkt bekannt gewesen ist. Wenn das Objekt statisch ist, also über keine Eigenbewegung verfügt, läßt sich die Position dieses Objektes zu jedem zukünftigen Zeitpunkt demnach weitgehend deterministisch vorhersagen, insofern ist der Begriff "Prädiktion" in der hier gemachten Verwendung nicht mit einer un- wägbaren Komponente versehen, die nicht vorhergesagt werden könnte. Aufgrund der im Rahmen der Meßgenauigkeiten Vorhersehbarkeit der Position eines einmal erfaßten — statischen - Objektes läßt sich ein eigenbewegtes Objekt dadurch ermitteln, indem zu einem bestimmten Zeitpunkt die erwartete Objektposition abgeglichen wird mit dem meßtechnisch an dieser Stelle tatsächlich erfaßten Objektabstand, wobei abweichende Objektabstände unter einem bestimmten Ablagewinkel auf ein eigenbewegtes Objekt hinweisen und wobei über die Größe

dieses Abgleichs solcher benachbarter eigenbewegter und bekannter statischer Objekte die eigenbewegten Objekte in ihrer Position und Bewegung schätzbar sind.

Die Erfindung betrifft weiterhin eine Vorrichtung zur Bestimmung des Abstandes zu wenigstens einem im Raum befindlichen Objekt, mit einem Bilderzeugungselement, einem Sensor und einer Signalverarbeitungseinheit, wobei der Sensor aus mehreren im wesentlichen flächig nebeneinander angeordneten Sensorelementen - Voxel - besteht, von dem Bilderzeugungselement wenigstens ein Teil des Raumes auf den Sensor abbildbar ist - Raumabbild -, wobei ein von dem Bilderzeugungselement unter einem bestimmten Ablagewinkel erfaßbarer Raumteil auf ein bestimmtes Sensorelement abbildbar ist und von den Sensorelementen entsprechende Sensorelementsignale erzeugbar sind, wobei die Signalverarbeitungseinheit so ausgestaltet ist, daß sie eines der zuvor beschriebe- nen Verfahren durchführen kann.

Im einzelnen gibt es nun verschiedene Möglichkeiten, das erfindungsgemäße Verfahren und die erfindungsgemäße Vorrichtung auszugestalten und weiterzubilden. Dazu wird verwiesen auf die dem Patentanspruch 1 nachgeordneten Pa- tentansprüche und auf die Beschreibung bevorzugter Ausführungsbeispiele in Verbindung mit der Zeichnung. In der Zeichnung zeigen

Fig. 1 eine Darstellung der grundsätzlichen geometrischen und kinematischen Zusammenhänge,

Fig. 2a, 2b eine anschauliche Darstellung der Abstandsbestimmung nach der Kreisbewegungsgleichung im geographischen Koordinatensystem und Einheitskugelkoordinatensystem im gleichen Bild sowie ein entsprechendes Beispiel,

Fig. 3 eine Darstellung eines Sensors mit Sensorelementen und eine Darstellung korrespondierender, über Raumabbildverschiebung erzielter Ortsfrequenzfilterphasen,

Fig. 4 einen Sensor mit rechteckigen Sensorelementen und über Voxelver- schiebung erzielte Ortsfrequenzfilterphasen,

Fig. 5 einen Sensor mit rechteckigen Sensorelementen und in Diagonalrichtung des Sensors realisierter Ortsfrequenzfilter,

Fig. 6 einen Sensor mit hexagonalen Sensorelementen - Hexeln -, zweizeiligem Voxel und Auswertung in zwei Sensorrichtungen,

Fig. 7 einen Sensor mit hexagonalen Sensorelementen - Hexeln -, zwei und dreizeiligem Voxel und Auswertung in drei Sensorrichtungen,

Fig. 8 einen Sensor mit - Hexeln - und dreizeiligem, symmetrischem Voxel,

Fig. 9 einen Sensor mit - Hexeln - und dreizeiligem, symmetrischem Vo- xel, mit vollständiger Voxeldichte bei der Auswertung,

Fig. 10 einen Sensor mit - Hexeln - und dreizeiligem, symmetrischem Voxel, mit 25%-iger Voxeldichte bei der Auswertung,

Fig. 11 einen Sensor mit - Hexeln - und dreizeiligem, symmetrischem Voxel, mit 1 1,1%-iger Voxeldichte bei der Auswertung,

Fig. 12 einen Sensor mit - Hexeln - und dreizeiligem, symmetrischem Voxel, mit 6,25%-iger Voxeldichte bei der Auswertung und

Fig. 13 einen Sensor mit rechteckigen Sensorelementen und dreizeiligem, symmetrischem Voxel.

In Fig. 1 sind zunächst dargestellt die geometrischen und kinematischen Verhält- nisse, die zum Verständnis des hier beschriebenen Verfahrens notwendig sind zur Bestimmung des Abstandes R wenigstens eines im Raum befindlichen Objektes 1 zu einer nicht näher dargestellten Bilderfassungsvorrichtung mit einem Bilderzeugungselement 2 und einem Sensor 3, wobei der Sensor 3 aus mehreren im wesentlichen flächig nebeneinander angeordneten Sensorelementen 4 besteht. Das Bilderzeugungselement 2 — im vorliegenden Ausfuhrungsbeispiel eine Linse - bildet einen Teil des Raumes auf den Sensor 3 ab, wobei dieses Abbild im

folgenden als Raumabbild bezeichnet wird. Dabei wird ein von dem Bilderzeugungselement 2 unter einem bestimmten Ablagewinkel α erfaßter Raumteil auf ein bestimmtes Sensorelement 4 abgebildet, und von den Sensorelementen 4 werden entsprechende Sensorelementsignale erzeugt.

Gemäß den zuvor in den Gleichungen 1 bis 4 angegebenen mathematischen Zusammenhängen wird die Relativgeschwindigkeit v der Bewegung der Bilderfassungsvorrichtung zu dem Objekt 1 ermittelt, wobei mit "Ermittlung" auch gemeint sein kann, daß die Relativgeschwindigkeit v der Bewegung der Bilderfas- sungsvorrichtung vorgegeben und damit bekannt ist. In Fig. 1 ist der Fall dargestellt, daß sich die Bilderfassungsvorrichtung mit einer konstanten Relativgeschwindigkeit v geradlinig fortbewegt. Das im Raum befindliche Objekt 1 nähert sich infolgedessen im Verlauf der Bewegung der Bilderfassungsvorrichtung derselben und damit dem dargestellten Bilderfassungselement 2 und dem Sensor 3 an, wobei die größte Nähe des Objektes 1 dann erreicht wird, wenn es die Position senkrecht zu der geradlinigen Bewegungstrajektorie der B ilderfassungs Vorrichtung erreicht hat.

In Fig. 1 sind drei Positionen P 1 , P 2 und P 3 des Objektes 1 dargestellt, die das Ob- jekt 1 zu drei aufeinanderfolgenden, gleich beabstandeten Zeitpunkten einnimmt. Anhand Fig. 1 ist leicht vorstellbar, daß praktisch alle von der Bilderfassungsvorrichtung "unendlich weit" entfernten Objekte 1 unter einem gegen null gehenden Ablagewinkel α erkannt werden. Eine Entfernungsbestimmung ist unter diesen Bedingungen praktisch nicht möglich. Das Objekt 1 nimmt nacheinander die Positionen Pj mit einem Abstand R 1 unter einem Ablagewinkel Ot 1 , die Position P 2 mit einem Abstand R 2 unter einem Ablagewinkel α 2 und letztlich die Position P 3 in einem Abstand R 3 unter einem Ablagewinkel α 3 ein. Die zugehörigen Abstände P 1 P 2 , P 2 P 3 und P 3 P 4 sind hier aus Gründen der zeichnerischen Darstellung weit überhöht und betragen praktisch nur Bruchteile der Länge der Radius- vektoren.

Es ist erkennbar, daß sich der Ablagewinkel α mit zunehmender Annäherung des Objektes 1 an die Bilderfassungsvorrichtung bzw. an das Bilderzeugungselement 2 der Bilderfassungsvorrichtung zunehmend stark ändert, also die Winkelge- schwindigkeit, mit der der Radiusvektor R die Ablagewinkel (X 1 , α 2 und α 3 überstreicht, zunimmt. Je näher ein Objekt 1 zu der Bilderfassungsvorrichtung gele-

gen ist und je geringer der Abstand R ist, mit dem ein Objekt 1 die Erfassungsvorrichtung passiert, desto höher ist die Winkelgeschwindigkeit, mit der das Objekt 1 an der Bilderfassungsvorrichtung vorüberzieht. Auch diese Zusammenhänge ergeben sich aus den mathematischen Zusammenhängen gemäß den Glei- chungen 1 bis 4. Das hier beschriebene und dargestellte Verfahren basiert auf diesen erkannten Zusammenhängen.

Die Position P 4 wurde hier in Fig. 1 nicht weiter in Betracht gezogen, weil sie offensichtlich nicht mehr im Bilderfassungsbereich des Bilderzeugungsselements 2 liegt.

Ein wichtiger Vorteil des Verfahrens liegt in der Freiheit der Ausrichtung der Bilderfassungsvorrichtung. Diese muß für die Erfassung des Nahbereichs um Position P 4 lediglich in die entsprechend Richtung um z.B. 90° gedreht werden. Damit werden zugleich die Verzerrungen durch die Projektion auf einen kostengünstigen ebenen Sensor verringert und die Meßgenauigkeit der gesuchten Winkelgeschwindigkeit ω ort = ω mes erhöht. Ein weiterer großer Vorteil wird damit offensichtlich: Anstelle der Drehung können Bilderfassungsvorrichtungen ohne sonstigen Aufwand parallel zur Erweiterung des Bilderfassungsbereichs betrie- ben werden.

Das allgemeine, insbesondere anhand der Fig. I 5 2a und 2b dargestellte und beschriebene Verfahren zur Bestimmung des Abstandes R wenigstens eines im Raum befindlichen Objektes 1 zu einer Bilderfassungsvorrichtung zeichnet sich dadurch aus, daß die Relativgeschwindigkeit v der Bewegung der Bilderfassungsvorrichtung zu dem Objekt 1 ermittelt wird, daß durch Auswertung der Sensorelementsignale wenigstens zweier Sensorelemente 4 - Voxel 5 - eine Raumabbildwinkelgeschwindigkeit ω meSjS e n so r ermittelt wird und über die Relativgeschwindigkeit v der Bilderfassungsvorrichtung, die aus der Raumabbildwin- kelgeschwindigkeit ω meSjSen so r des auf die Sensorelemente 4 abgebildeten Objekts 1 gewonnene orthogonale Objektwinkelgeschwindigkeit ω mes und den Ablagewinkel α des Objekts 1 der Objektabstand R ermittelt wird. Die diesem allgemeinen Verfahren zugrundeliegenden Zusammenhänge sind im allgemeinen Teil der Beschreibung bereits ausführlich erläutert worden, wobei der allgemeine Be- schreibungsteil aufgrund der verwendeten Formelzeichen ohne Einschränkungen direkt auf die Fig. I 5 2a und 2b lesbar ist.

Es ist bereits eingangs erläutert worden, daß das zur Anwendung kommende Verfahren zur Ermittlung der Raumabbildwinkelgeschwindigkeit ω mes,Sensor auf dem Sensorelement 4 im Grunde beliebig ist und das allgemeine Verfahren zur dynamischen Abstandsbestimmung nicht auf ein spezielles Verfahren beschränkt ist. Bei den dargestellten Ausführungsbeispielen wird die Ermittlung der Raumabbildwinkelgeschwindigkeit ω mes,Sensor durch die geschickte Ausgestaltung von Ortsfrequenzfiltern realisiert.

Die in den Fig. 1 bis 13 dargestellten Ausführungsbeispiele haben gemeinsam, daß die Raumabbildwinkelgeschwindigkeit ω mes sensor ermittelt wird, indem durch geeignete Gewichtung der Sensorelementsignale wenigstens zweier Sensorelemente 4 - die insgesamt ein Voxel 5 bilden - in wenigstens einer Sensorrichtung x, y, r, s, t ein Ortsfrequenzfϊlter gebildet wird, wobei das Ortsfrequenzfilter mindestens die Sensorelementsignale des Voxels 5 einer Ortsfrequenzfilterung in wenigstens zwei verschiedenen Ortsfϊequenzfilterphasen φ 0 , Cp 90 unterzieht, und aus den erhaltenen korrespondierenden Ortsfrequenzfilterkomponenten Ao, A 90 eine Raumabbildphase φ des Voxels 5 ermittelt wird, und daß durch zeitliche Signalabtastung des Ortsfrequenzfilters wenigstens zwei Raumabbildphasen φ des Voxels 5 ermittelt werden und aus den zeitlich beabstandeten Raumabbildphasen φ die Raumabbildwinkelgeschwindigkeit ω mes ,s ensor ermittelt wird.

Anhand Fig. 1 ist zu erkennen, daß die jeweils senkrecht zu den Abstandsvektoren R 1 , R 2 und R 3 stehenden Bewegungskomponenten von dem Sensor 3 erfaßt werden und von dem Sensor 3 als Raumabbildwinkelgeschwindigkeit ω mes>sensor wahrgenommen werden können. Bei einem wie in Fig. 1 dargestellten flächigen Sensor 3 ist die Abbildung des Raumes mit zunehmendem Ablagewinkel α verzerrt, hier unrealistisch mit übergroßem Winkel zu optischen Achse dargestellt; ein Umstand, dem durch Multiplikation des gemäß Gleichung (1) ermittelten Abstandes R - insbesondere im Falle nicht kalibrierter Objektive -_Rechnung getragen werden kann durch Division des Ergebnisses mit cos α, wie in Gleichung (2) dargestellt. Die erfaßte und in den Gleichungen als ω me ß )S e nsor bezeichnete Raumabbildwinkelgeschwindigkeit bzw. die daraus ermittelte Objektwinkelgeschwindigkeit ω mes beruhen im Idealfall auf einer Translationsbewegung der BiI- derfassungsvorrichtung.

Wie weiter oben erläutert worden ist, enthalten die durch Rotation der Bilderfassungsvorrichtung verursachten Geschwindigkeiten des Raumabbildes keine Abstandsinformation, da die durch solche Bewegungen verursachten Verschiebungen - genauer Rotationen - des Raumabbildes unabhängig von dem Abstand sind, so daß die Beziehungen der Objekte untereinander sich im Raumabbild nicht ändern. Aus diesem Grund werden bei allen in den Fig. 1 bis 13 dargestellten Verfahren zur Ermittlung der Raumabbildwinkelgeschwindigkeit ω mes,sensor und damit des Objektabstandes R im wesentlichen nur die Translationskomponenten der Bewegung der Bilderfassungsvorrichtung herangezogen, insbesonde- re indem enthaltene Rotationskomponenten ω rot der Bewegung der Bilderfas- sungsvorrichtung durch Stabilisierung der Bilderfassungsvorrichtung kompensiert werden. Bei anderen - hier nicht dargestellten - Verfahren werden enthaltene Rotationskomponenten ω rot der Bewegung der Bilderfassungsvorrichtung durch den Sensor 3 erfaßt, jedoch nachfolgend in der Bildverarbeitung eliminiert.

Fig. 2a, 2b sollen die relativ komplexen Zusammenhänge veranschaulichen, die der erfindungsgemäßen dreidimensionalen Objektabstandserfassung mit Hilfe einer nur zweidimensionalen Bilderfassungsvorrichtung zugrunde liegen. Problematisch in diesem Sinn sind insbesondere die scheinbar geringe Qualität der verfügbaren Informationen für die Bestimmung der Objektabstände - keine Längeninformationen -, ferner die Bewegungsfreiheit der Bilderfassungsvorrichtung im Raum, die außer der Kenntnis ihrer Trajektorie und ihrer translatorischen Geschwindigkeiten v tr z.B. im Weltkoordinatensystem der Objekte nur Winkelkenntnisse über unbekannte Objektpositionen erhält, den Ablagewinkel α von der eigenen Bewegungsrichtung zum unbekannten Objekt und dessen zeitliche Ableitung.

Da konkrete Längen zunächst nicht vorhanden sind, wird in Fig. 2a ein für das Verständnis geeignetes Koordinatensystem eingeführt, das geographische Koor- dinatensystem mit den üblichen Breiten- und Längenkreisen, zunächst als Einheitskugelkoordinatensystem P(R, θ, φ) mit dem Radius R = I . Die in Fig. 1 dargestellte Aufgabe der Objektabstandsermittlung wird hier in das Kugelkoordinatensystem übertragen. Die B ilderfassungs Vorrichtung befindet sich immer in einer Startposition im Mittelpunkt des Kugelkoordinatensystems bzw. im geo- graphischen Zentrum GZ. Sie weist willkürlich aber zweckmäßig in Richtung Z- Achse.

Das Objekt 1 in einer beliebigen unbekannten Position P 1 wird zweckmäßig auf einem Längenkreis positioniert, hier auf dem Längengrad φ = 0, dem Nullmeridian, und auf einem beliebigen Breitenkreis O 1 = 90°- (X 1 . Damit liegt das Objekt 1 auf Position P 1 (Ri=I, θi, φi = 0). Sie entspricht der Position Pi(x,y) auf der angenommen kartesischen Sensorebene, die im Kleinen winkeltreu mit den rechtwinkligen Breiten- und Längenkreisen nahe P 1 übereinstimmen. Zur Ermittlung dessen räumlicher Position bewegt sich die Bilderfassungsvorrichtung in der aktuellen Meßperiode, hier als Abtastperiode δt von ti bis t 2 mit ihrer vor- gegebenen geradlinigen Geschwindigkeit v tr vom geographischen Zentrum GZ auf der Z- Achse bis Z = δL = v tr - δt. Dieser Schritt ist rechnerisch gleichwertig mit einer relativen Bewegung des Objekts von Position P 1 nach Position P 2 wie in Fig. 2a auch gleichermaßen dargestellt.

Die für die Berechnung des Objektabstandes relevanten Größen wie δαj, δui αi usw. sind hier ebenso wie in Fig. 1 eingetragen und werden genauso wie dort gemäß der abgeleiteten Gleichung 5 bezüglich der Länge des Abstandsvektors Rj ausgewertet. Dieser Prozeß geschieht parallel für viele Objekte im Bilderfassungsbereich der Bilderfassungsvorrichtung. Da diese nur Winkel und Winkel- geschwindigkeiten zu messen vermag, kann sie überlagerte Ursachen, hier einerseits die Nutzung der durch translatorische Bewegungen v tr erzeugten Winkeländerungen und andererseits durch die von physikalischen Rotationen der Bilderfassungsvorrichtung, z.B. deren Rotationsbewegungen um die X-, Y- oder Z- Achse, nicht unterscheiden. Bei in Fahrzeugen montierten Bilderfassungsvor- richtungen werden sie z.B. durch Unebenheiten der Straße und durch Steigungen und Kurven verursacht. Gegenmaßnahmen wurden an anderer Stelle ausführlich beschrieben. Soweit diese physikalischen Rotationen auftreten und nicht orthogonal zu ω mes als der Basis der Abstandsberechnung sind, verfälschen sie das Ergebnis und ihr Einfluß muß unbedingt verhindert werden. Für eine autonome Fahrzeugführung müssen sie ohnehin bestimmt werden, um bei der schrittweisen Navigation die änderungen des sog. Kamerakoordinatensystems der Bilderfassungsvorrichtung dem Weltkoordinatensystem der Objektumgebung nachzuführen.

Dieser Prozeß wird anhand von Fig. 2b beispielhaft beschrieben. Fig. 2b zeigt eine weitgehend übereinstimmende Situation einer erfindungs gemäßen Ab-

standsbestimmung durch relative Bewegung der Bilderfassungsvorrichtung im dreidimensionalen Objektraum, dargestellt im Blick auf die XZ-Ebene, zugleich die Längenkreisebene des Nullmeridians, in der die relative Bewegung von Objekt und Bilderfassungsvorrichtung abläuft. Die Y-Achse steht wieder senkrecht auf der Papierebene. In diesem Ausführungsbeispiel ist die Bilderfassungsvorrichtung gegenüber deren Bewegungsachse bzw. Z-Achse um den Winkel ß gedreht. Dadurch ändert sich das Meßprinzip nicht. Wenn anstelle der winkelver- zerrenden Abbildung des ebenen Sensors 3 eine fast ideale Abbildung der Winkel z.B. mit einer sphärisch angepaßten Sensoroberfläche verwendet wird - wie in Fig. 1 angedeutet, hätte diese Drehung im Bilderfassungsbereich keine Auswirkungen auf das Meßergebnis. Durch facettenartige Kombination derartiger Bilderfassungsvorrichtungen können also rundum erfassende kugelförmige Bilderfassungssysteme gebildet werden. Bei Verwendung ebener Sensoren ist die in Fig. 1 mit dem Abstand von der optischen Achse wachsende und zu Gleichung 2 beschriebene Winkelverzerrung zu berücksichtigen.

Eine weitere anhand von Fig. 2b zu beschreibende Eigenschaft ist die optimale Kombination einmal der physikalischen Rotationsmessung von ω rot , die selektiv z.B. mittels Drehratensensoren nur diese Rotation mißt. Zum andern wird mit der Rotationsmessung nach dem beschriebenen Prinzip der Auswertung der Kreisbewegungsgleichung, hier erfindungsgemäß umgesetzt in ein Verfahren zur dreidimensionalen Erfassung des Objektraums, sowohl die nur schrittweise definierbare sogenannte Pseudorotation ω mes durch translatorische Bewegungen als auch die physikalische Rotation ω rot , also deren vektorielle Addition erfaßt. Auf diese Weise sind beide Rotations formen bekannt, einmal zur Messung der Objektabstände und zum andern für eine fortlaufende Navigation, bei der die je Abtastperiode gemessene Translation δL und die zugehörige Rotation ω rot , die zur Nachführung des sog. Kamerakoordinatensystem der Bilderfassungsvorrichtung im Weltkoordinatensystem dient und zugleich die Berechnung der Objektabstän- de immer wieder auf die einfache Startsituation zurückführt.

Zur Erhöhung der Meßgenauigkeit der Objektabstände ist der Einsatz der heute verfügbaren Bildstabilisierungssysteme zumeist im Bereich des Bilderzeugungselements 2 vorzuziehen, da große physikalische Rotationsstörungen den Objekt- abstand verfälschen können. In Fig. 2b wird der Einfluß einer physikalischen Rotation, die in der Abtastperiode zwischen t \ und t 2 aufgetreten ist, veranschau-

licht. Die bisher beschriebene Translation δL der Bilderfassungsvorrichtung wird in Fig. 2b durch eine zusätzliche entweder vorgegebene Rotation oder mittels integrierter Drehratensensoren gemessene Rotation z. B. um die Y-Achse ergänzt. Bisher wurde nach der reinen Translation von t \ nach t 2 in Fig. 2a diese bzgl. des Objektes 1 und der Kamera - wie zuvor erläutert - im Weltkoordinatensystem registriert, wobei sie nach der Registrierung im Kamerakoordinatensystem zurückgesetzt wurde. Wie dargestellt kommt im nächsten Schritt von t 2 nach t 3 zur Translation δL eine Rotation um die Y-Achse δα 2roty hinzu, die ebenfalls nach der Registrierung im Weltkoordinatensystem im Kamerakoordinaten- System rechnerisch und ggf. auch mechanisch nach der Kompensation im Bildstabilisierungssystem des Bilderzeugungselements zurückgesetzt wird. Auf diese Weise wird der Verlauf der relativen Trajektorie der Bilderfassungsvorrichtung zu den zunächst als statisch angenommenen Objekten der Umgebung mit jeweils kleinen Rotationen und Translationen beliebig veränderbar und meßbar.

In den Fig. 3 bis 6 und 13 sind die Gewichtungen der Sensorelemente 4 dargestellt, anhand derer das durch den Sensor 3 erfaßte Raumabbild einer Ortsfrequenzanalyse unterzogen werden kann; die Gewichtungen sind jeweils durch ein positives und ein negatives Vorzeichen gekennzeichnet, wobei die Sensorele- mentsignale im einfachsten Fall einfach mit diesen Vorzeichen als solchen bewertet werden. Durch die Gewichtung der Sensorelementsignale wird auf dem Sensor 3 in bestimmten Sensorrichtungen jeweils ein Ortsfrequenzfilter realisiert, so wie es zuvor im allgemeinen Zusammenhang und unter Bezugnahme auf Zeitfrequenzanalyse beschrieben worden ist.

In Fig. 4 ist dargestellt, daß auf einem kartesisch parkettierten Sensor 3 Ortsfrequenzfilter in zwei verschiedenen Sensorrichtungen realisiert sind, nämlich in Fig. 4a) in "y-Richtung" und in Fig. 4b) in "x-Richtung". Es ist ferner zu erkennen, daß jeweils vier benachbarte Sensorelemente 4 zu einem Voxel 5 zusam- mengefaßt worden sind, wobei die Voxel 5 jeweils eine Ortsperiode des Ortsfrequenzfilters festlegen. In jeder Sensorrichtung werden mit Hilfe der Voxel 5 in den Ortsfrequenzfilterphasen φo, φ 9 o die korrespondierenden Ortsfrequenzfilter- komponenten A Xj o, A x>9 o A y o Ay 90 ermittelt, die im dargestellten Fall um 90° zueinander verschoben sind. In Fig. 4 sind zur Kenntlichmachung der Sensorrich- tung die beiden Ortsfrequenzfϊlterphasen φ 0 und φ 90 bezeichnet als φ x 0 , φ X;90 und φ y ,o > φ y ,90- Die in Sensorrichtung erhaltenen Ortsfrequenzfilterkomponenten A x> 0 ,

A x, 90 A y> o A y> 90 lassen sich durch einfache inverse Winkelfunktionen in entsprechende Raumabbildphasen φ umrechnen, die zur Kenntlichmachung der Sensorrichtung in Fig. 4 als φ x und φ y bezeichnet sind.

Durch zeitliche Abtastung der Ortsfrequenzfilter können so je Sensorrichtung zu unterschiedlichen Zeiten verschiedene Raumabbildphasen erhalten werden, wobei aus der änderung der Raumabbildphasen δφ x und δφ y und der Abtastperiode δt die Raumabbildwinkelgeschwindigkeiten ω x , ω y für die jeweiligen Sensorrichtungen resultieren. Bei allen dargestellten Verfahren werden diese erhaltenen Raumabbildwinkelgeschwindigkeiten ω x , ω y vektoriell zu einer Gesamtraumabbildwinkelgeschwindigkeit CQ ges addiert, und diese Gesamtraumabbildwinkelgeschwindigkeit cö ges wird der Ermittlung des Objektabstandes R zugrundegelegt.

Bei allen dargestellten Ausgestaltungen des erfindungsgemäßen Verfahrens wer- den die Gewichtungen von Sensorelementsignalen der Sensorelemente 4 eines Voxels 5 in einer Sensorrichtung in einer Ortsfrequenzfilterphase so gewählt, daß eine möglichst gute Sinus- Approximation 6 realisiert wird, wobei dabei insbesondere auch die Geometrie der beteiligten Sensorelemente berücksichtigt wird.

In den Fig. 3 bis 5 und 13 sind kartesisch parkettierte Sensoren 3 dargestellt, wobei in Fig. 3 ein Voxel aus zwei benachbarten Sensorelementen 4 besteht und in Fig. 4 jeweils ein Voxel 5 aus vier benachbarten Sensorelementen 4 besteht. Die Sinus-Approximation 6 besteht hier darin, daß jeweils eine Hälfte der Sensor- elemente 4 mit einem Vorzeichen und die andere Hälfte der Sensorelemente 4 mit dem anderen Vorzeichen gewichtet ist; die Sinus-Approximation ist hier also vergleichsweise grob, es sind hauptsächlich die Nulldurchgänge einer Sinus- Schwingung gut getroffen. Es hat sich jedoch gezeigt, daß auch eine solche Sinus-Approximation ausreichend ist zur Realisierung eines Ortsfrequenzfilters.

Bei der in Fig. 5 dargestellten kartesischen Parkettierung des Sensors 3 wird durch eine noch näher zu erläuternde diagonale Auslese des Sensors 3 und durch geschickte Ausgestaltung von Voxeln 5 eine deutlich bessere Sinus Approximation 6 erzielt, nämlich durch trapezförmige Kurvenverläufe angenäherte Sinus- Kurven.

In allen dargestellten Ausführungsbeispielen sind die - lediglich in Fig. 5 dargestellten - Sinus- Approximationen 6 der Gewichtungen der Sensorelementsignale in den wenigstens zwei Ortsfrequenzfilterphasen φo, φ 9 o in einer Sensorrichtung relativ zueinander um im wesentlichen eine viertel Ortsperiode zueinander pha- senverschoben, so daß die Ortsfrequenzfilterphasen φo, φ 9 o im wesentlichen der Inphase- und Quadratur-Komponente einer I/Q-Auswertung bei der Ermittlung der Raumabbildphase φ entsprechen. Die Voxel in Fig. 5a korrespondieren mit der Gewichtungskurve 4d und die Voxel in Fig. 5b korrespondieren mit der Gewichtungskurve 4c.

In Fig. 3 ist ein Ausfuhrungsbeispiel des Verfahrens dargestellt, bei dem die Ortsfrequenzfilterung in wenigstens einer Sensorrichtung in verschiedenen Ortsfrequenzfilterphasen - hier mit φ Xj0 , φ x ,9o , φ y> o und φ yj90 bezeichnet - durchgeführt wird, indem zwei Sensorelemente 4 einem Voxel 5 - unabhängig von der aus- zuwertenden Ortsfrequenzfilterphase φ 0 , φ 90 - fest zugeordnet werden und das Raumabbild in und/oder entgegen der einen Sensorrichtung entsprechend der zu erzielenden Ortsfrequenzfilterkomponenten in den Ortsfrequenzfilterphasen φ 0 , φ 9 o ° verschoben wird, was einer Raumabbildverschiebung entspricht. In den Fig. 3a) bis 3d) ist in jedem der dargestellten Ausschnitte des Sensors 3 jeweils ein Sensorelement 4 dunkel hervorgehoben, um kenntlich zu machen, daß es sich dabei in allen Ausschnitten des Sensors 3 um dasselbe Sensorelement 4 handelt. Es ist bei den Fig. 3a) und 3b) ohne weiteres zu erkennen, daß das dargestellte Voxel 5 fest zwei Sensorelementen 4 zugeordnet ist, obwohl in Fig. 3a) in x- Richtung des Sensors 3 die Ortsfrequenzfilterphase φ x 0 ausgewertet wird und in Fig. 3b) in x-Erstreckung des Sensors 3 die Ortsfrequenzfilterphase φ x 90 ausgewertet wird. Um auf Grundlage dieser unveränderlichen, durch die Vorzeichen angedeuteten Gewichtungen der Sensorelementsignale der Sensorelemente 4 eine Ortsfrequenzanalyse in zwei Phasen vornehmen zu können, wird das Raumabbild zwischen den Fig. 3a) und 3b) um eine halbe Länge eines Sensorelements 4 nach rechts verschoben, was durch das gestrichelte Kästchen angedeutet ist. Das Raumabbild erstreckt sich selbstverständlich über den gestrichelt dargestellten Ausschnitt des Raumabbildes hinaus, die Darstellung dient lediglich der klaren Kenntlichmachung der Raumabbildverschiebung. Um beide Ortsfrequenzfilterphasen φ 0 , φ 9 o auswerten zu können, muß der Sensor 3, der im dargestellten Fall ein in CMOS-Technologie realisierter Bildsensor ist, tatsächlich zweimal belichtet werden, einmal pro auszuwertender Ortsfrequenzfilterphase.

In den Fig. 3c) und 3d) ist eine vergleichbare Situation nochmals dargestellt zur Ermittlung zweier Ortsfrequenzfilterkomponenten in den Ortsfrequenzfilterpha- sen in y-Erstreckung des Sensors 3, wobei hier die Ortsfrequenzfilterphasen φ y 0 und φ y 9 o des Raumabbildes ermittelt werden. Durch Anwendung des Verfahrens der Raumabbildverschiebung lassen sich insgesamt also alleine mit einem Ge- samtvoxel mit nur vier Sensorelementen 4 zwei Raumabbildphasen in x- und y- Richtung des Sensors 3 ermitteln, wodurch eine vollständige Ermittlung der notwendigen Raumabbildwinkelgeschwindigkeiten ω x und ω y möglich ist. Aus diesen einzelnen, senkrecht zueinander stehenden Raumabbildwinkelgeschwindigkeiten ω x und ω y ist dann die Gesamtraumabbildwinkelgeschwindigkeit ω ges ermittelbar, aus der sich dann auch der Objektabstand R desjenigen Objektes 1 ergibt, das unter dem eindeutigen Ablagewinkel α auf das dargestellte Voxel 5 abgebildet wird.

In den Fig. 4 bis 6 und 13 sind verschiedene Ausgestaltungen eines Verfahrens zur Bestimmung eines Objektabstandes dargestellt, bei dem die Ortsfrequenzfilterung in wenigstens einer Sensorrichtung in verschiedenen Ortsfrequenzfilterphasen ψo und q> 9 o durchgeführt wird, indem je auszuwertender Ortsfrequenz- fϊlterphase φo und φ 9 o - zumindest teilweise - verschiedene Sensorelemente 4 einem Voxel 5 - Phasenvoxel - fest zugeordnet werden, wobei die derart entstehenden Phasenvoxel in der auszuwertenden Sensorrichtung gegeneinander ortsphasenverschoben sind, was einer Voxelverschiebung entspricht.

Bei dem Ausführungsbeispiel gemäß Fig. 4 werden wiederum rechteckige Sensorelemente 4 verwendet, wobei die Abbildung des Raumes auf den Sensor 3 starr ist, also weder durch eine Raumabbildverschiebung noch durch eine Sensorverschiebung beeinflußt werden kann. Die Bewegung des Raumabbildes auf dem Sensor 3 kommt lediglich durch die Relativbewegung der Bilderfassungs- Vorrichtung zu den abgebildeten Objekten 1 zustande; das Raumabbild bzw. ein Ausschnitt des Raumabbildes ist in Fig. 4 nicht dargestellt. In Fig. 4a ist ein und derselbe Ausschnitt des Sensors 3 zweimal dargestellt, wobei das Voxel 5 in y- Erstreckung des Sensors 3 ausgerichtet ist und daher die Ortsfrequenzfilterphasen φ y o und φ y 9 o in y-Richtung des Sensors liefert. Es ist zu erkennen, wie in Abhängigkeit von der auszuwertenden Ortsfrequenzfilterphase φ y 0 oder φ y 90 die Gewichtung der Sensorelementsignale der Sensorelemente 4 angepaßt wird. Die

dargestellten Voxel 5 bestehen jeweils aus vier Sensorelementen 4, wobei jedes der Sensorelemente 4 einen Ortsperiodenumfang von 90° hat. Durch relative Verschiebung der Gewichtungen der Sensorelementsignale um ein Sensorelement 4 wird daher eine Phasenverschiebung von 90° erzielt. Bei diesem Verfah- ren ist gegenüber dem Verfahren der Raumbildverschiebung keine doppelte Belichtung des Sensors 3 nötig, vielmehr reicht es, die erfaßten Intensitäten der Sensorelementsignale der Sensorelemente 4 des Sensors 3 gemäß der Darstellung in Fig. 4 verändert zu gewichten, um zu den gewünschten Auswertungen der Ortsfrequenzfilterphasen φ y 0 und φ yj9 o zu gelangen. In Fig. 4b ist dieselbe Si- tuation nochmals dargestellt für die Auswertung der Ortsfrequenzfilterphasen φ x 0 und φ x 90 in x-Richtung des Sensors 3.

In Fig. 5 ist ein weiteres, sehr vorteilhaftes Ausführungsbeispiel des Verfahrens dargestellt, bei dem die Sensorelemente 4 des Sensors 3 rechteckig - im darge- stellten Fall quadratisch — ausgestaltet werden und eine im wesentlichen orthogonale Parkettierung des Sensors 3 bilden, wobei eine durch Ortsfrequenzfilterung auszuwertende Sensorrichtung x, y in Diagonalerstreckung der rechteckigen Sensorelemente 4 gewählt wird und je sechs Sensorelemente 4 zu einem dreizei- ligen Voxel 5 bzw. Phasenvoxel 5 mit je zwei Sensorelementen 4 in jeder Voxel- zeile 8, 9, 10 zur Auswertung einer Ortsfrequenzfilterphase φo , φ 9 o zusammengefaßt werden. Die Voxelzeilen 8, 9, 10 in den beiden Darstellungen in den Fig. 5a und 5b entsprechen wiederum ein und demselben Ausschnitt des Sensors 3, wobei zur besseren Orientierung wiederum ein Sensorelement 4 dunkel dargestellt ist. In den Fig. 5b und 5c sind die Sinus-Approximationen 6 dargestellt, wobei die Sinus-Approximation 6 gemäß Fig. 5d aus der Gewichtung der Sensorelementsignale gemäß der oberen Darstellung in Fig. 5a hervorgeht und entsprechend die Sinus- Approximation 6 in Fig. 5c aus der Gewichtung der Sensorelementsignale hervorgeht gemäß der Darstellung in Fig. 5b.

Zur Ermittlung der ersten Ortsfrequenzfilterphase φ 0 werden die Sensorelementsignale der jeweils beiden Sensorelemente 4 der drei Voxelzeilen 8, 9, 10 mit umgekehrten Vorzeichen gewichtet, wobei die drei Sensorelemente 4 mit den jeweils mit gleichen Vorzeichen gewichteten Sensorelementsignalen pfeilförmig in die eine Richtung der Diagonalerstreckung weisend angeordnet werden. Zur Ermittlung der zweiten Ortsfrequenzfilterphase φ 90 werden unter Beibehaltung der Sensorelemente 4 der mittleren Voxelzeile 9 und der Gewichtung der Sen-

sorelementsignale der Sensorelemente 4 der mittleren Voxelzeile 9 die beiden Sensorelemente 4 der oberen Voxelzeile 8 und der unteren Voxelzeile 9 so angeordnet und ihre Sensorelementsignale werden derart mit Vorzeichen gewichtet, daß die drei Sensorelemente 4 mit den jeweils mit gleichem Vorzeichen gewich- teten Sensorelementsignale pfeilförmig in die andere Richtung der Diagonalerstreckung weisen. Die hierbei insgesamt vier möglichen Kombinationen erfassen jeweils um 90° verschobene Phasenlagen der jeweiligen durch Gewichtung bestimmten spektralen Filterortsfrequenz bzw. Filterortsperiode und können bei der Auswertung zur Fehlerkorrektur z.B. von Unsymmetrien genutzt werden.

In dem Ausführungsbeispiel gemäß Fig. 5 werden die Sensorelementsignale der Sensorelemente 4 der mittleren Voxelzeile 9 betragsmäßig doppelt so stark gewichtet wie die Sensorelementsignale der Sensorelemente 4 der oberen Voxelzeile 8 und der unteren Voxelzeile 10. Durch diese Gewichtung werden die Si- nus-Approximationen gemäß Fig. 5b erzielt, die eine sehr gute Approximation darstellen, insbesondere wenn berücksichtigt wird, daß rechteckige Sensorelemente 4 verwendet werden, so wie sie in den allermeisten der handelsüblichen Bildsensoren Verwendung finden. Es ist möglich, die gleiche Struktur auf dem gleichen Sensor 3 auch als kartesisches Ortsfrequenzfϊlter einzusetzen, allerdings mit den Nachteilen der größeren kartesischen Ortsperiode λ k = 4p (4xPixelweite) gegenüber der diagonalen Ortsfrequenzfilterstruktur mit λ < j = 2 > /2 -p, ferner mit der schlechteren rechteckförmigen Sinusapproximation und der geringeren Durchdringung der Gewichtungsbereiche für die innere 0°-Phase und die äußere 90°-Phase.

In einer weiteren, hier nicht näher dargestellten Ausgestaltung des Verfahrens gemäß Fig. 5 ist vorgesehen, daß eine zweite auszuwertende Sensorrichtung vorgesehen ist, die in der zweiten orthogonalen Diagonalerstreckung der rechteckigen Sensorelemente 4 orientiert ist. Dies ist ohne weiteres realisierbar, da es Ie- diglich auf die richtige Auswahl und Gewichtung der Sensorelemente und der mit ihnen korrespondierenden Sensorelementsignale ankommt.

Bei dem Ausfuhrungsbeispiel gemäß Fig. 6 werden die Sensorelemente 4 des Sensors 3 hexagonal ausgestaltet - sie bilden sogenannte Hexel - so daß die He- xel eine hexagonale Parkettierung des Sensors 3 bilden, wobei je durch Ortsfrequenzfilterung auszuwertender Sensorrichtung r, s, t je vier Hexel zu einem

zweizeiligen Voxel 5 zusammengefaßt werden, wobei die in einer Zeile des Vo- xels 5 benachbarten Hexel ein Ortsfrequenzfilter zur Auswertung jeweils einer Ortsfrequenzfilterphase φ Oj φ 90 bilden und dazu insbesondere mit unterschiedlichen Vorzeichen gewichtet sind. Dieses Ausfuhrungsbeispiel stellt einen Sonder- fall bei den Ausführungsbeispielen gemäß den Fig. 4, 5 und 6 dar, bei dem die unterschiedlichen Phasenvoxel keine gemeinsamen Sensorelemente 4 aufweisen. In diesem Ausführungsbeispiel können deshalb mit einer Auswertung sofort beide Ortsfrequenzfilterphasen φ 0 und φ 90 ermittelt werden. Es ist vorteilhaft, wenn das Voxel 5 in wenigstens zwei Sensorrichtungen einer Ortsfrequenzfilterung unterzogen wird, wobei die Sensorrichtungen aufgrund der hexagonalen Parkettierung im wesentlichen einen Winkel von 60° oder 120° einschließen. Im dargestellten Ausführungsbeispiel gemäß Fig. 6 wird eine Ortsfrequenzfilterung in drei Sensorrichtungen vorgenommen, nämlich im wesentlichen in den Richtungen 0°, 60° und 120°.

In den Fig. 4 bis 7 ist ferner dargestellt, daß zur Feststellung der Ortsfrequenzfilterphasen φ 0> φ 90 eines Voxels 5 in einer Sensorrichtung nicht nur die gewichteten Sensorelementsignale des betreffenden, die Ortsperiode definierenden Voxels 5 herangezogen werden, sondern zusätzlich auch die Sensorsignale von wenigstens einer in der auszuwertenden Sensorrichtung erstreckten ortsperiodischen Wiederholung des zentralen Voxels 5, nämlich der Nebenvoxel 7, wobei die korrespondierenden Sensorsignale des zentralen Voxels 5 und der Nebenvoxel 7 aufsummiert werden, was hier im einzelnen nicht dargestellt ist.

Im einzelnen ebenfalls nicht weiter dargestellt, dennoch bei den dargestellten Ausführungsbeispielen realisiert, ist, daß die Sensorsignale der Nebenvoxel 7 schwächer gewichtet werden als die korrespondierenden Sensorsignale des zentralen Voxels 5, nämlich mit zunehmendem Abstand von dem zentralen Voxel 5 abnehmend gewichtet werden. In den dargestellten Ausführungsbeispielen wer- den die Sensorsignale der Nebenvoxel 7 gemäß einer Gauskurve abnehmend gewichtet.

In Fig. 8 ist ein Ausführungsbeispiel dargestellt, bei dem die Sensorelemente 4 des Sensors 3 hexagonal ausgestaltet sind - Hexel - und eine hexagonale Par- kettierung des Sensors 3 bilden, wobei je durch Ortsfrequenzfilterung auszuwertender Sensorrichtung r, s, t wenigstens je sechs Hexel zu einem dreizeiligen Vo-

xel 5 zusammengefaßt werden, wobei die in der mittleren Zeile des Voxels 5 benachbarten Hexel ein Ortsfrequenzfilter zur Auswertung in einer Ortsfrequenzfil- terphase φ 9 o bilden und die in den beiden äußeren Zeilen des Voxels 5 benachbarten Hexel ein Ortsfrequenzfilter zur Auswertung in einer anderen Ortsfre- quenzfilterphase φ 0 bilden, dabei werden die korrespondierenden Sensorsignale der Sensorelemente 4 wie zuvor mit unterschiedlichen Vorzeichen gewichtet. Das fett umrandete Gesamtvoxel setzt sich aus den Zentralvoxeln im Kreuzungspunkt von Voxelzeilen in den unterschiedlichen Sensorrichtungen zusammen und ist bzgl. der Sensorrichtungen ganz symmetrisch, weshalb die Schwerpunkte der Voxel 5 in unterschiedlichen Sensorrichtungen identisch sind.

In den Fig. 9 bis 12 sind hexagonale Parkettierungen der Art gemäß Fig. 8 dargestellt, wobei verschieden dichte Auswertungen (Abstandsüberdeckungen) realisiert sind, indem die Zentralvoxel mit unterschiedlichen überdeckungen ange- ordnet sind. Mit den Auswertungen gemäß den Fig. 9 bis 12 werden Dichten der Abstandsbestimmung erzielt von 100%, 25%, 11,1% und 6,25%.

Fig. 13 zeigt ein Ausführungsbeispiel mit quadratischen Sensorelementen 4 und einem Gesamtvoxel in der Kreuzungsstelle der Voxelzeilen mit drei mal drei Sensorelementen 4, deren Sensorelementsignale mit der angegebenen Gewichtung für das Zentralvoxel beim Auslesen bewertet werden.