Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR CALIBRATING A MOBILE CAMERA UNIT OF A CAMERA SYSTEM FOR A MOTOR VEHICLE
Document Type and Number:
WIPO Patent Application WO/2020/169607
Kind Code:
A1
Abstract:
The invention relates to a method for calibrating a mobile camera unit (20) of a camera system (22), wherein static position parameters (pus, pos, prs, pls) are fused with dynamic position parameters (pud, pod, prd, pld) from at least two edges (38) and local coordinates (x, y, z) of the camera unit (20) are calculated therefrom.

Inventors:
SMITS THOMAS (DE)
Application Number:
PCT/EP2020/054246
Publication Date:
August 27, 2020
Filing Date:
February 18, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CONTINENTAL AUTOMOTIVE GMBH (DE)
International Classes:
G06T7/80; G06T7/269
Foreign References:
US20160284087A12016-09-29
Other References:
BECKER FLORIAN ET AL: "Variational Recursive Joint Estimation of Dense Scene Structure and Camera Motion from Monocular High Speed Traffic Sequences", INTERNATIONAL JOURNAL OF COMPUTER VISION, KLUWER ACADEMIC PUBLISHERS, NORWELL, US, vol. 105, no. 3, 3 July 2013 (2013-07-03), pages 269 - 297, XP035362234, ISSN: 0920-5691, [retrieved on 20130703], DOI: 10.1007/S11263-013-0639-7
Download PDF:
Claims:
Patentansprüche

1. Verfahren zum Kalibrieren einer mobilen Kameraeinheit (20) eines

Kamerasystems (22) für ein Kraftfahrzeug (10), wobei die Kameraeinheit

(20) zum Erfassen eines optischen Flusses (42) ausgebildet ist, aufweisend die Schritte:

- Befestigen der mobilen Kameraeinheit (20) an einer beliebigen Position p an einer Fläche (18) des Kraftfahrzeugs (10) derart, dass wenigstens zwei senkrecht zueinander angeordnete Kanten (38) der Fläche (18) in einem Sichtbereich (28) der Kameraeinheit (20) liegen;

- Statisches Detektieren von statischen Positionsparametern (pus, pos, pls, prs) der wenigstens zwei Kanten (38);

- Dynamisches Detektieren von dynamischen Positionsparametern (pud, pod, pld, prd) der wenigstens zwei Kanten (38) mit Hilfe des erfassten optischen Flusses (42);

- Fusionieren der statischen Positionsparameter (pus, pos, pls, prs) mit den dynamischen Positionsparametern (pud, pod, pld, prd) zu tatsächlichen Positionsparametern (put, pot, plt, prt);

- Berechnen von lokalen Koordinaten (x, y, z) der Kameraeinheit (20) auf Basis der ermittelten tatsächlichen Positionsparameter (put, pot, plt, prt) und intrinsischer Parameter der Kameraeinheit (20);

- Übermitteln der lokalen Koordinaten (x, y, z) an eine zentrale

Recheneinheit (54) des Kamerasystems (22).

2. Verfahren nach Anspruch 1 ,

gekennzeichnet durch Detektieren einer Raumlage (44)„unten“ relativ zur

Kameraeinheit (20) durch Erfassen eines Untergrundes (40), auf dem das

Kraftfahrzeug (10) angeordnet ist, mit Hilfe eines Beschleunigungssensors (48).

3. Verfahren nach Anspruch 2,

gekennzeichnet durch Erfassen des optischen Flusses (42) für den Untergrund

(40).

4. Verfahren nach Anspruch 3,

gekennzeichnet durch Präzisieren des erfassten optischen Flusses (42) unter Zuhilfenahme von Beschleunigungsdaten (68) des sich bewegenden

Kraftfahrzeugs (10).

5. Verfahren nach einem der Ansprüche 1 bis 4,

gekennzeichnet durch Erfassen des optischen Flusses (42) von wenigstens einer weiteren Raumlage (44)„rechts“,„links“ und/oder„oben“ relativ zur Kameraeinheit (20).

6. Verfahren nach einem der Ansprüche 1 bis 5,

gekennzeichnet durch Bereitstellen einer Bildanalyseeinrichtung (46), die dazu ausgebildet ist, anhand eines Sprunges im erfassten optischen Fluss (42) die wenigstens zwei Kanten (38), insbesondere mehr als zwei Kanten (38), des Kraftfahrzeugs (10) zu erkennen.

7. Verfahren nach Anspruch 6,

gekennzeichnet durch Bestimmen einer Trajektorie (56) des sich in Bewegung befindlichen Kraftfahrzeugs (10) aus dem optischen Fluss (42) mehrerer

Raumlagen (44) und Plausibilisieren der erfassten Daten bzgl. der optischen Flüsse (42) der mehreren Raumlagen (44) mit Hilfe einer tatsächlichen Trajektorie (56) des sich in Bewegung befindlichen Kraftfahrzeugs (10).

8. Verfahren zum Betreiben eines insbesondere für ein Kraftfahrzeug (10) ausgebildeten, eine mobile Kameraeinheit (20) aufweisenden

Kamera-Monitor-Systems (58), eines Multikamerasystems oder eines

ADAS-Systems, das ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit (20) nach einem der Ansprüche 1 bis 7 aufweist.

9. Kamera-Monitor-System (58) mit einer mobilen Kameraeinheit (20) und einer zentralen Recheneinheit (54), die dazu ausgebildet sind, ein Verfahren nach einem der Ansprüche 1 bis 8 durchzuführen.

Description:
Beschreibung

Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines Kamerasystems für ein Kraftfahrzeug

Die Erfindung betriff ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines Kamerasystems für ein Kraftfahrzeug, insbesondere eines Nutzfahrzeuges.

Im Bereich von Kraftfahrzeugen finden Einzel- bzw. Multikamerasysteme ein zunehmend breiteres Anwendungsspektrum. Neben reinen Komfortsystemen zur Verbesserung der Sicht des Fahrers bieten diese alternativ oder ergänzend Fahrassistenzfunktion (ADAS-Systeme), oder werden als

Kamera-Monitor-Systeme als Spiegelersatz-Systeme eingesetzt. Die

Kameraeinheiten solcher Systeme können einzeln oder im Verbund betrieben werden.

Die überwiegende Zahl der Kameraeinheiten ist ortsfest an dem jeweiligen

Kraftfahrzeug installiert. Dabei werden die Toleranzen der Anbaupositionen (extrinsische Parameter) meist bei der Fertigung abgeglichen. Insbesondere bei Kamerasystemen, bei denen Sichtbereiche verschiedener Kameraeinheiten miteinander kombiniert werden (beispielsweise per Stitching bei Surround View Systemen) ist es bekannt, die Kameraeinheiten hochgenau beispielsweise mit großen Kalibriermustern auf dem Boden, auf dem sich das Kraftfahrzeug befindet, auszurichten. Dieser Prozess wird beispielsweise in der Fertigung durchgeführt.

Eine Veränderung der Positionen der Kameraeinheiten, beispielsweise durch mechanische, thermische oder sonstige Beeinflussung, erfordert zumeist eine Rekalibrierung in der Werkstatt.

Die bekannten Kamerasysteme setzen daher feste, explizit bekannte und kalibrierte Positionen der Kameraeinheiten voraus. Wünschenswert wäre es jedoch, eine mobile Kameraeinheit auch temporär an einem Kraftfahrzeug anbringen und in einem Kamerasystem des Kraftfahrzeuges nutzen zu können.

Aufgabe der Erfindung ist es daher, ein Verfahren zum Kalibrieren einer mobilen Kameraeinheit vorzuschlagen.

Diese Aufgabe wird mit einem Verfahren mit der Merkmalskombination des

Anspruches 1 gelöst.

Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der abhängigen Ansprüche.

Bei einem Verfahren zum Kalibrieren einer mobilen Kameraeinheit eines

Kamerasystems für ein Kraftfahrzeug, bei dem die Kameraeinheit zum Erfassen eines optischen Flusses ausgebildet ist, werden die folgenden Schritte

durchgeführt:

- Befestigen der mobilen Kameraeinheit an einer beliebigen Position an einer Fläche des Kraftfahrzeuges derart, dass wenigsten zwei senkrecht zueinander angeordnete Kanten der Fläche in einem Sichtbereich der Kameraeinheit liegen;

- Statisches Detektieren von statischen Positionsparametern der wenigstens zwei Kanten;

- Dynamisches Detektieren von dynamischen Positionsparameter der

wenigstens zwei Kanten mithilfe des erfassten optischen Flusses;

- Fusionieren der statischen Positionsparameter mit den dynamischen

Positionsparametern zu tatsächlichen Positionsparametern;

- Berechnung von lokalen Koordinaten der Kameraeinheit auf Basis der

ermittelten tatsächlichen Positionsparameter und intrinsischer Parameter der Kameraeinheit;

- Übermitteln der lokalen Koordinaten an eine zentrale Recheneinheit des Kamerasystems. Mit diesem Verfahren ist es möglich, eine mobile Kameraeinheit mit einem

Kamerasystem eines Kraftfahrzeuges zu kombinieren und die mobile

Kameraeinheit temporär an das Kraftfahrzeug anzubringen (beispielsweise per Magnet), wobei die Kameraeinheit ohne explizite Kalibrierung in der Fertigung oder in einer Werkstatt funktionieren kann. Dabei ermittelt die Kameraeinheit ihre eigenen Positionsparameter an dem Kraftfahrzeug und kann ihre lokalen

Koordinaten an eine zentrale Recheneinheit des Kraftfahrzeuges, beispielsweise ein Spiegelersatzsystem, übertragen. Die zentrale Recheneinheit kann dann die lokalen Koordinaten der Kameraeinheit in Systemkoordinaten transformieren und somit eine Integration der Daten aus der Kameraeinheit mit entsprechendem Stitching realisieren.

Bei dem Kraftfahrzeug kann es sich beispielsweise um ein Nutzfahrzeug wie einen LKW, einen Bus, eine Baumaschine, eine Landmaschine oder einen PKW handeln.

Die mobile Kameraeinheit kann beispielsweise eine Kamera mit Fischaugenlinse sein, deren optische Linse über einen Öffnungswinkel > 180° verfügt. Hierdurch kann die Kameraeinheit soweit zur Seite„schauen“, dass sie beispielsweise montiert auf eine Rückwand eines LKW-Anhängers wenigstens zwei Kanten der Rückwandfläche des Anhängers„sehen“ kann. Es ist auch möglich, dass die Kameraeinheit so angeordnet ist, dass sie sämtliche Kanten der Rückwand, insbesondere vier Kanten,„sehen“ kann.

Beim statischen Detektieren der Positionsparameter der wenigstens zwei Kanten können klassische Image Processing Methoden verwendet werden. Beispielsweise können hierfür eine waagrechte Kante eines Aufbaus/Koffers des Anhängers oder waagrechte Kanten eines Stoßfängers des Kraftfahrzeuges verwendet werden, die sich relativ zu der Kameraeinheit nicht bewegen und somit ein statisches

Detektieren von Positionsparametern ermöglichen.

Befindet sich das Kraftfahrzeug in Bewegung, kann die Kamera durch

Bilderfassung den optischen Fluss Bild erfassen und somit Positionsparameter der wenigstens zwei Kanten, die sich dynamisch bewegen, detektieren. Die somit einerseits statisch und andererseits aus dem optischen Fluss dynamisch detektierten Positionsparameter der wenigstens zwei Kanten werden dann überlagert bzw. fusioniert. Aus der Fusion dieser beiden Arten von

Positionsparametern lassen sich die tatsächlichen Positionsparameter der beiden betreffenden Kanten mit einer deutlich höheren Sicherheit und Präzision

bestimmen. Da intrinsische Parameter der Kameraeinheit bekannt sind, können anhand der Positionsparameter der beiden Kanten die Abstände der Kameraeinheit zu den beiden Kanten bestimmt und somit die lokalen Koordinaten der

Kameraeinheit an der Fläche des Kraftfahrzeuges berechnet werden.

Die Kameraeinheit ermittelt somit eigenständig eine lokale Position an der Fläche des Kraftfahrzeuges, an der sie angebracht ist. Die Position ist dabei eine

Kombination aus mehreren korrelierten Parametern, die die Kameraeinheit eigeständig ermitteln kann. Dieser Satz von Parametern wird dann einem

Gesamtsystem, insbesondere einer zentralen Recheneinheit eines

Kamerasystems, übermittelt, in welche der Sichtbereich beziehungsweise die Kamerafunktionalität selbst integriert werden soll. Das Kamerasystem kann dann aus der Kombination der übermittelten Parameter und eigener bekannter beziehungsweise ermittelter Parameter eine präzise Integration der Kameraeinheit in das gesamte Kamerasystem vornehmen.

Vorteilhaft wird vor dem dynamischen Detektieren eine Raumlage„unten“ relativ zur Kameraeinheit durch Erfassen eines Untergrundes detektiert, auf dem das

Kraftfahrzeug angeordnet ist, wobei dazu die Hilfe eines Beschleunigungssensors in Anspruch genommen wird. Der Beschleunigungssensor ist Teil des

Kamerasystems und kann beispielsweise an der mobilen Kameraeinheit angeordnet sein. Der Beschleunigungssensor kann beispielsweise ein 3- beziehungsweise 6-Achsen-Beschleunigungssensor sein, über den die

Kameraeinheit bestimmen kann, wo„unten“ ist. Dies erfolgt anhand der

Erdbeschleunigung, mittels derer der Beschleunigungssensor die Orientierung eines Bildsensors der Kameraeinheit um eine Z-Achse, die senkrecht auf dem Untergrund steht, ermitteln kann. Vorzugsweise wird zunächst der optische Fluss für den Untergrund erfasst.

Nachdem die Kameraeinheit durch Detektion der Raumlage weiß, wo„unten“ ist, kann sie den optischen Fluss für den Untergrund, insbesondere des Bodens, auf dem sich das Kraftfahrzeug bewegt, ermitteln.

Vorteilhaft wird der erfasste optische Fluss unter Zuhilfenahme von

Beschleunigungsdaten des sich bewegenden Kraftfahrzeuges präzisiert. Die Kameraeinheit kann optional detektieren, ob das Kraftfahrzeug beschleunigt oder abgebremst wird, um so den optischen Fluss präziser bestimmen zu können.

Optional kann die Kameraeinheit jedoch auch Daten des Kraftfahrzeuges empfangen, wenn beispielsweise ein Empfänger mit einem BUS-System des Kraftfahrzeuges gekoppelt ist.

Vorteilhaft wird der optische Fluss von wenigstens einer weiteren Raumlage „rechts“,„links“ und/oder„oben“ relativ zu der Kameraeinheit erfasst.

Vorteilhaft wird eine Bildanalyseeinrichtung bereitgestellt, die dazu ausgebildet ist, anhand eines Sprunges in dem erfassten optischen Fluss die wenigstens zwei Kanten, insbesondere mehr als zwei Kanten, des Kraftfahrzeuges zu erkennen. Wird der optische Fluss in mehreren Raum lagen wie oben beschrieben erfasst, kann somit erkannt werden, in welcher Raumlage eine entsprechende Kante zu finden ist. Somit können beispielsweise Anhängerkanten eines Aufbaues eines Kraftfahrzeuges bei einem LKW mittels Auswertung des optischen Flusses erkannt werden, da sich an den Anhängerkanten ein Sprung im optischen Fluss bildet. Im Bereich hinter den Kanten, die durch den Anhänger verdeckt werden und durch die Optik der Kameraeinheit nicht mehr eingesehen werden können, ist der optische Fluss dagegen prinzipiell Null.

Vorteilhaft wird aus dem optischen Fluss mehrerer Raumlagen eine Trajektorie des sich in Bewegung befindlichen Kraftfahrzeugs bestimmt und die erfassten Daten bezüglich der optischen Flüsse der mehreren Raumlagen mithilfe einer

tatsächlichen Trajektorie des sich in Bewegung befindlichen Kraftfahrzeuges plausibilisiert. Aus der Korrelation der erfassten Daten bezüglich der optischen Flüsse zueinander kann die Bewegung beziehungsweise Trajektorie des

Fahrzeugs bestimmt werden. Da in der zentralen Recheneinheit die tatsächliche Trajektorie des Kraftfahrzeuges hinterlegt ist, ist es möglich, somit eine

Plausibilisierung und Filterung aller gewonnenen Daten durchzuführen und damit eine robustere Informationsbasis zu erhalten, auf deren Grundlage die

interessierenden Kanten des Kraftfahrzeuges erkannt werden können.

Bei einem vorteilhaften Verfahren zum Betreiben eines insbesondere für ein Kraftfahrzeug ausgebildeten, eine mobile Kameraeinheit aufweisenden Kamera- Monitor-Systems beziehungsweise eines Multikamerasystems beziehungsweise eines ADAS-Systems wird ein oben beschriebenes Verfahren zum Kalibrieren einer mobilen Kameraeinheit durchgeführt.

Ein vorteilhaftes Kamera-Monitor-System mit einer mobilen Kameraeinheit und einer zentralen Recheneinheit ist insbesondere dazu ausgebildet, ein Verfahren wie oben beschrieben durchzuführen.

Eine vorteilhafte Ausgestaltung der Erfindung wird nachfolgend anhand der beigefügten Zeichnungen näher erläutert. Darin zeigt:

Fig.1 eine Draufsicht von oben auf ein Kraftfahrzeug mit einem

Systemkoordinatensystem, das eine mobile Kameraeinheit aufweist, welche lokale Koordinaten aufweist;

Fig. 2 eine vergrößerte Draufsicht von oben auf das Kraftfahrzeug aus Fig.1 mit mobiler Kameraeinheit, die eine Fischaugen-Linse aufweist und somit über einen Öffnungswinkel von > 180° verfügt;

Fig. 3 eine Ansicht von hinten auf das Kraftfahrzeug aus Fig. 1 mit mobiler

Kameraeinheit; Fig. 4 eine perspektivische Ansicht auf das Kraftfahrzeug aus Fig. 1 zum

Veranschaulichen eines optischen Flusses;

Fig. 5 ein schematisches Flussdiagramm eines Verfahrens zum Kalibrieren der mobilen Kameraeinheit aus Fig. 1 bis 3;

Fig. 6 eine schematische Darstellung einer Recheneinheit, in der das Verfahren gemäß Fig. 5 durchgeführt werden kann.

Fig.1 zeigt eine Draufsicht auf ein Kraftfahrzeug 10, das hier als ein LKW 12 mit Zugmaschine 14 und Anhänger 16 dargestellt ist. An dem Anhänger 16,

insbesondere an einer rückseitigen Fläche 18, ist eine mobile Kameraeinheit 20 befestigt, die Teil eines Kamerasystems 22 ist, zu dem auch an der Zugmaschine 14 befestigte Spiegelersatzkameras 24 gehören.

In Fig. 1 sind der Sichtbereich 26 einer der Spiegelersatzkameras 24 sowie der Sichtbereich 28 der mobilen Kameraeinheit 20 im Querschnitt dargestellt.

Das Gesamtsystem 30 aus LKW 12 und zugehörigem Kamerasystem 22 definiert ein Systemkoordinatensystem 32 mit den Systemkoordinaten xs, ys, zs. In diesem Systemkoordinatensystem 32 ist die mobile Kameraeinheit 20 an unterschiedlichen Positionen p befestigbar, wobei die Positionen p definiert sind durch lokale

Koordinaten x, y, z der Kameraeinheit 20.

Da die Kameraeinheit 20 an verschiedenen Positionen p an einer der Flächen 18 des Kraftfahrzeuges 10 befestig werden kann, ist es wichtig, dass diese Position p, definiert durch die lokalen Koordinaten x, y, z, bekannt ist und an das

Kamerasystem 22 übertragen werden kann, und so die mobile Kameraeinheit 20 in das Kamerasystem 22 zu integrieren, indem die lokalen Koordinaten x, y, z der mobilen Kameraeinheit 20 in Systemkoordinaten xs, ys, zs transformiert werden und somit eine Integration beispielsweise mit entsprechendem Stiching realisiert werden kann. Dies wird dadurch ermöglicht, dass die mobile Kameraeinheit 20 in die Lage versetzt wird, eigenständig ihre lokale Position p an dem Kraftfahrzeug 10 zu ermitteln.

Fig. 2 zeigt eine Draufsicht auf das Kraftfahrzeug 10 aus Fig.1 in einer vergrößerten Darstellung im Bereich der mobilen Kameraeinheit 20, die an der rückseitigen Fläche 18 befestigt ist. Wie anhand einem schematisch dargestellten Strahlengang 36 zu sehen ist, ist die Kamera mit einer Fischaugenlinse gebildet. Die

Fischaugenlinse 34 verfügt über einen Öffnungswinkel von > 180°, sodass sie, wenn sie auf der rückwärtigen Fläche 18 des Anhängers 16 des Kraftfahrzeuges 10 montiert ist, sämtliche Kanten 38 des Anhängers 16„sehen“ kann. Da Fig. 2 eine Draufsicht von oben und somit im Wesentlichen eine Querschnittdarstellung zeigt, ist schematisch hier nur die Kante 38 oberhalb der Fischaugenlinse 34 zu sehen, die Fischaugenlinse 34 kann jedoch selbstverständlich auch die Kanten links, rechts und unten erfassen.

Fig. 3 zeigt eine Ansicht von hinten auf den Anhänger 16 des LKW 12, der sich auf einem Untergrund 40 befindet. In dieser Ansicht von hinten sind alle vier Kanten 38 - relativ gesehen zur mobilen Kameraeinheit 20,„unten“,„oben“,„rechts“,„links“ - zu sehen. Die Abstände au, ao, ar und al dieser Kanten 38 zu der mobilen

Kameraeinheit 20 sind mit gestrichelten Pfeilen eingezeichnet.

Diese Abstände au, ao, ar, al kann die mobile Kameraeinheit 20 statisch

detektieren. Sie erhält so statische Positionsparameter pus, pos, prs, pls der Kanten 38, die sie über klassische Image Processing Methoden erfasst.

Gleichzeitig ist die mobile Kameraeinheit 20 in der Lage, wie in Fig. 4 in der perspektivischen Ansicht anschaulich dargestellt ist, einen optischen Fluss 42 zu erfassen, wenn sich der LKW 12 in Bewegung befindet. Die mobile Kameraeinheit 20 kann dabei den optischen Fluss 42 für sämtliche Raumlagen 44„unten“,„oben“, „rechts“ und„links“ relativ zu der Kameraeinheit 20 erfassen. Die Daten zum optischen Fluss 42, die die mobile Kameraeinheit 20 erfasst hat, werden an eine in Fig. 3 gezeigte Bildanalyseeinrichtung 46 gesendet und ausgewertet, wobei anhand eines Sprunges in dem jeweils erfassten optischen Fluss 42 für die vier Raumlagen 44 die Kanten 38 erkannt werden können. Dadurch ist es möglich, dynamische Positionsparameter pud, pod, prd, pld der Kanten 38 zu detektieren.

Wie in Fig. 3 zu sehen, verfügt die Kameraeinheit 20 über einen

Beschleunigungssensor 48, der ein 3-beziehungsweise 6-Achsen

Beschleunigungssensor 48 sein kann. Über diesen Beschleunigungssensor 48 kann die mobile Kameraeinheit 20 mit Hilfe der Erdbeschleunigung bestimmen, wo die Raumlage 44„unten“ sich befindet. Die Kameraeinheit 20 weiß daher beim Erfassen des optischen Flusses 42, dass es sich dabei um den optischen Fluss 42 der Raumlage„unten“ und somit den des Untergrundes 40 handelt. Hier ist es möglich, Beschleunigungsdaten des sich bewegenden Kraftfahrzeuges 10 zu H ilfe zu nehmen und somit zu erfassen, ob das Kraftfahrzeug 10 beschleunigt oder abgebremst wird. Somit kann der erfasste optische Fluss 42 für den Untergrund 40 noch präziser bestimmt werden. Damit kann auch der optische Fluss 42 für die restlichen Raumlagen 44„rechts“,„links“,„oben“ präzise bestimmt werden.

Es stehen demgemäß nun die statischen Positionsparameter pus, pos, prs, pls und die dynamischen Positionsparameter pud, pod, prd, pld zur Verfügung, die dann überlagert beziehungsweise fusioniert werden können. Aus der Fusion dieser Positionsparameter, die zum Teil noch lückenhaft oder vereinzelt fehlerhaft beziehungsweise mehrdeutig sein können, lassen sich die tatsächlichen

Positionsparameter put, pot, prt, plt mit einer deutlich höheren Sicherheit und Präzision bestimmen.

In dem in Fig. 3 gezeigten Ausführungsbeispiel erfolgt das statische Detektieren für die untere Kante 38 des Anhängers 16 mit Hilfe einer waagerechten Kante 38 eines Aufbaus 50 des Anhängers 16, es ist jedoch auch möglich, die ebenfalls in Fig. 3 gezeigten waagerechten Kanten 38 eines Stoßfängers 52, die darunter liegen, zu verbinden.

In Fig. 3 sind neben den statisch ermittelten Abständen au, ao, ar, al, die mit gestrichelten Pfeilen angedeutet sind, auch die Abstände ou, oo, or, ol eingezeichnet, die dynamisch über den optischen Fluss 42 ermittelt worden sind. Hier ist zu erkennen, dass ou sich unterscheidet von au. Mittels des optischen Flusses 42 und intrinsischen Parametern der Kameraeinheit 20 wird der Abstand ou zum Untergrund 40 unmittelbar hinter dem Anhänger 16 ermittelt. Dieser Abstand ou gibt zugleich die Höhe der angesteckten Kameraeinheit 20 wider. In der in Fig. 3 gezeigten Ausführungsform sind die Abstände ao, ar, al jeweils identisch zu den Abständen oo, or, ol. Es ist jedoch auch möglich, dass diese Abstände ebenso voneinander abweichen und somit über die Fusion der Daten ebenfalls plausibiliert beziehungsweise korrigiert werden können.

Mithilfe intrinsischer Parameter der Kameraeinheit 20, die bekannt sind, können somit die lokalen Koordinaten x, y, z der Kameraeinheit 20 bestimmt werden. Diese werden nachfolgend zur weiteren Verarbeitung an eine in Fig. 6 gezeigte zentrale Recheneinheit 54 des gesamten Kamerasystems 22 gesendet.

Wenn das Kraftfahrzeug 10 sich in Bewegung befindet, folgt es einer bestimmten Trajektorie 56, die in Fig. 4 gezeigt ist. Die Daten, die von der Kameraeinheit 20 erfasst werden, korrelieren zueinander, sodass hieraus ebenfalls die Bewegung beziehungsweise Trajektorie 56 des Kraftfahrzeuges 10 bestimmt werden kann. Aus dem Abgleich der aus den Kameradaten bestimmten Trajektorie 56 mit der tatsächlichen Trajektorie 56 des Kraftfahrzeuges 10 können alle gewonnenen Daten plausibilisiert und gefiltert werden, umso eine robustere Informationsbasis zu erhalten.

In Fig. 5 sind die in dem oben beschriebenen Verfahren ablaufenden

Verfahrensschritte schematisch dargestellt. Zunächst wird die mobile

Kameraeinheit 20 an der Fläche 18 des Kraftfahrzeuges 10 befestigt. Dann werden zunächst die statischen Positionsparameter pus, pos, prs, pls der Kanten 38 detektiert, wonach, sobald sich das Kraftfahrzeug 10 in Bewegung befindet, auch die dynamischen Positionsparameter pud, pod, prd, pld der Kanten 38 erfasst werden. Die beiden Arten von Positionsparametern werden zu tatsächlichen Positionsparametern put, pot, prt, plt fusioniert und daraus die lokalen Koordinaten x, y, z der Kameraeinheit 20 berechnet. Im letzten Schritt werden diese lokalen Koordinaten x, y, z zur weiteren Verarbeitung an die zentrale Recheneinheit 54 übermittelt.

Fig. 6 zeigt ein Kamerasystem 22, das beispielsweise ein ADAS-System oder ein einfaches Multikamerasystem sein kann, in der vorliegenden Ausführungsform aber ein Kamera-Monitor-System 58 (Spiegelersatzsystem) ist, welches die mobile Kameraeinheit 20 aufweist, und in welchem das Verfahren zur Kalibration der mobilen Kameraeinheit 20 durchgeführt wird, um insgesamt das Kamerasystem 22 betreiben zu können. Die schematische Darstellung in Fig. 6 zeigt neben der mobilen Kameraeinheit 20, die flexibel an dem Kraftfahrzeug 10 befestigt werden kann, auch eine fest installierte Kameraeinheit 60, wobei beide Kameraeinheiten 20, 60 Kameradaten an das Kamerasystem 22 liefern. Die von der mobilen

Kameraeinheit 20 gelieferten Daten werden in einer ersten Recheneinheit 62 bezüglich der statischen Positionsparameter pus, pos, prs, pls ausgewertet. Weiter umfasst das Kamerasystem 22 eine zweite Recheneinheit 64, die von der

Bildanalyseeinrichtung 46 gebildet ist, und über die aus den jeweiligen optischen Flüssen 42 die dynamischen Positionsparameter pud, pod, prd, pld errechnet werden. Die in beiden Recheneinheiten 62, 64 ermittelten Daten werden zur einer dritten Recheneinheit 66 übermittelt, welche von der zentralen Recheneinheit 54 weitere Daten zu der Trajektorie 56 des Kraftfahrzeuges 10 und zusätzlich

Beschleunigungsdaten 68 erhält. Daraus kann die dritte Recheneinheit 66 die lokalen Koordinaten x, y, z der mobilen Kameraeinheit 20 berechnen und zu der zentralen Recheneinheit 54 übermitteln. Die zentrale Recheneinheit 54 verarbeitet diese ermittelten lokalen Koordinaten x, y, z weiter und kann dann die von der Kameraeinheit 20 erfassten Bilder auf einem Monitor 70, gemeinsam mit Bildern, die die Kameraeinheit 60 liefert, in Systemkoordinaten xs, ys, zs darstellen.

Die Recheneinheiten 62, 64, 66 können in einer alternativen Ausführungsform auch in der mobilen Kameraeinheit 20 enthalten sein. Die einzelnen Schritte können dann je nach Systemauslegung auf der mobilen Kameraeinheit 20 und/oder auf der zentralen Recheneinheit 54, beispielsweise einer Kraftfahrzeug-ECU, stattfinden. Im Zweifel kann also die mobile Kameraeinheit 20 völlig eigenständig die lokalen Koordinaten x, y, z ermitteln. Unter der Zuhilfenahme von bekannten optischen Eigenschaften der Kameraeinheit 20 und deren Optik können die Bereiche von Interesse optimiert werden, beispielsweise indem ein Suchbereich eingeschränkt wird.

Der optische Fluss 42 für die verschiedenen Raum lagen 44 und die geometrischen Berechnungen erfolgen normalisiert und nach dem Schritt einer Linsenentzerrung. Ebenso kann es jedoch sein, dass diese Berechnungen mit nicht entzerrten Daten erfolgen.

Optional könnten auch bekannte Verfahren wie„Tracking“ gemeinsamer Features über verschiedene Kameraeinheiten 20, 60 hinweg zusätzlich eingesetzt werden, um mehr Redundanz und damit idealerweise mehr Robustheit zu schaffen.

Das beschriebene Verfahren ist insbesondere interessant für ein mobiles

Kamerasystem 22 mit wechselnden Anhängern 16 oder angehängten Maschinen. Es wird eine optimale Integration der Kameraeinheit 20 in Multikamera-/

Multisichtfeld-Systeme ermöglicht. Dabei wird die Notwendigkeit einer Kalibrierung in der Werkstatt vermieden.

Die meisten bekannten Verfahren basieren darauf, gemeinsame Features mit unterschiedlichen Kameraeinheiten 20, 60 zu verfolgen. Jedoch sind häufig die Kameraeinheiten 20, 60, beispielsweise eines Kameraarms und einer mobilen Rückfahrkamera, sehr weit voneinander entfernt. Hinzu kommt der sehr große Öffnungswinkel der Fischaugenoptik bei der mobilen Kameraeinheit 20. Beide Eigenschaften zusammen führen dazu, dass die klassischen„Feature-Tracking“ Methoden über Kameraeinheiten 20, 60 hinweg nur erschwert realisierbar sind. Der Ansatz, der oben beschrieben ist, besteht darin, die jeweils lokalen Informationen über bekanntes Wissen miteinander zu kombinieren und daher die

Koordinatensysteme ineinander überführen zu können.

Im vorliegenden Beispiel kann beispielsweise bekannt sein, dass die

Anhängerrückwand, an der die Kameraeinheit 20 angeheftet wird, an eine Seite des Anhängers 16 grenzt. Somit gibt es als Schnittpunkt der beiden Flächen 18 eine Seitenfläche 18 des Anhängers 16 und die rückwertige Seite des Anhängers 16, die sich an einer Kante 38 stoßen. Diese Kante 38 kann beispielsweise über

Spiegelersatzkameras verfolgt werden und somit in einem

Systemkoordinatensystem dynamisch gespeichert werden.

Das Verfahren ermöglicht selbstverständlich auch eine Kalibrierung von statisch montierten Kameras, beispielsweise Rückfahrkameras und kann auch mit Optiken mit einem Öffnungswinkel von > 180° in lediglich einer Ebene verwendet werden.