Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
OPTICAL ASSEMBLY FOR GENERATING A REAL-TIME IMAGE AND A REAL-TIME ASSIGNMENT OF ENVIRONMENTAL OBJECTS, AND VEHICLE COMPRISING SUCH AN ASSEMBLY
Document Type and Number:
WIPO Patent Application WO/2022/179998
Kind Code:
A1
Abstract:
An optical assembly (2) is used to generate a real-time image and a real-time assignment of environmental objects. The optical assembly has a plurality of camera groups (3 to 8) which each have cameras interconnected via a camera signal connection, the entrance pupil centres of which cameras define a camera arrangement plane in which the cameras are arranged. The camera groups (3 to 8) are in turn interconnected via a group signal connection. Adjacent image capture directions (18i j) of the cameras of one of the camera groups (3 to 8) assume an individual camera angle (α) with respect to one another which is in the range between 5° and 25°. A direction mean value (19i) of the image capture directions (18ij) of the cameras of one of the camera groups (3 to 8) assumes a group-camera angle (γ), with respect to a direction angle value (19i+1) of the image capture devices (18i j) of the cameras of an adjacent camera group (3 to 8), which is in the range between 30° and 100°. This results in an optical assembly with improved reliability of real-time detection of environmental objects and improved real-time assignment, and which is well adapted to the practice in particular of image capture to allow autonomous driving.

Inventors:
SCHICK JENS (DE)
Application Number:
PCT/EP2022/054305
Publication Date:
September 01, 2022
Filing Date:
February 22, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
TRIPLEYE GMBH (DE)
International Classes:
H04N5/247; B60R1/27; B60R11/00; B60R11/04; G06T7/593
Domestic Patent References:
WO2013020872A12013-02-14
WO2013020872A12013-02-14
Foreign References:
US20190082114A12019-03-14
US20190364206A12019-11-28
DE102021201678A2021-02-23
DE102017115810A12019-01-17
US20160301863A12016-10-13
DE102018132676A12020-06-18
Attorney, Agent or Firm:
RAU, SCHNECK & HÜBNER PATENTANWÄLTE RECHTSANWÄLTE PARTGMBB (DE)
Download PDF:
Claims:
Patentansprüche

1. Optische Baugruppe (2) zur Erzeugung einer Echtzeit- Abbildung und einer Echtzeit-Zuordnung von Umgebungs-Objekten - mit einer Mehrzahl von Kamera-Gruppen (3 bis 8), die jeweils mindestens zwei miteinander über eine Kamera-Signalverbindung miteinander verknüpfte Kameras (11 bis 13) aufweisen, deren Ein- trittspupillen-Zentren (EPZ) eine Kamera- Anordnungsebene (AE) definieren, in der die Kameras (11 bis 13) angeordnet sind, - wobei die Kamera-Gruppen (3 bis 8) wiederum miteinander über eine Gruppen-Signalverbindung (21) miteinander verknüpft sind, wobei benachbarte Bildaufnahmerichtungen (18) der Kameras (11 bis 13) einer der Kamera-Gruppen (3 bis 8) einen Einzelkamera- Winkel (a) zueinander einnehmen, der im Bereich zwischen 5° und 25° liegt, wobei ein Richtungs-Mittelwert (19) der Bildaufnahmerichtungen

(18) der Kameras (11 bis 13) einer der Kamera-Gruppen (3 bis 8) einen Gruppenkamera-Winkel (g) zu einem Richtung s -Mittelwert

(19) der Bildaufnahmerichtungen (18) der Kameras (11 bis 13) ei- ner benachbarten Kamera-Gruppe (3 bis 8) einnimmt, der im Be reich zwischen 30° und 100° liegt.

2. Optische Baugruppe nach Anspruch 1, gekennzeichnet durch drei Kameras (11 bis 13) einer der Kamera-Gruppen (3 bis 8), deren Ein- zelpupillen-Zentren (EPZ) in den Ecken eines nicht gleichseitigen

Dreiecks liegen.

3. Optische Baugruppe nach Anspruch 1 oder 2, gekennzeichnet durch eine Länge einer Verbindungslinie (Baseline, B) zwischen den Ein- trittspupillen-Zentren (EPZ) zweier Kameras (11, 12; 11, 13; 12, 13) einer Kamera-Gruppe (3 bis 8) im Bereich von 5 cm bis 30 cm.

4. Optische Baugruppe nach einem der Ansprüche 1 bis 3, gekennzeich net durch eine Länge einer Baseline ( B , j ) zwischen Kameras (1 1, bis 13i, llj bis 13j) verschiedener Kamera-Gruppen (3 bis 8) im Bereich von 0,5 m bis 3 m.

5. Optische Baugruppe nach einem der Ansprüche 1 bis 4, gekennzeich net durch mindestens drei Kamera-Gruppen (3 bis 8).

6. Optische Baugruppe nach Anspruch 5, gekennzeichnet durch mindes tens sechs Kamera-Gruppen (3 bis 8).

7. Optische Baugruppe nach einem der Ansprüche 1 bis 6, gekennzeich net durch einen Grappen-Montagekörper (10) zur Montage der Kame ras (11 bis 13) einer Kamera-Gruppe (3 bis 8), wobei der Grappen- Montagekörper (10) derart ausgeführt ist, dass er die Kameras (11 bis 13) der Kamera-Gruppe (3 bis 8) mit zueinander fester relativer Lage und Orientierung trägt.

8. Optische Baugruppe nach Anspruch 7, dadurch gekennzeichnet, dass der Grappen-Montagekörper (10) vorbereitete Halte- Aufnahmen (14, 15) zur Montage zusätzlicher Kameras aufweist, sodass die Kamera- Gruppe (3 bis 8) nachträglich um mindestens eine weitere zu montie rende Kamera erweiterbar ist.

9. Optische Baugruppe (2) zur Erzeugung einer Echtzeit-Abbildung und einer Echtzeit-Zuordnung von Umgebungs-Objekten, mit einer Mehr- zahl von über eine Kamera-Signalverbindung miteinander verknüpften Kameras (11 bis 13), die als Fischaugen-Kameras ausgeführt sind.

10. Optische Baugruppe nach einem der Ansprüche 1 bis 9, dadurch ge kennzeichnet, dass mindestens eine der Kameras (11 bis 13) als Dop pel-Kamera mit einem RGB-Sensor (25) und mit einem IR-Sensor (26) ausgeführt ist.

11. Optische Baugruppe nach einem der Ansprüche 1 bis 10, dadurch ge kennzeichnet, dass mindestens eine der Kameras (11 bis 13) als Hyb- rid-Kamera mit einer Nahbereichs-Optik (32) und mit einer Fembe- reichs-Optik (33) ausgeführt ist.

12. Optische Baugruppe nach einem der Ansprüche 1 bis 11, gekenn zeichnet durch ein Datenverarbeitungsmodulsystem (36; 48) mit min destens einer Datenverarbeitungseinheit zur Verarbeitung der Kamera daten zur Echtzeit- Abbildung und Echtzeit-Zuordnung der Umge bungs-Objekte, wobei das Datenverarbeitungsmodulsystem (36; 48) jeweils mindestens ein Datenverarbeitungs-Gruppenmodul (37, 38, 39, . . . ; 37R, 38R, 39R, ...; 37‘, 37, 49, 38, ...; 37R‘, 37R, 49R, 38R, ...) auf weist, das genau einer der Kamera-Gruppen (3 bis 8) zugeordnet ist und dessen Daten verarbeitet, und jeweils mindestens ein Datenverar beitungs-Hauptmodul (42; 42R) aufweist, das allen Kamera-Gruppen (3 bis 8) zugeordnet ist.

13. Optische Baugruppe nach einem der Ansprüche 1 bis 11, gekenn zeichnet durch mindestens eine zusätzliche Redundanz-Kamera (R,; R311) als Be standteil einer der Kamera-Gruppen (3 bis 8) und/oder mindestens ein Redundanz-Datenverarbeitungs-Grappenmodul (37R, 38R, 39R, . . . ; 49R) und/oder mindestens ein Redundanz-Datenverarbeitungs-Hauptmodul (42R). 14. Fahrzeug (1; 17) mit einer optischen Baugruppe (2) nach einem der

Ansprüche 1 bis 13 mit einem Fahrwerk mit bodenseitigen Fahrwerks komponenten (la), die bei ruhendem Fahrzeug (1; 17) eine Fahrzeug- Aufstandsebene (xy) definieren, gekennzeichnet durch eine Anbrin gung der Kamera-Gruppen (3 bis 8) der optischen Baugruppe (2) in ei- nem Abstand von mindestens 50 cm zur Fahrzeug- Aufstandsebene

(xy)·

15. Fahrzeug nach Anspruch 14, dadurch gekennzeichnet, dass die Base lines (B) zwischen den Kameras (11 bis 13) einer Kamera-Gruppe (3 bis 8) unter einem Winkel zur Fahrzeug- Aufstandsebene (xy) im Be reich zwischen 10° und 80° verlaufen.

Description:
Optische Baugruppe zur Erzeugung einer Echtzeit-Abbildung und ei ner Echtzeit-Zuordnung von Umgebungs-Objekten sowie Fahrzeug mit einer derartigen Baugruppe

Die vorliegende Patentanmeldung nimmt die Priorität der deutschen Pa tentanmeldung DE 10 2021 201 678.2 in Anspruch, deren Inhalt durch Be zugnahme hierin aufgenommen wird.

Die Erfindung betrifft eine optische Baugruppe zur Erzeugung einer Echt zeit-Abbildung und einer Echtzeit-Zuordnung von Umgebungs-Objekten. Ferner betrifft die Erfindung ein Fahrzeug mit einer derartigen optischen Baugruppe.

Eine optische Baugruppe der eingangs genannten Art sowie ein hiermit ausgerüstetes Fahrzeug ist bekannt aus der WO 2013/020872 AL Die DE 10 2017 115 810 Al offenbart ein Verfahren zum autonomen Parken eines Fahrzeugs sowie ein Fahrassistenzsystem zur Durchführung des Verfah rens. Die US 2016/0301863 Al offenbart ein Bildbearbeitungssystem zur Erzeugung einer Surround-View-Abbildung. Die DE 10 2018 132 676 Al offenbart ein Verfahren zum Lokalisieren eines Fahrzeugs in einer Umge bung sowie ein entsprechendes Fahrunter Stützung s System.

Es ist eine Aufgabe der vorliegenden Erfindung, eine optische Baugruppe der eingangs genannten Art derart weiterzubilden, dass die Sicherheit einer Echtzeit-Erfassung von Umgebungs-Objekten, insbesondere einer Umge bungs-Szenerie, und deren Echtzeit-Zuordnung verbessert und an die Pra xis insbesondere der Bilderfassung zur Sicherstellung eines autonomen Fahrens gut angepasst ist. Diese Aufgabe ist erfindungsgemäß gelöst durch eine optische Baugruppe mit den in Anspruch 1 angegebenen Merkm len.

Erfindungsgemäß wurde erkannt, dass die Bereitstellung mehrerer Kamera- Gruppen mit jeweils mindestens zwei und insbesondere mindestens drei miteinander signalverknüpften Kameras die Möglichkeit einer Echtzeit- Abbildung und Echtzeit-Zuordnung von Umgebungs-Objekten insbesonde re zur Vorbereitung autonomen Fahrens deutlich verbessert. Über die Zu ordnung ist dabei sichergestellt, dass verschiedene Kameras innerhalb einer der Kamera-Gruppen und/oder verschiedene Kameras verschiedener Ka mera-Gruppen tatsächlich das gleiche Objekt und/oder die gleiche Objekt- Signatur abbilden. Soweit genau zwei Kameras innerhalb einer Kamera- Gruppe zum Einsatz kommen, kann eine bei der Echtzeit-Zuordnung zum Einsatz kommende Triangulation unter Zuhilfenahme zweier Kamera- Gruppen beispielsweise dadurch erfolgen, dass Erfassungsdaten der beiden Kameras eine der Kamera-Gruppen mit den Erfassung sdaten einer Kamera der zweiten Kamera-Gruppe miteinander verknüpft und bei der Triangula tion ausgewertet werden.

Lageabweichungen zwischen Signaturen von Szenerie-Objekten, die sich aufgrund von Positionsabweichungen der Kameras untereinander ergeben, können mithilfe eines diese optische Baugruppe nutzenden Verfahrens zur räumlichen Bilderfassung präzise erkannt und kompensiert werden. Bei der Bildaufnahmerichtung kann es sich um eine optische Achse der jeweiligen Kamera handeln.

Ein Gruppenkamera-Winkel zwischen Richtungs-Mittelwerten der Bild aufnahmerichtungen benachbarter Kamera-Gruppen zwischen 30° und 100° ermöglicht eine gute Umgebungsabdeckung mit der optischen Bau- gruppe unter Verwendung einer möglichst geringen Anzahl von Kamera- Gruppen. Dies reduziert insbesondere den Aufwand bei der Signalverarbei tung der Kamerasignale. Die Kameras der Kamera-Gruppen können einen großen Öffnungs- bzw. Bildwinkel aufweisen. Ein horizontaler Öffnungs winkel der jeweiligen Kamera kann bis zu 180° betragen und kann auch noch größer sein. Der Öffnung swinkel der Kamera kann kleiner sein als 175°, kann kleiner sein als 160° und kann auch kleiner sein als 140°. Re gelmäßig ist der horizontale Öffnung swinkel größer als 90°. Ein vertikaler Öffnung swinkel der jeweiligen Kamera kann größer sein als 90°. Dieser vertikale Öffnung swinkel ist regelmäßig kleiner als 180°: Die jeweilige Kamera ist regelmäßig so ausgerichtet, dass ihre optische Achse mit einer Horizontalebene einen Winkel einnimmt, der dem halben vertikalen Öff nungswinkel entspricht. Die Kameras der Kamera-Gruppen können als Fischaugen-Kameras ausgeführt sein.

Der Einzelkamera- Winkel zwischen den Bildaufnahmerichtungen der Ka meras genau einer der Kamera-Gruppen kann im Bereich zwischen 10° und 20° hegen und kann insbesondere im Bereich von 15° hegen. Dies gewähr leistet eine gute räumliche Zuordnung von Szenerie-Objekten insbesondere in einem Nahbereich um die jeweilige Kamera-Gruppe. Ein jeweiliger Ein zelkamera-Winkelbereich kann für die Einzelkamera- Winkel benachbarter Bildaufnahmerichtungen aller Kameras einer jeweiligen Kamera-Gruppe sowie für alle Kameras aller Kamera-Gruppen jeweils zutreffen, sodass die Einzelkamera-Winkelbereichs-Bedienung für alle Kameras einer der Ka mera-Gruppen und/oder für alle Kameras aller Kamera-Gruppen erfüllt sein kann.

Der Gruppenkamera-Winkel kann im Bereich zwischen 45° und 75° hegen und kann insbesondere im Bereich von 60° hegen. Insbesondere beim Ein- satz von Fischaugen-Kameras kann ein großer Grappenkamera-Winkel zum Einsatz kommen. Die Grappenkamera-Winkelbedingung kann für alle zueinander benachbarten Kamera-Gruppen der optischen Baugruppe erfüllt sein.

Falls mehr als drei Kameras, zum Beispiel vier Kameras, zu einer Kamera- Gruppe gehören, können drei dieser vier Kameras der Kamera-Gruppe die Kamera- Anordnungsebene der jeweiligen Kamera-Gruppe definieren und die vierte Kamera derselben Kamera-Gruppe kann außerhalb dieser An ordnungsebene angeordnet sein.

Die optische Baugruppe hat Signalverarbeitungskomponenten, die die Echtzeit- Abbildung und Echtzeit-Zuordnung der Umgebungs-Objekte ge währleisten. Hierzu beinhaltet die optische Baugruppe entsprechend leis tungsfähige Datenverarbeitungsmodulsysteme, insbesondere echtzeitfähige Prozessoren und echtzeitfähige Signalverbindungen. Eine Latenzzeit der optischen Baugruppe kann bei 200 ms liegen und kann kleiner sein, bei spielsweise bei 150 ms, 100 ms oder bei 50 ms liegen. Eine Bildwiederhol rate der optischen Baugruppe kann bei 10 liegen (10 fps, frames per se- cond). Auch eine größere Bildwiederholrate, beispielsweise von 15, 20, 25 oder noch höher kann realisiert sein.

Eine Anordnung der Kameras einer der Kamera-Gruppen nach Anspruch 2 hat sich in der Praxis bewährt, da unerwünschte Resonanzeffekte bei der Abbildung und/oder unerwünschte Fehlzuordnungen, also eine fehlerhafte Zuordnung insbesondere von Objekt- Signaturen, die tatsächlich zu ver schiedenen Objekten gehören, zum gleichen Objekt, vermieden werden. Das Dreieck, in dessen Ecken die Eintrittspupillen-Zentren liegen, kann zwei oder drei unterschiedliche Seitenlängen haben. Ein Baseline-Längenbereich nach Anspruch 3 ermöglicht eine gute Erfas sung eines Nahbereichs der jeweiligen Kamera-Gruppe ab einer Unter grenze von beispielsweise 30 cm oder 50 cm. Auch den Kamera-Gruppen nahe benachbarte Objekte können dann sicher erfasst und zugeordnet wer den.

Regelmäßig ergibt sich eine sichere Erfassung und Zuordnung von Objek ten in einem Abstand, der mindestens das Dreifache der Baseline-Länge beträgt. Bei einer Baseline-Länge von 10 cm ergibt sich beispielsweise ein Mindest-Objektabstand sicher erfass- und zuordenbarer Objekte von 30 cm.

Bei einer gegebenen Baseline-Länge hegt ein Verhältnis zwischen einem maximal erfass- und zuordenbaren Objektabstand und einem minimal er fass- und zuordenbaren Objektabstand typischerweise bei einem Faktor 20. Wenn der minimal erfass- und zuordenbare Objektabstand bei 30 cm hegt, ergibt sich ein maximal erfass- und zuordenbaren Objektabstand von 6 m. Die Länge der Baseline zwischen den Eintrittspupillen-Zentren zweier

Kameras einer Kamera-Gruppe kann auch im Bereich zwischen 10 cm und 20 cm oder im Bereich zwischen 10 und 15 cm hegen. Die Länge der Base- line aller Kamera-Paare, die in der jeweiligen Kamera-Gruppe vorliegen, kann in einem derartigen Bereich hegen.

Eine Baseline-Länge zwischen den Kameras verschiedener und insbeson dere benachbarter Kamera-Gruppen nach Anspruch 4 ermöglicht eine si chere Abdeckung eines mittleren Entfemungsbereichs, dessen Untergrenze mit einer Obergrenze des Nahbereichs, der mit einer individuellen Kamera- Gruppe abgedeckt werden kann, überlappen kann. Die Baseline-Länge zwischen Kameras verschiedener Kamera-Gruppen kann im Bereich zwi schen 1 m und 2 m liegen. Die Länge der Baselines zwischen den Kameras aller benachbarten Kamera-Gruppen der optischen Baugruppe kann in ei nem derartigen Bereich liegen. Die Baseline-Länge zwischen Kameras ver schiedener Kamera-Gruppen kann in Abhängigkeit von der Baseline-Länge zwischen den Kameras ein und derselben Kamera-Gruppe so gewählt wer den, dass die Objekt-Abstandsbereiche zur sicheren Erfass- und Zuordnung von Objekten einerseits über genau eine der Kamera-Gruppen und anderer seits über die Kameras verschiedener Kamera-Gruppen aneinander angren zen oder miteinander überlappen. Bei einer beispielhaften Baseline-Länge zwischen den Kameras genau einer der Kamera-Gruppen von 10 cm und einem sich daraus ergebenden maximalen sicher erfass- und zuordenbaren Objektabstand von 6 m kann die Länge der Baseline zwischen Kameras verschiedener Kamera-Gruppen beispielsweise bei 2 m liegen, was zu ei nem minimalen sicher erfass- und zuordenbaren Objektabstand für die Kameras verschiedener Kamera-Gruppen wiederum von 6 m führt. In die sem Fall grenzen die Abstandsbereiche der sicher erfass- und zuordenbaren Objekterfassung der jeweiligen Kamera-Gruppen (Intra) und der verschie denen Kamera-Gruppen (Inter) also aneinander an.

Über jeweils eine der Kamera-Gruppen kann somit ein Objekt-Nahbereich abgedeckt werden und über das Zusammenspiel mindestens zweier Kame ra-Gruppen kann ein Objekt-Fembereich abgedeckt werden, wobei der Nahbereich und der Fembereich direkt aneinander angrenzen oder mitei nander überlappen können.

Die Anzahlen von Kamera-Gruppen nach Anspruch 5 oder 6 haben sich zur Optimierung eines horizontalen und/oder eines vertikalen Gesamterfas- sungsbereichs der optischen Baugruppe bewährt. Ein horizontaler Ge samterfassungsbereich kann insbesondere bei 360° liegen, sodass die ge samte horizontale Umgebung der optischen Baugruppe erfasst wird. Ein vertikaler Gesamterfassungsbereich kann abhängig von den Objektiven der verwendeten Kameras 180° betragen oder auch größer sein und kann zum Beispiel bei Verwendung von Fischaugen- Kameras zum Beispiel 220° be tragen. Bei Anwendung der optischen Baugruppe in einem PKW kann bei spielsweise ein vertikaler Gesamterfassungsbereich von 100° genutzt wer den (senkrecht nach unten bis 10° über die Horizontale). Der horizontale und/oder der vertikale Gesamterfassungsbereich kann in mehrere Raum winkelabschnitte unterteilt sein.

Ein Grappen-Montagekörper nach Anspruch 7 führt zu einer vorteilhaften Lage- und Orientierung s Stabilität der Kameras der jeweiligen Kamera- Gruppe.

Ein Grappen-Montagekörper nach Anspruch 8 führt zu einer Kamera- Gruppe, die an die jeweiligen Abbildungs- und Zuordnungsanforderangen angepasst werden kann. Der Grappen-Montagekörper kann beispielsweise eine vorbereitete Halte-Aufnahme, zwei vorbereitete Aufnahmen oder auch mehr als zwei vorbereitete Halte-Aufnahmen zur Montage zusätzlicher Kameras aufweisen. Die jeweilige Halte-Aufnahme kann komplementär zu einer entsprechend zugeordneten Halterang einer aufzunehmenden Kamera ausgeführt sein.

Die eingangs genannte Aufgabe ist ebenfalls gelöst durch eine optische Baugruppe mit den im Anspruch 9 angegebenen Merkmalen. Eine Fischaugen- Kamera ist eine Kamera mit einem Fischaugenobjektiv. Ein Öffnungs- bzw. Bildwinkel eines solchen Fischaugenobjektivs kann bis zu 310° betragen. Regelmäßig beträgt der Bildwinkel eines Fischaugenob jektivs mindestens 180° in der Bilddiagonalen. Eine Brennweite des Fisch augenobjektivs kann im Bereich zwischen 4 mm und 20 mm liegen. Eine typische Brennweite liegt bei 4,5 mm oder im Bereich zwischen 8 und 10 mm. Eine Abbildungsfunktion des Fischaugenobjektivs kann winkeltreu, kann äquidistant, kann flächentreu oder kann auch orthografisch sein. Das Fischaugenobjektiv kann auch eine parametrische Abbildung in Form einer nicht-fundamentalen Abbildungsfunktion aufweisen.

Die Merkmale der vorstehend erläuterten optischen Baugruppen können je nach Ausführung auch miteinander kombiniert werden.

Durch den Einsatz von Fischaugen-Kameras kann sich die Zahl der not wendigen Kameras der optischen Baugruppe zur Abdeckung erforderlicher Raumwinkelabschnitte oder zur Abdeckung eines erforderlichen horizonta len und/oder vertikalen Gesamterfassungsbereichs vorteilhaft klein sein.

Eine Doppel-Kamera nach Anspruch 10 erweitert die Möglichkeiten der optischen Baugruppe. Die Doppel-Kamera kann voneinander getrennte, aneinander aber räumlich nahe benachbarte Kameraoptiken für den RGB- Sensor einerseits und für den IR-Sensor andererseits aufweisen. Ein Ab stand zwischen den optischen Achsen der RGB -Kameraoptik einerseits und der IR-Kameraoptik andererseits kann kleiner sein als 35 mm. Die beiden Sensoren und/oder die beiden Kameraoptiken der Doppel-Kamera können auf einem gemeinsamen Träger montiert sein. Ein Auslesen von Bildin formationen der Doppel-Kamera kann gestitcht erfolgen, sodass zum Bei spiel eine Zeile des RGB-Sensors und anschließend eine Zeile des IR- Sensors ausgelesen wird. Zusätzlich zu dem IR-Sensor kann auch noch eine IR-Lichtquelle zum Einsatz kommen, mit der insbesondere eine textu rierte IR-Beleuchtung der zu erfassenden Szenerie erfolgen kann. Die Sen soren mit den unterschiedlichen Erfassungs-Wellenlängenbereichen ermög lichen eine verbesserte Treffergenauigkeit bei der Erfassung und Zuord nung der Umgebungs-Objekte.

Eine Hybrid-Kamera nach Anspruch 11 führt ebenfalls zu einer Erweite rung der Möglichkeiten der optischen Baugruppe. Die Hybrid-Kamera kann einen vergrößerten Entfemungsbereich abdecken, was eine Erhöhung der Sicherheit der optischen Baugruppe gewährleistet. Die Nahbereichs- Optik kann als Fischaugenoptik ausgeführt sein. Die Fembereichs-Optik kann als Teleoptik ausgeführt sein. Die beiden Optiken der Hybrid-Kamera können auf einem gemeinsamen Träger montiert sein. Die Nahbereichs- Optik kann eine Doppel-Kamera mit einem RGB-Sensor und mit einem IR-Sensor insbesondere nach Art des Anspruchs 10 aufweisen. Entspre chend kann auch die Fembereichs-Optik eine Doppel-Kamera mit einem RGB-Sensor und mit einem IR-Sensor aufweisen.

Ein Datenverarbeitungsmodulsystem nach Anspmch 12 gewährleistet eine effiziente Echtzeit-Erfassung und Echtzeit-Zuordnung der Umgebungs- Objekte. Die Aufteilung des Datenverarbeitungsmodulsystems in den Ka mera-Gruppen jeweils einzeln zugeordnete Gmppenmodule und in ein al len Kamera-Gmppen zugeordnetes Hauptmodul ermöglicht eine Verarbei tungsorganisation, die auf Gruppenmodulebene eine sehr schnelle erste Erfassung und Zuordnung ermöglicht, wobei auf der Hauptmodulebene dann noch eine Verifizierung ausgewählter Aspekte, insbesondere eine Ve rifizierung von auf Gruppenmodulebene zweifelhaften Zuordnungen, er folgen kann. Zwischen den Datenverarbeitungs-Gruppenmodulen kann eine Signal Verbindung zwischen verschiedenen Kameragrappen zur Er möglichung einer Echtzeit-Zuordnung auf Grundlage der Kameradaten verschiedener Kameragrappen in der Grappenebene vorliegen. Auf Grap- penebene kann somit eine Inter-Baseline-Auswertung erfolgen. Das Hauptmodul kann einen Coprozessor bzw. einen Überwachungsprozessor zur Sicherstellung einer korrekten Funktion des Hauptmoduls aufweisen. Zwischen den Grappenmodulen kann ein serieller Datentransfer nach dem Standard MIPI/CSI erfolgen. Soweit eine Hybrid-Kamera zum Einsatz kommt, können die Nahbereichs-Optik einerseits und die Fembereichs- Optik andererseits mit einem eigenen Datenverarbeitungs-Grappenmodul in Signal Verbindung stehen. Auch mehr als ein Datenverarbeitungs- Grappenmodul kann ein und derselben Kameragrappe zugeordnet sein. Dies ist insbesondere dann der Fall, wenn innerhalb einer Kamera-Gruppe mehrere verschiedene Kameratypen zum Einsatz kommen, beispielsweise mindestens zwei der drei nachfolgenden Kameratypen: Einzel-Kamera, Doppel-Kamera, Hybrid-Kamera.

Mindestens eine Redundanz-Komponente nach Anspruch 13 erhöht die Fehlersicherheit der optischen Baugruppe. Es kann eine Ausfallsicherheits- Redundanz (fall redundancy), eine Funktional-Redundanz (functional re- dundancy) und auch eine Form-Redundanz (form redundancy) bereitge stellt werden.

Bei Vorliegen einer Funktional-Redundanz hegen mehrere Messsysteme mit gleicher Technologie vor, die dasselbe messen. Die Redundanz- Komponente ist dann technisch genauso ausgelegt wie eine Grand- Komponente. Ein Beispiel hierfür ist eine zusätzliche Redundanz-Kamera, die genauso aufgebaut ist wie die ursprünglich vorgesehenen Kameras ei ner der Kamera-Gruppen. Bei Vorliegen einer Form-Redundanz messen Messsysteme mit unter schiedlicher Technologie dasselbe. Ein Beispiel für eine solche Form- Redundanz ist die Erfassung von Objekten einerseits mithilfe einer für sichtbares Licht empfindlichen Kameras, zum Beispiel mit einer RGB- Kamera, und mit einer für infrarotes Licht empfindlichen Kamera. Die un terschiedlichen Messsysteme kommen dabei insbesondere bei der Abbil dung sowie der Zuordnung der abgebildeten Objekte zum Einsatz. Bei Vorliegen einer Fail- Safe-Redundanz führt das Feststellen eines Wi derspruchs zwischen zwei Messungen zur Signalisierung eines Fehlers und zum Anhalten eines Fahrzeugs, mit dem die optische Baugruppe ausgerüs tet ist, in einen sicheren Zustand. Bei Vorliegen einer Fail-Operational-Redundanz führt das Feststellen eines Widerspruchs zwischen mindestens drei Messungen mit Votum für zwei gleiche Messungen (Mehrheitsentscheid) zu einer Warnung mit Fortset zung einer durchgeführten Operation des Fahrzeugs. Soweit eine Kompo nente der Baugruppe ausfällt, muss eine Ersatz- bzw. Redundanz- Komponente für die ausgefallene Komponente vorhanden sein, damit wei terhin eine derartige Mehrheitsentscheidung getroffen werden kann.

Eine Kamera-Gruppe mit mindestens zwei Doppel-Kameras, ggf. mit drei oder vier Doppel-Kameras, jeweils mit einem RGB-Sensor und mit einem IR-Sensor stellen hinsichtlich der mehreren RGB-Sensoren einerseits sowie unabhängig hiervon hinsichtlich der mehreren IR-Sensoren andererseits eine funktional redundante Anordnung dar. Die Kombination mindestens jeweils eines RGB-Sensors und eines IR-Sensors ist form-redundant. Von der jeweiligen Redundanz-Komponente erfasste bzw. verarbeitete Da ten können erst bei einer Auswahl der zu ersetzenden Komponente zum Einsatz kommen. Alternativ können diese Daten der Redundanz- Komponente im Normalbetrieb zur Erhöhung einer Abbildungs- und Zu ordnungsgenauigkeit und/oder zur Erhöhung einer Abbildungs- und Zu ordnungsgeschwindigkeit herangezogen werden.

Die Vorteile eines Fahrzeugs nach Anspruch 14 entsprechen denen, die vorstehend unter Bezugnahme auf die optische Baugruppe bereits erläutert wurden. Bei dem Fahrzeug kann es sich um ein Straßen-, um ein Schienen oder um ein Luftfahrzeug handeln. Beim Einsatz der optischen Baugruppe in einem Luftfahrzeug kann mithilfe der Echtzeit- Abbildung und Echtzeit- Zuordnung von Umgebungs-Objekten insbesondere ein Start- oder Lande vorgang überwacht werden. Zur Abdeckung eines möglichst großen Raumwinkels kann eine Baseline-Vemetzung der Kameras der verschiede nen Kamera-Gruppen nach Art eines Dodekaeders oder eines Ikosaeders oder einer anderen Flächenannäherang an eine Kugeloberfläche bezie hungsweise an deren Abschnitte erfolgen.

Ein schräger Baseline-Verlauf nach Anspruch 15, der weder genau hori zontal noch genau vertikal zur Fahrzeug- Anordnungsebene verläuft, ver meidet eine unerwünschte Resonanz bei der Abbildung beziehungsweise eine unerwünschte Fehlzuordnung von Umgebungs-Objekten.

Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnung näher erläutert. In dieser zeigen:

Fig. 1 schematisch und perspektivisch schräg von oben ein Fahr zeug, ausgeführt als Personenkraftwagen, mit einer optischen Baugruppe zur Erzeugung einer Echtzeit- Abbildung und Echtzeit-Zuordnung von Umgebungs-Objekten;

Fig. 2 zwei Kamera-Gruppen der optischen Baugruppe, wobei diese Kamera-Gruppen von einer Montageseite eines jeweiligen Gruppen-Montagekörpers her perspektivisch gesehen darge stellt sind;

Fig. 3 schematisch Aufnahmemöglichkeiten der beiden Gruppen- Montagekörper nach Fig. 2 zur Kameramontage zweier Ka mera-Gruppen, wobei die bei der dargestellten Ausführung für die Kameramontage verwendeten Halte-Aufnahmen her vorgehoben sind und wobei für einige der verwendeten Ka meras Verbindungslinien (Baselines) zwischen Eintrittspupil- len-Zentren dieser Kameras ebenfalls dargestellt sind;

Fig. 4 eine weitere Ausführung eines Fahrzeugs, ausgeführt als Golf-Cart, mit einer weiteren Ausführung der optischen Bau gruppe zur Erzeugung einer Echtzeit- Abbildung und Echtzeit- Zuordnung von Umgebungs-Objekten unter Verwendung von Kamera-Gruppen mit den Gruppen-Montagekörpem nach Fig. 2;

Fig. 5 eine schematische Aufsicht auf eine Kamera- Anordnung der optischen Baugruppe nach Fig. 1 oder 4, wobei Bildaufnah merichtungen der Kameras der Kamera-Gruppen der opti schen Baugruppe gezeigt sind; Fig. 6 eine Seitenansicht der Bildaufnahmerichtungen der optischen Baugruppe nach Fig. 1 oder 4, gesehen aus Blickrichtung VI in Fig. 5; Fig. 7 in einer zu Fig. 3 ähnlichen Darstellung zwei Kamera- Gruppen der optischen Baugruppe mit zusätzlichen Signal verarbeitungskomponenten;

Fig. 8 eine Kamera einer der Kamera-Gruppen, ausgeführt als Dop pel-Kamera mit einem RGB-Sensor und mit einem IR- Sensor;

Fig. 9 eine Kamera einer der Kamera-Gruppen, ausgeführt als Hyb- rid-Kamera mit einer Nahbereichs-Optik und mit einer Fem- bereichs-Optik;

Fig. 10 in einer im Vergleich zu Fig. 3 etwas detaillierteren Darstel lung zweier Kamera-Gruppen sowie mögliche Baseline- Verbindungen zwischen einzelnen Kameras dieser beiden Kamera-Gruppen;

Fig. 11 eine Aufsicht auf eine Anordnung von insgesamt sechs Ka mera-Gruppen an einem Träger, entsprechend derjenigen nach Fig. 4;

Fig. 12 schematisch ein Schaltschema einer Ausführung der opti schen Baugruppe, exemplarisch dargestellt für drei Kamera- Gruppen, wobei beispielhafte Signalverbindungen zwischen den als Doppel-Kameras nach Fig. 8 ausgeführten Kameras der Kamera-Gruppen, zwischen Datenverarbeitungs- Grappenmodulen (nodes), die jeweils den Kamera-Gruppen zugeordnet sind sowie zwischen einem Datenverarbeitungs- Hauptmodul, das allen Kamera-Gruppen zugeordnet ist, dar gestellt sind; und

Fig. 13 in einer zu Fig. 12 ähnlichen Darstellung eine Ausführung der optischen Baugruppe, wobei jeweils eine Kamera von zwei der drei dargestellten Kamera-Gruppen als Hybrid-Kamera nach Fig. 9 ausgeführt ist, wobei diesen Hybrid-Kameras ein zusätzliches DatenverarbeitungsGruppenmodul auf einer Sig nalverarbeitungsebene der Datenverarbeitungs- Gruppenmodule zugeordnet ist.

Fig. 1 zeigt schematisch und perspektivisch ein Fahrzeug 1 mit einer opti schen Baugruppe 2 zur Erzeugung einer Echtzeit-Abbildung und Echtzeit- Zuordnung von Umgebungs-Objekten einer aktuellen Umgebungs- Szenerie. Die optische Baugruppe 2 versetzt das Fahrzeug 1 insbesondere in die Lage einer autonomen Fortbewegung ohne Eingriff eines Fahrzeug führers.

Beim Fahrzeug 1 nach Fig. 1 handelt es sich um einen Personenkraftwa gen. Auch eine andere Ausführung eines Straßenfahrzeugs, beispielsweise ein LKW, oder auch ein Schienen- oder Luftfahrzeug, beispielsweise ein Passagier- oder Lastflugzeug oder auch ein Helikopter, insbesondere auch eine Drohne, stellen Beispiele für ein entsprechendes Fahrzeug dar.

Zur Verdeutlichung von Lagebeziehungen wird nachfolgend ein kartesi sches xyz-Koordinatensystem verwendet. In der perspektivischen Fig. 1 verläuft die x-Achse in Fahrtrichtung des Fahrzeugs 1. Die x- und y- Achse spannen eine Ebene parallel zu einer Fahrzeug- Aufstandsebene auf, auf ebenem, horizontalem Untergrund, also eine horizontale Ebene. Die z- Achse verläuft senkrecht zu der xy-Ebene vertikal nach oben.

Das Fahrzeug 1 hat ein Fahrwerk mit Rädern la als bodenseitigen Fahr werkskomponenten, die bei ruhendem Fahrzeug 1 eine Fahrzeug- Auf standsebene, nämlich die xy-Ebene definieren.

Die optische Baugruppe 2 hat eine Mehrzahl von Kamera-Gruppen 3, 4, 5, 6, 7 und 8, die in etwa auf Höhe einer umlaufenden Karosserie-Gürtel- ebene, die auf Höhe von Oberkanten der Fahrzeug-Kotflügel verläuft, an einem Rahmen des Fahrzeugs 1 angebracht sind. Sichtbar sind in der Fig. 1 die Kamera-Gruppen 3 bis 7. Die in der Darstellung nach Fig. 1 an sich verdeckte Kamera-Gruppe 8 ist ebenfalls schematisch angedeutet.

Die beiden Kamera-Gruppen 3 und 4 sind vorne am Fahrzeug an den bei den vorderen Karosserie-Eckbereichen angebracht, wo die vorderen Kot flügel, die Motorhaube und die Fahrzeugfront jeweils aneinander angren zen. Die beiden Kamera-Gruppen 5 und 8 sind im Bereich eines unteren Abschlusses einer B-Säule zwischen jeweils den beiden seitlichen Fahr zeugtüren angebracht. Die beiden Kamera-Gruppen 6, 7 sind jeweils im Bereich hinterer Karosserieecken angebracht, wo die hinteren Kotflügel, die Kofferraumklappe und eine Fahrzeug-Rückseite aneinander angrenzen. Die Kamera-Gruppen 3 bis 8 sind mit einem Abstand von mindesten 50 cm zur Fahrzeug- Aufstandsebene xy angebracht.

Die beiden Kamera-Gruppen 3 und 4 stellen in Bezug auf die Fahrtrichtung x des Fahrzeugs 1 zwei vordere Kamera-Gruppen dar und die Kamera- Gruppen 6 und 7 zwei hintere Kamera-Gruppen. Die beiden Kamera- Gruppen 5 und 8 stellen in Bezug auf die Fahrtrichtung x des Fahrzeugs 1 zwei seitliche Kamera-Gruppen dar. Aufgrund der eckseitigen Anordnung der Kamera-Gruppen 3, 4, 6 und 7 haben diese Kamera-Gruppen gleichzei tig die Funktion seitlicher Kamera-Gruppen, sodass die Kamera-Gruppen

3, 8 und 7 auch als linksseitige Kamera-Gruppen und die Kamera-Gruppen

4, 5 und 6 auch als rechtzeitige Kamera-Gruppen des Fahrzeugs 1 bezeich net werden.

Jede der Kamera-Gruppen hat mindestens drei über jeweils eine Kamera- Signalverbindung in Form einer Datenverarbeitungseinheit 9 (vgl. Fig. 2) miteinander verknüpfte Kameras.

Fig. 2 zeigt stärker im Detail die beiden Kamera-Gruppen 7 und 8 der opti schen Baugruppe 2. Die Zeichenebene der Fig. 2 ist parallel zur xz-Ebene und die Blickrichtung der Fig. 2 fällt auf eine Montageseite der jeweiligen Kamera-Gruppe 7, 8. Die Kamera-Gruppen 3 bis 8 sind grundsätzlich gleich aufgebaut, sodass es nachfolgend hauptsächlich genügt, beispielhaft die Kamera-Gruppe 7 zu beschreiben. Die Kamera-Gruppe 7 hat einen Gruppen-Montagekörper 10 zur Montage von Kameras lb, 12 7 , 13 7 der Kamera-Baugruppe 7.

Die Kameras 11 bis 13 der jeweiligen Kamera-Baugruppe 3 bis 8 werden nachfolgend jeweils mit einem Index i, nämlich der Bezugsziffer der jewei ligen Kamera-Gruppe 3 bis 8 bezeichnet, um die Zuordnung der jeweiligen Kamera 11 bis 13 zur jeweiligen Kamera-Gruppe 3 bis 8 zu verdeutlichen.

Der Gruppen-Montagekörper 10 ist so ausgeführt, dass er die Kameras 11 bis 13 der jeweiligen Kamera-Gruppe 3 bis 8 mit zueinander fester Relativ- Lage und Relativ-Orientierang trägt. Der Grappen-Montagekörper 10 hat zusätzlich zu Aufnahmen für die Kameras 11 bis 13 auch noch vorbereitete Halte-Aufnahmen 14 7 , 15 7 zur Montage zusätzlicher Kameras. Die jeweili ge Kamera-Gruppe 3 bis 8 kann somit nachträglich um mindestens eine weitere zu montierende Kamera erweitert werden. Im dargestellten Ausfüh rungsbeispiel hat jede der Kamera-Gruppen 3 bis 8 genau drei verbaute Kameras 11 bis 13 und genau zwei zusätzliche, vorbereitete Aufnahmen, sodass die jeweilige Kamera-Gruppe 3 bis 8 je nach Belegung dieser vor bereiteten Kamera-Halte-Aufnahmen mit zwei Kameras, mit drei Kameras, mit vier Kameras oder mit fünf Kameras bestückt werden kann. Je nach Ausführung des Gruppen-Montagekörpers 10 sind Kamera-Gruppen mit drei bis beispielsweise zehn Kameras möglich.

Fig. 3 zeigt für ausgewählte Kameras, nämlich die Kamera 13 7 der Kame ra-Gruppe 7 und die Kameras 1 ls, 12s und 13s der Kamera-Gruppe 8, Ver bindungslinien zwischen Eintrittspupillen-Zentren EPZ dieser Kameras 11 bis 13, die auch als Baselines bezeichnet werden. Die Eintrittspupillen- Zentren EPZ der Kameras 1 L, 12i, 13i einer Kamera-Gruppe i definieren eine Kamera-Anordnungsebene AE (vgl. Fig. 3 rechts), in der die Kameras 1 li bis 13i einer der Kamera-Gruppen 3 bis 8 angeordnet sind. Die in der Fig. 3 rechts für die Kamera-Gruppe angedeutete Kamera-Anordnungs ebene AE muss nicht parallel zur xz-Ebene verlaufen und tut dies regelmä ßig auch nicht. Regelmäßig beträgt ein Winkel zwischen der Kamera- Anordnungsebene AE und einer der Hauptebenen xy, xz, yz der Fahrzeug- Koordinaten xyz zwischen 10° und 80°.

Die Länge der Baselines B zwischen den Eintrittspupillen-Zentren EPZ zweier Kameras 11, 12; 11, 13; 12, 13 einer Kamera-Gruppe 3 bis 8 liegt im Bereich zwischen 5 cm und 30 cm. Je nach Ausführung der Kamera- Gruppe 3 bis 8 kann die Länge dieser Baselines B auch im Bereich zwi schen 10 cm und 20 cm oder im Bereich zwischen 10 cm und 15 cm liegen.

Zusätzlich sind in der Fig. 3 noch Intergruppen-Baselines Bij zwischen Kameras 11 bis 13 der beiden Kamera-Gruppen 7, 8 hervorgehoben. Die Längen dieser Intergruppen-Baselines Bij hegt im Bereich zwischen 0,5 m und 3 m. Diese Länge der Intergruppen-Baselines Bi j ist vergleichbar zum Abstand der jeweils benachbarten Kamera-Gruppen 3 bis 8. Die Länge der Intergruppen-Baselines Bi kann je nach Anordnung der Kamera-Gruppen 3 bis 8 auch im Bereich zwischen 1 m und 2 m hegen.

Die Länge der Baselines Bi j zum Beispiel zwischen den Kameras 1 L, 12s der Kamera-Gruppe 8 und der Kamera 13 7 der Kamera-Gruppe hegt im Bereich zwischen 0,5 m bis 3 m und kann beispielsweise im Bereich zwi schen 1 m und 2 m hegen.

Die Eintrittspupillen-Zentren EPZ der Kameras 11 bis 13 einer der Kame ra-Gruppen 3 bis 8 hegen in den Ecken eines nicht gleichseitigen Dreiecks 16. Das jeweilige Dreieck 16 kann zwei oder drei unterschiedliche Seiten längen, also zwei oder drei unterschiedlich lange Baselines B aufweisen.

Die Baselines B zwischen den Kameras 11 bis 13 einer Kamera-Gruppe 3 bis 8 verlaufen unter einem Winkel zur Fahrzeug- Anordnungsebene xy im Bereich zwischen 10° und 80°, verlaufen also weder genau horizontal noch genau vertikal.

In der Fig. 3 ist für eine Kamera-Paarung 12s, 13s ein Winkel d zwischen der zugehörigen Baseline B und der Fahrzeug- Aufstandsebene xy einge- zeichnet. Dieser Winkel d liegt bei etwa 70°, liegt also zwischen 10° und 80°.

Die Kamera-Gruppen 3 bis 8 sind miteinander wiederum über eine Grup- pen-Signalverbindung zwischen den jeweiligen Datenverarbeitungseinhei ten 9 verbunden. Weder die Kamera- Signalverbindungen noch diese Grup- pen-Signalverbindung ist in der Fig. 2 tatsächlich dargestellt.

Eine der Kameras 11 bis 13 der jeweiligen Kamera-Gruppe 3 bis 8, bei spielsweise die Kamera 11, kann, was die Signalverarbeitung über die Da tenverarbeitungseinheiten 9 angeht, als Master-Kamera definiert sein und die anderen Kameras 12, 13 als Slave-Kameras.

Eine der Kamera-Gruppen 3 bis 8 kann, was die Signalverarbeitung über die Datenverarbeitungseinheiten 9i angeht, als Master-Kamera-Gruppe de finiert sein und die anderen als Slave-Kamera-Gruppen.

Fig. 4 zeigt eine weitere Anordnung s Variante der Kamera-Gruppen 3 bis 8 an einer Ausführung des Fahrzeugs 1 als Golf-Cart. Sichtbar sind in der Fig. 4 die Kamera-Gruppen 3 bis 6.

Komponenten und Funktionen, die denjenigen entsprechen, die vorstehend unter Bezugnahme auf die Fig. 1 bis 3 bereits erläutert wurden, tragen die gleichen Bezugsziffem und werden nicht nochmals im Einzelnen disku tiert.

Die Kamera-Gruppen 3 bis 8 sind beim Fahrzeug 17 nach Fig. 4 im Dach bereich angeordnet, wobei die Zuordnung der Kamera- Gruppen 3 bis 8 zu den Richtungen „vorne“, „hinten“, „linksseitig“ und „rechtsseitig“ so ist, wie vorstehend im Zusammenhang mit dem Fahrzeug 1 nach Fig. 1 erläu tert.

Bildaufnahmerichtungen der Kameras 3 bis 8 sind in den Fig. 5 und 6 am Beispiel der Anordnungen der optischen Baugruppe 2 nach Fig. 1 und 4 veranschaulicht. Fig. 5 zeigt dabei eine Aufsicht auf das Fahrzeug 1 bzw. 17, wobei lediglich die Kameras 3 bis 8 dargestellt sind, und Fig. 6 zeigt eine entsprechende Seitenansicht.

In den Fig. 5 und 6 ist eine jeweilige Bildaufnahmerichtung 18 der Kame ras 11 bis 13 doppelt indiziert in der Form 18^ dargestellt, wobei der Index i die Zuordnung der Bildaufnahmerichtung 18 zur jeweiligen Kamera- Gruppe 3 bis 8 und der Index j die Zuordnung zur jeweiligen Kamera 11 bis 13 dieser Kamera-Gruppe 3 bis 8 wiedergibt.

Benachbarte Bildaufnahmerichtungen 18i n bis 18i 13 der Kameras 11 bis 13 einer der Kamera-Gruppen i haben einen Einzelkamera- Winkel a zueinan der, der im Bereich zwischen 5° und 25° und beispielsweise bei 15° liegt.

Typischerweise deckt jede der Kamera-Gruppen i (i = 3 bis 8) über die Bildaufnahmerichtungen 18i n bis 18i 13 einen Gesamt-Bildaufnahmewinkel ß von typischerweise 30° ab.

Den Bildaufnahmerichtungen 18i n bis 18i 13 der Kameras 11 bis 13 einer der Kamera-Gruppen i kann jeweils ein Richtungs-Mittelwert 19 zugeord net werden. Für die Kamera-Gruppe 3 ist in den Figuren 5 und 6 die Rich tung eines solchen Richtungs-Mittelwertes 19 3 gestrichelt dargestellt. Die ser jeweilige Richtungs-Mittelwert 19 3 ist der Mittelwert der Bildaufnah merichtungen I83 11 bis I83 13 . Die Richtungs-Mittelwerte 19i, 19j der Bildaufnahmerichtungen der Kame ras 11 bis 13 benachbarter Kamera-Gruppen i, j nehmen einen Gruppen kamera-Winkel g (vgl. Fig. 5) zueinander ein, der im Bereich zwischen 30° und 100° liegt und der bei der Ausführung nach den Fig. 5 und 6 etwa bei 60° liegt.

Bei einer nicht dargestellten Ausführung der optischen Baugruppe 2 kön nen auch weniger als sechs Kamera-Gruppen vorliegen, beispielsweise drei Kamera-Gruppen, vier Kamera-Gruppen oder fünf Kamera-Gruppen. Auch mehr als sechs Kamera-Gruppen sind möglich.

Die Kamera-Gruppen können so angeordnet sein, dass ein horizontaler Ge samterfassungsbereich (Azimutwinkel von Polarkoordinaten) von 360° erreichbar ist, wie dies bei der Anordnung der Kamera-Gruppen 3 bis 8 nach den Figuren 1 bis 6 der Fall ist. Die Anordnung der Kamera-Gruppen kann auch so sein, dass ein vertikaler Gesamterfassungsbereich (Polarwin kel von Polarkoordinaten) von 180° erreicht wird. Dies ist bei Landfahr zeugen regelmäßig nicht erforderlich, weswegen dieser vertikale Gesamter- fassungsbereich bei den Anordnungen der Kamera-Gruppen 3 bis 8 nach den Fig. 1 bis 6 nicht erzielt wird. Bei Anordnungen von Kamera-Gruppen insbesondere für Luftfahrzeuge kann ein vertikaler Gesamterfassungsbe reich erreicht werden, der größer ist als 90°, der größer ist als 120°, der größer ist als 150° und der insbesondere 180° beträgt. Die Kameras der Kamera-Gruppen können insbesondere als Fischaugen- Kameras ausgeführt sein.

Anhand der Figur 7 wird nachfolgend ein Verfahren zur Erzeugung einer redundanten Abbildung eines Messobjekts erläutert. Komponenten und Funktionen, die denjenigen entsprechen, die vorstehend unter Bezugnahme auf die Fig. 1 bis 6 bereits erläutert wurden, tragen die gleichen Bezugszif- fem und werden nicht nochmals im Einzelnen diskutiert.

Figur 7 zeigt hierzu zwei Gruppen 7, 8 zu je drei Kameras 11 bis 13. Die Gruppen 7 einerseits und 8 andererseits haben jeweils eine zugeordnete Datenverarbeitungseinheit 9h, 9s zur Verarbeitung und Auswertung der von den zugehörigen Kameras der Kamera-Gruppe 7, 8 erfassten Bilddaten.

Die beiden Datenverarbeitungseinheiten 9h, 9s stehen über eine Signallei tung 21 miteinander in Signal Verbindung.

Zur Erfassung einer räumlichen Szenerie können beispielsweise die Kame ras 1 b bis 13 7 der Gruppe 7 miteinander zusammengeschalten werden, sodass eine 3D-Erfassung dieser räumlichen Szenerie ermöglicht ist. Zur Erschaffung einer zusätzlichen Redundanz dieser räumlichen Bilderfassung kann das Bilderfassungsergebnis beispielsweise der Kamera 1 ls der weite ren Gruppe 8 herangezogen werden, welches der Datenverarbeitungsein heit 9h der Gruppe 7 über die Datenverarbeitungseinheit 9s der Gruppe 8 und die Signalleitung 21 zur Verfügung gestellt wird. Diese Signalleitung 21 stellt eine Gruppen-Signalverbindung zwischen den Kamera-Gruppen 7 und 8 dar. Aufgrund der räumlichen Entfernung der Kamera 1 ls zu den Kameras 117 bis 13 7 der Gruppe 7 ergibt sich ein bei der Abbildung der räumlichen Szenerie deutlich anderer Blickwinkel, was die Redundanz der räumlichen Bilderfassung verbessert.

Eine räumliche Bilderfassung mit Hilfe der Kameras genau einer Gruppe 7, 8 wird auch als Intra-Bilderfassung bezeichnet. Eine räumliche Bilderfas sung unter Einbeziehung der Kameras von mindestens zwei Gruppen wird auch als Inter-Bilderfassung bezeichnet. Zur Objekt-Entfernungsbestimmung kann, nach erfolgter Erfassung und Zuordnung der Objekte eine Triangulationsbestimmung herangezogen werden. Die Triangulation kann beispielsweise mit den Stereo- Anordnungen der Kameras 12s, 13s, der Kameras 13s, 1 E und der Kameras IE, 12s jeweils unabhängig erfolgen. Die Triangulationspunkte dieser drei Anordnungen müssen jeweils übereinstimmen.

Eine Kamera-Gruppe nach Art der Gruppen 7, 8 kann in Form eines Drei- ecks, zum Beispiel in Form eines gleichschenkligen Dreiecks angeordnet sein. Auch eine Anordnung von sechs Kameras in Form eines Hexagons ist möglich.

Ein durch die jeweilige Gruppe 7, 8 abgedeckter Kamera-Nahbereich kann beispielsweise im Bereich zwischen 80 cm und 2,5 m hegen. Über die Hin zunahme mindestens einer Kamera der jeweils anderen Gruppe kann dann über die Nahbereichs-Grenze hinaus auch ein Fembereich mit der Bilder- fassungs-Vorrichtung erfasst werden. Ein derartiger Fembereich überlappt hinsichtlich seiner Untergrenze mit dem Kamera-Nahbereich und hat eine Obergrenze, die beispielsweise bei 50 m, bei 100 m oder auch bei 200 m liegt.

Jede der Kameras 11 bis 13 hat einen Sensorchip, der als CCD- oder CMOS-Chip ausgebildet sein kann. Der Sensorchip ist als zweidimensiona- les Pixel-Array ausgestaltet. Jedes der Pixel kann rechteckig oder quadra tisch mit einer typischen Pixelerstreckung in der Sensorchip-Ebene im Be reich zwischen 1 mth und 20 mth ausgeführt sein. Eine derartige typische Pixelerstreckung kann im Bereich zwischen 2 mth und 10 mth und insbe sondere im Bereich zwischen 3 mth und 5 mth hegen. Ein Verhältnis zwi- sehen einer Linsenbrennweite einer Kameralinse und der Pixelerstreckung kann im Bereich zwischen 100 und 1.000 liegen. Dieses Verhältnis liegt insbesondere im Bereich zwischen 500 und 700.

Die Kamera kann ein Auflösungsvermögen bereitstellen, welches besser ist als die Pixelerstreckung. Ein Verhältnis zwischen der erreichbaren Auflö sung und der Pixelerstreckung kann beispielsweise im Bereich zwischen 0,1 und 0,5 liegen.

Im Bereich der jeweiligen Obergrenze des Objektabstands kann ein Ab standsfehler im Bereich zwischen 1 % und 5 % toleriert werden. Bei einer Objektabstands-Obergrenze (ausschließliche Verwendung von Intra- Baselines) von 6 m ergibt dies beispielsweise einen Abstandsfehler von 15 mm. Bei einer Objektabstands-Obergrenze (ausschließliche Verwendung von Inter-Baselines) von 120 m ergibt sich ein Abstandsfehler beispiels weise im Bereich von 3 m.

Fig. 8 zeigt eine Ausführung einer der Kameras 11 bis 13, die beispielswei se anstelle der (Einzel-)Kamera 1 h nach Fig. 3 bzw. 7 eingesetzt werden kann. Die Kamera 1 h ist als Doppel-Kamera mit einem RGB-Sensor 25 und einem IR-Sensor 26 ausgeführt. Der RGB-Sensor 25 ist ausgelegt zur Erfassung farbiger Information im sichtbaren optischen Wellenlängenbe reich. Anstelle des RGB-Sensors 25 kann auch ein Monochrom- Sensor für den sichtbaren Wellenlängenbereich zum Einsatz kommen. Der IR-Sensor 26 ist für infrarote Wellenlängen jenseits des sichtbaren Wellenlängenbe reichs empfindlich. Die Sensoren 25 und/oder 26 können als CCD- Sensoren oder als CMOS-Sensoren ausgeführt sein. Die Sensoren 25 und/oder 26 sind als Array- Sensoren mit zeilen- und spaltenweise angeord neten Sensorpixeln ausgeführt. Die beiden Sensoren 25, 26 sind auf einem gemeinsamen Träger 27 mon tiert. Die beiden Sensoren 25, 26 sind jeweils mit einer Kameraoptik 28 (für den RGB-Sensor 25) und 29 (für den IR-Sensor 26) ausgerüstet. Die beiden Kameraoptiken 28, 29 sind voneinander getrennt, aber räumlich zueinander nahe benachbart angeordnet. Ein Abstand do A zwischen den in der Fig. 8 gestrichelt angedeuteten optischen Achsen der beiden Kamera optiken 28, 29 beträgt höchstens 35 mm. Dieser Abstand do A kann im Be reich zwischen 20 und 30 mm hegen und kann auch kleiner sein, bei spielsweise im Bereich zwischen 10 mm und 20 mm oder auch im Bereich zwischen 5 mm und 15 mm. Der kleine Abstand do A sorgt für einen ver nachlässigbaren Bildversatz der Kameraoptiken 28, 29. Dies erleichtert die Auswertung der Erfassungsdaten auf den Sensoren 25, 26. Bei einer alter nativen, nicht dargestellten Ausführung, hat die Doppel-Kamera 1 h eine gemeinsame Kameraoptik für beide Sensoren 25, 26.

Die Doppel-Kamera 1 17 hat zwei Signalausgänge 30 A , 30 B zum Auslesen von Daten auf den Sensoren 25, 26 hin zu einem Datenverarbeitungsmo dulsystem, welches insbesondere nachstehend noch näher erläutert wird. Bei den Signalausgängen 30 A , 30 B handelt es sich um parallele Signalaus gänge.

Zusätzlich kann die Doppel-Kamera 117 oder auch generell die optische Baugruppe 2 mit einer IR-Lichtquelle 31 ausgestattet sein, die die mit den Kameras 11 bis 13 zu erfassenden und zuzuordnenden Objekte mit IR- Licht beleuchtet. Bei dieser IR-Beleuchtung durch die IR-Lichtquelle 31 kann es sich um eine Beleuchtung zur Erzeugung einer IR-Texturierung handeln. Diese IR-Texturierung kann so gestaltet sein, dass sie kein regel mäßiges Muster aufweist. Diese IR-Beleuchtung erleichtert eine Erfassung und Zuordnung der Umgebungs-Objekte bzw. eine Erfassung und Zuord nung entsprechender Objektmerkmale bzw. Objektsignaturen.

Bei der IR-Lichtquelle 31 kann es sich um einen Laser handeln. Die IR- Lichtquelle kann eine kurze Belichtung von Umgebungs-Objekten bewerk stelligen. Die jeweilige Kamera 11 bis 13 oder auch generell die optische Baugruppe 3 kann mit einem schmalbandigen Filter zur Auswahl bestimm ter Wellenlängenbereiche ausgerüstet sein. Hierüber kann eine Vorfilterung von Abbildungslicht erfolgen, welches auf die Sensoren 25 bzw. 26 ge langt. Bei Verwendung eines schmalbandigen IR-Filters kann, abgesehen von Wärmequellen, Umgebungslicht effektiv gefiltert werden. Eine ent sprechende Vorfilterung kann alternativ oder zusätzlich auch zeitlich mit hilfe eines insbesondere mit einer Pulsfrequenz der IR-Lichtquelle 31 syn chronisierten Shutters geschehen.

Anstelle einer Doppel-Kamera nach Art der Kamera 1 U nach Fig. 8 mit getrennten Sensoren 25, 26 kann auch ein RGBIR-Sensor zum Einsatz kommen, was in der Zeichnung ebenfalls nicht dargestellt ist. Dieser RGBIR-Sensor kann mit einer Dreischritt-Erfassungssequenz betrieben werden. Mit langer Belichtungszeit kann dabei ein RGB-Anteil erfasst werden. Im Rahmen eines ersten kurzen Belichtungsschritts kann ein erster IR-Belichtungsanteil erfasst und in einem zweiten kurzzeitigen Belich- tungsschritt ein zweiter IR-Belichtungsanteil erfasst werden. Beide IR- Belichtungsanteile können voneinander abgezogen werden.

Ein entsprechender RGBIR-Sensor ist grundsätzlich bekannt aus dem Fachprospekt „RGB+IR Technology“, abrufbar unter www.framos.com. Mit einem derartigen RGBIR- Sensor können mit genau einem Sensor Ar- ray sowohl sichtbare Wellenlängen (RGB, rot grün blau) als auch infrarote Wellenlängen (IR) gemessen werden.

Ein derartiger RGBIR-Sensor kann wie folgt betrieben werden: Zu einem Zeitpunkt tl werden RGB-Signale während einer Belichtungszeit von zum Beispiel 10 ms eingelesen. Zu einem weiteren Zeitpunkt t2 werden IR- Signale mit gleichzeitiger IR-Belichtung während einer Zeitspanne kleiner als 1 ms eingelesen. Zu einem weiteren Zeitpunkt t3 werden IR-Signale ohne zusätzliche IR-Belichtung eingelesen. Die Differenz der Bilder zu den Zeitpunkten t2 und t3 stellt, abgesehen von einer Objektbewegung im Zwi schenzeitraum, ausschließlich die Wirkung der IR-Belichtung dar, elimi niert also Tages- oder Sonnenlichtanteile. Der RGB-Zeitpunkt tl sollte auf oder zwischen den Zeitpunkten t2 und t3 liegen.

Der IR-Sensor der Doppel-Kamera nach Art der Kamera 1 h oder ein IR- Sensoranteil eines RGBIR-Sensors kann zwei Ladungsspeicher aufweisen. Unter Zuhilfenahme eines derartigen IR-Sensors mit zwei Ladungsspei- chem können IR-Differenz-Bilder entsprechend dem, was vorstehend im Zusammenhang mit den Bildern zum Zeitpunkt t2 und t3 ausgeführt wurde, bereits aus einer Ladungsdifferenz von zwei kurz nacheinander aufge nommenen Ladungen mit einem derartigen IR-Sensor gewonnen werden.

Ein Datenauslesevorgang der beiden Sensoren 25, 26 kann in gestitchter Lorm erfolgen, sodass zum Beispiel eine Zeile des RGB-Sensors 25 und anschließend eine Zeile des IR-Sensors 26 ausgelesen wird. Auf diese Wei se können einem Kandidaten-Objektpunkt RGB- und IR- Informationen zugewiesen werden. Altemativ ist es möglich, beide Sensoren 25, 26 sequenziell auszulesen.

Fig. 9 zeigt eine Ausführung einer der Kameras 11 bis 13 als Hybrid- Kamera, die anstelle beispielsweise der (Einzel-)Kamera 1 ls zum Einsatz kommen kann. Diese Hybrid-Kamera 1 ls hat eine Nahbereichs-Optik 32 und eine Fembereichs-Optik 33. Die Nahbereichs-Optik 32 kann als Fisch augenoptik ausgeführt sein. Die Fembereichs-Optik 33 kann als Teleoptik ausgeführt sein.

Die Nahbereichs-Optik 32 ist Bestandteil einer Nahbereichs-Doppel- Kamera nach Art der Doppel-Kamera 117, die vorstehend unter Bezug nahme auf die Fig. 8 erläutert wurde. Die Fembereichs-Optik 33 ist Be standteil einer Doppel-Fembereichs-Kamera ebenfalls mit dem grundsätz lichen Aufbau entsprechend der Doppel-Kamera 117 nach Fig. 8. Entspre chend sind in der Fig. 9 für Komponenten, die diejenigen der Fig. 8 ent sprechen, gleiche Bezugsziffem vergeben. Den beiden Bereichs-Optiken 32, 33 der Hybrid-Kamera lls ist jeweils ein Träger 27 zugeordnet. Die beiden Träger 27 sind über eine starre Verbindungskomponente 34 mitei nander fest verbunden. Die starre Verbindungskomponente 34 stellt sicher, dass keine unerwünschte Verlagemng zwischen den beiden Trägem 27 der Bereichs-Optiken 32, 33 stattfindet.

Ein Lateralabstand dm zwischen der Nahbereichs-Optik 32 und der Fem bereichs-Optik 33 ist kleiner als 50 mm und kann kleiner sein als 25 mm, kleiner als 20 mm, kleiner als 15 mm oder auch kleiner als 10 mm. Dieser Abstand zwischen den beiden Bereichs-Optiken 32, 33 kann insbesondere so klein sein, dass ein Bildversatz zwischen der Nahbereichs-Optik 32 und der Fembereichs-Optik 33 bei der Datenauswertung innerhalb der opti schen Baugruppe 2 nicht ins Gewicht fällt. Signalausgänge zu den Sensoren 25, 26 der Fembereichs-Optik 33 sind in der Fig. 9 mit 35A und 35B bezeichnet und entsprechen grundsätzlich den Signalausgängen 30A, 30B, die oben im Zusammenhang mit Fig. 8 erläutert wurden.

Die Fembereichs-Optik 33 kann zur Erfassung von Objekten in einem Ab stand im Bereich zwischen 50 m und 300 m ausgeführt sein, insbesondere im Abstandsbereich zwischen 80 m und 150 m, beispielsweise im Ab- standsbereich von 100 m.

Die Fembereichs-Optik 33 ermöglicht eine höhere Distanzauflösung in diesem größeren Abstandsbereich. Der Abstandsbereich, in dem die Fern- bereichs-Optik 33 eine hohe Auflösung bietet, grenzt an den Abstandsbe- reich, an dem die Nahbereichs-Optik 32 eine hohe Auflösung bietet, ent weder unmittelbar an oder überlappt mit diesem Abstandsbereich.

Ein Vertikalwinkel zwischen der mindestens einen optischen Achse der Fembereich-Optik 33 zur Horizontalen kann kleiner sein als ein entspre- ehender Winkel der mindestens einen optischen Achse der Nahbereichs- Optik 32 zur Horizontalen.

Anstelle der Nahbereichs-Optik 32 und/oder der Fembereichs-Optik 33 und generell anstelle festbrennweitiger Kameraoptiken nach Art der Kame- raoptiken 28 und 29 kann eine Zoom-Optik mit in einem Brennweitenbe reich vorgebbarer Brennweite zum Einsatz kommen. Die Brennweite einer derartigen Zoom-Optik kann mithilfe eines Stellaktors aktorisch vorgebbar sein. Ein derartiger Stellaktor kann mit einer zentralen Steuer-/Regeleinheit der optischen Baugruppe 2 in Signal Verbindung stehen, mit der wiederum das Datenverarbeitungsmodulsystem in Signal Verbindung steht.

Eine derartige Zoom-Kamera kann eine intrinsische Kalibrierung für ver schiedene Zoom-Positionen gewährleisten.

Eine derartige Zoom-Optik kann insbesondere für Robotic-Anwendungen der optischen Baugruppe 2 zum Einsatz kommen.

Fig. 10 zeigt beispielhaft und in einer beispielsweise der Fig. 7 ähnlichen Darstellung zwei Kamera-Gruppen 7, 8, die beispielsweise anstelle der vorstehend erläuterten Kamera-Gruppen 3 bis 8 zum Einsatz kommen kön nen. Schematisch sind die jeweils vier Einzelkameras I I7, 127, 13 7 , R7 so wie 11 8 , 12s, 13s und R H in der Fig. 10 jeweils oben als eine schematische Kamera-Gruppe 7, 8 nochmals zusammengefasst.

Die jeweiligen Kamera-Gruppen 7, 8 haben also jeweils vier einzelne Ka meras. Bei der jeweils vierten Kamera R7 der Kamera-Gruppe 7 und R H der Kamera-Gruppe 8 handelt es sich um eine zusätzliche Redundanz-Kamera. Hierüber lässt sich eine Ausfallsicherheit der jeweiligen Kamera-Gruppe 7, 8, die nominell beispielsweise drei funktionierende einzelne Kameras be nötigt, sicherstellen (fail-operational-status).

Dargestellt sind in der Fig. 10 entsprechend der Darstellung nach Fig. 7 wiederum die Intra-Baselines B zwischen den einzelnen Kameras jeweils einer der beiden Kamera-Gruppen 7, 8 und die Inter-Baselines B zwi schen ausgewählten Kameras verschiedener der beiden Kamera-Gruppen 7, 8. Diejenigen Baselines, die bei einer aktuellen Objektzuordnung genutzt werden, sind durch stärkere Linien hervorgehoben. Die beiden Redundanz- Kameras R7, Rs finden bei diesem Baseline-Nutzungsbeispiel keine Be rücksichtigung, nehmen an der Datenverarbeitung in diesem ausfallfreien Zustand also nicht Teil.

Fig. 11 zeigt in einer Darstellung entsprechend den Fig. 1 und 4 eine bei spielhafte Anordnung von sechs Kamera-Gruppen 3 bis 8 als Bestandteile der optischen Baugruppe 2 des Fahrzeugs 1. Jede der einzelnen Kamera- Gruppen 3 bis 8 kann einen Nahbereich abdecken, wie vorstehend bereits erläutert. Soweit eine der Kamera-Gruppen 3 bis 8 mit einer Fembereichs- Optik 33 ausgerüstet ist, kann diese Kamera-Gruppe auch individuell einen Fembereich abdecken. Ein Zusammenspiel zweier insbesondere benach barter Kamera-Gruppen, beispielsweise der Kamera-Gruppen 7 und 8, er möglicht eine Fembereichs- Auswertung durch Einsatz der Inter-Baselines Bi j , wie vorstehend bereits erläutert.

Zusätzlich zu optikbasierten Kameras kann die optische Baugruppe auch mindestens einen Lidar-Sensor aufweisen, was für die Objekterfassung und -Zuordnung zu einer zusätzlichen Fehlerredundanz führt. Die Messung mithilfe eines derartigen Lidar-Sensors führt zu einer Form-Redundanz in Ergänzung der mit der optischen Baugruppe 2 durchgeführten optischen Objekt-Entfernungsmessung. Bei der Lidar-Messung können Lichtimpulse zur Messung eines Zeitversatzes gemessen und durch Multiplikation mit der Lichtgeschwindigkeit in ein Entfernung ssignal überführt werden. Al ternativ oder zusätzlich kann bei der Lidar-Messung eine Phase zwischen einer gesendeten und einer empfangenen Lichtintensitätswelle ermittelt werden, die dann in einen Zeitversatz und schließlich mithilfe der Lichtge schwindigkeit in einen Entfernung s wert umgerechnet wird. Fig. 12 zeigt Details eines Datenverarbeitungsmodulsystem 36 der opti schen Baugruppe 2. Gezeigt sind in der Fig. 12 insgesamt drei Kamera- Gruppen am Beispiel der Kamera-Gruppen 3 (vorne links), 4 (vorne rechts) und 5 (Mitte rechts) in der Anordnung am Fahrzeug 1 beispielsweise ge mäß Fig. 11.

Jede der Kameras 1 b, . . . R3; 1 U, . . . R4; 115, . . . R5 ist als Doppel-Kamera entsprechend dem aufgeführt, was vorstehend insbesondere unter Bezug nahme auf die Fig. 8 und 10 erläutert wurde.

Das Datenverarbeitungsmodulsystem 36 hat mindestens eine Datenverar beitungseinheit zur Verarbeitung der Kameradaten der Einzelkameras der Kamera-Gruppen 3 bis 8 zur Echtzeit-Abbildung und Echtzeit-Zuordnung der Umgebungs-Objekte bzw. von Objektmerkmalen oder Objektsignatu- ren.

Das Datenverarbeitungsmodulsystem 36 hat den Kamera-Gruppen 3 bis 8 zugeordnete Datenverarbeitungs-Gruppenmodule, die auch als nodes be zeichnet werden. Der Kamera-Gruppe 3 sind dabei die Datenverarbeitungs- Gruppenmodule 37 und 37 R zugeordnet. Der Kamera-Gruppe 4 sind die Datenverarbeitungs-Gruppenmodule 38, 38 R zugeordnet. Der Kamera- Gruppe 5 sind die Datenverarbeitungs-Gruppenmodule 39, 39 R zugeordnet. Bei den Gruppenmodulen 37 R , 38 R , 39 R handelt es sich jeweils um Redun- danz-Datenverarbeitungs-Gruppenmodule, die entweder erst bei einem Ausfall der zu ersetzenden Gruppenmodule 37, 38, 39 zum Einsatz kom men oder Signaldaten der zugeordneten Kameras der Kamera-Gruppen 3 bis 5 im Normalbetrieb zur Erhöhung der Abbildungs- und Zuordnungs genauigkeit und/oder Zuordnungsgeschwindigkeit verarbeiten. Die Datenverarbeitungs-Grappenmodule 37 bis 39, 37 R bis 39 R sind gleich aufgebaut, sodass es nachfolgend genügt, im Wesentlichen eines der Grap- penmodule zu beschreiben, was am Beispiel des Grappenmoduls 37 er folgt. Das Datenverarbeitungs-Grappenmodul 37 hat insgesamt sechs Sig naleingänge 40i bis 40 6 , die zu einem mehrpoligen Signaleingang 40 zu sammengefasst sind. Die Signaleingänge 40i bis 40 3 sind mit den Signal ausgängen 35 A der Kameras I I3 bis 13 3 der Kamera-Gruppe 3 verbunden. Der Signaleingang 40 4 ist mit dem Signalausgang 35 A der Redundanz- Kamera R3 der Kamera-Gruppe 3 verbunden. Die Signaleingänge 40s und 40 6 stehen in Signalverbindung mit Signalausgängen 411, 4 h des Daten- verarbeitungs-Grappenmoduls 38 der Kamera-Gruppe 4.

Die Signaleingänge 40i und 40 2 des Grappenmoduls 37 stehen in Signal verbindung mit den entsprechenden Signalausgängen 411, 4 h dieses Grap penmoduls 37.

Über die Signal Verbindung zwischen verschiedenen Gruppenmodulen, in diesem Fall zwischen den Gruppenmodulen 37 und 38 über die Signalaus gänge 411, 4 h des Datenverarbeitungs-Grappenmoduls 38 der Kamera- Gruppe 4 mit den Signaleingängen 40s und 40 Ö des Datenverarbeitungs- Grappenmoduls 37 der Kamera-Gruppe 3, kann eine inter-Baseline- Auswertung durch das Datenverarbeitungsmodulsystem 36 auf Ebene der Datenverarbeitungs-Grappenmodule 37, 38, ... erfolgen. Die Einbindung eines noch zu beschreibenden Hauptmoduls des Datenverarbeitungsmodul systems 36 ist hierzu nicht erforderlich.

Über entsprechende Signalverbindungen stehen auch Signalausgänge 411, 4h des Grappenmoduls 39 der Kamera-Gruppe 5 mit Signaleingängen 40s, 40 Ö des Grappenmoduls 38 der Kamera-Gruppe 4 in Signal Verbindung. Über diese Direktverbindung zwischen den Signalausgängen 4 h und Sig naleingängen 40i der Grappenmodule, die verschiedenen Kamera-Gruppen zugeordnet sind, ist eine schnelle Inter-Baseline-Berechnung auf der Grap- penebene möglich. Eine zusätzliche Inter-Baseline-Berechnung ist zudem auf Ebene der Datenverarbeitungs-Hauptmodule 42, 42 R möglich.

Hierbei können, wie in der Ausführung nach Fig. 12, die Signalausgänge zweier Kameras, zum Beispiel der Kameras 1 U, 124 der Kamera-Gruppe 4 hin zu den Signaleingängen des Grappenmoduls 37 der Kamera-Gruppe 3 geführt werden, oder auch die Daten mehr oder weniger Kameras auf der Grappenebene direkt zwischen den Gruppen ausgetauscht werden. Auch Signalverbindungen auf der Grappenmodulebene zur Erzeugung eines Rings benachbarter Kamera-Grappenzuordnungen oder auch eines Netzes zwischen den Kamera-Gruppen sind möglich. Eine derartige Vernetzung kann insbesondere dann hilfreich sein, wenn die optische Baugruppe 2 in der Luftfahrt eingesetzt wird.

Die zusätzlichen Redundanz-Datenverarbeitungs-Grappenmodule 37 R , 38 R und 39 R , die wiederum bei einem Ausfall die Grappenmodule 37, 38 und 39 ersetzen können oder alternativ zur Erhöhung der Abbildungs- und Zu ordnungsgenauigkeit und/oder zur Erhöhung der Abbildungs- und Zuord nungsgeschwindigkeit herangezogen werden können, sind genauso aufge baut wie die Grappenmodule 37 bis 39.

Die Signaleingänge 40i bis 40 4 beispielsweise des Redundanz- Datenverarbeitungs-Grappenmoduls 37 R stehen mit den Signalausgängen 35 B der Kameras 113, 123, 13 3 und R3 in Signalverbindung. Jeweils eine der Kameras lli, 12i, 13i, Ri versorgt über die beiden Signalausgänge 35 A , 35 B also jeweils ein Grappenmodul und ein Redundanz-Grappenmodul. Alter- nativ könnten auch anstelle von beispielsweise drei Kameras mit jeweils zwei Signalausgängen 35A/B auf sechs Kameras mit jeweils einem Signal ausgang 35 zum Einsatz kommen.

Die Signaleingänge 40s und 40 6 des Redundanz-Datenverarbeitungs- Gruppenmoduls 37R stehen mit den Signalausgängen 41i, 4h des Redun- danz-Datenverarbeitungs-Gruppenmoduls 383 der benachbarten Kamera- Gruppe 4 in Signal Verbindung. Die Signalausgänge 41i, 4 h des Redun- danz-Datenverarbeitungs-Gruppenmoduls 37R stehen ihrerseits mit Signal eingängen 40 5 , 40 6 eines weiteren, nicht dargestellten Redundanz- Datenverarbeitungs-Grundmoduls in Signal Verbindung.

Die Signalausgänge 4h, 4h des Datenverarbeitungs-Grundmoduls 37 ste hen mit Signaleingängen 40s, 40 Ö eines weiteren, nicht dargestellten Da- tenverarbeitungs-Grundmoduls in Signal Verbindung.

Durch diese Signalverschaltung ist gewährleistet, dass die jeweilige Kame ra 1 li eine der Kamera-Gruppen 3, 4, 5, ... zur Inter-Datenverarbeitung zusammen mit den Erfassungsdaten der Kameras einer anderen Kamera- Gruppe 3, 4, 5, ... herangezogen werden kann.

Die jeweiligen Datenverarbeitungs-Gruppenmodule, zum Beispiel das Da tenverarbeitungs-Gruppenmodul 37 und das Redundanz- Datenverarbeitungs-Gruppenmodul 37R sind jeweils genau einer der Kame ra-Gruppen, in diesem Fall der Kamera-Gruppe 3 zugeordnet.

Die Datenverarbeitungs-Gruppenmodule 37 bis 39, ... sowie die Redun- danz-Datenverarbeitungs-Gruppenmodule 37R bis 39R, ... stellen eine ers- te, schnelle Signalverarbeitungsebene des Datenverarbeitungsmodulsys tems 36 zur Verfügung.

Auf dieser schnellen Datenverarbeitungs-Gruppenebene der Gruppenmo- dule 37 bis 39, ... bzw. 37 R bis 39 R , ... findet die Erfassung und Zuord nung der Objektbilder in Form von beispielsweise Punktewolken in Echt zeit statt. Auf dieser Gruppenmodul-Ebene wird somit geklärt, welche sig nifikanten Objekte vorhanden sind, welchen Abstand diese Objekte von den Kamera-Gruppen haben und ob sich diese Objekte relativ zu den Ka mera-Gruppen bewegen und falls ja, mit welcher Geschwindigkeit.

Zum Datenverarbeitungsmodulsystem 36 gehört weiterhin eine Datenver arbeitungs-Hauptebene. Diese weist auf ein Datenverarbeitungs- Hauptmodul 42, das allen Kamera-Gruppen 3 bis 5, ... zugeordnet ist. Das Datenverarbeitungs-Hauptmodul 42 steht über Signalverbindungen 43 i, bei denen es sich um Ethernet- Signalverbindungen handeln kann, mit den Gruppenmodulen 37 bis 39, ... und 37 R bis 39 R , ... in Signal Verbindung.

Eine Datenkommunikation zwischen den Kameras 1 E bis 13i, Ri einerseits und den Gruppenmodulen 37 bis 39, ... ; 37 R bis 39 R , ... andererseits sowie zwischen diesen Gruppenmodulen 37 bis 39, ... ; 37 R bis 39 R , ... einerseits und den Datenverarbeitungs-Hauptmodulen 42 kann nach einem MEPI/CSI-Interface-Standard erfolgen.

Das Datenverarbeitungs-Hauptmodul 42 hat einen Hauptprozessor 44 und einen Coprozessor 45. Der Hauptprozessor 44 wird vom Coprozessor 45 verifiziert und überwacht. Der Hauptprozessor 44 liest die Ergebnisse aller Gruppenmodule 37 bis 39, . . . ; 37 R bis 39 R , ... über deren jeweilige Kom munikations-Interfaces 46 aus. Der Hauptprozessor 44 vergleicht die Er- gebnisse dieser verschiedenen Grappenmodule 37 bis 39, ... sowie ggf. der zugeschalteten Redundanz-Grappenmodule 37 R bis 39 R , sodass hierüber, insbesondere in Überlappungsbereichen der Sichtfelder der Kamera- Gruppen 3 bis 5, ... eine zusätzliche Fehlersicherheit geschaffen ist. Zu dem leitet der Hauptprozessor 44 aus den Ergebnissen, die die Erfassung und die Verarbeitung der Daten aus der Gruppenmodul-Ebene ergibt, Steu erungssignale einerseits an die optische Baugruppe 2 und andererseits an die hiermit ausgerüstete Einheit, zum Beispiel an das Fahrzeug 1 weiter.

Zusätzlich ist in der Hauptebene der Datenverarbeitung noch ein Redun- danz-Datenverarbeitungs-Hauptmodul 42 R vorgesehen, das genauso aufge baut ist wie das Datenverarbeitungs-Hauptmodul 42 und entsprechend mit den Gruppenmodulen 37 bis 39, ... ; 37 R bis 39 R , ... verschaltet ist. Das Redundanz-Datenverarbeitungs-Hauptmodul 42 R kommt dann zum Ein satz, wenn beispielsweise der Coprozessor 45 des Datenverarbeitungs- Hauptmoduls 42 zu dem Ergebnis kommt, dass Ergebnisse des Hauptpro zessors 44 des Datenverarbeitungs-Hauptmoduls 42 nicht zuverlässig sind, oder wenn sich das Datenverarbeitungs-Hauptmodul 42 aus sonstigen Gründen abschaltet. Alternativ zu einem reinen Ausfall-Ersatz des Daten verarbeitungs-Hauptmoduls 42 durch das Redundanz-Datenverarbeitungs- Hauptmodul 42 R kann dieses Redundanz-Datenverarbeitungs-Hauptmodul 42 R auch im Normalbetrieb zur Erhöhung der Abbildungs- und Zuord nungsgenauigkeit und/oder zur Erhöhung der Abbildungs- und Zuord nungsgeschwindigkeit herangezogen werden und dabei parallel zum Da- tenverarbeitungs-Hauptmodul 42 arbeiten.

Über die vorstehend erläuterte Überlappung der Erfassungsbereiche insbe sondere benachbarter Kamera-Gruppen 3 bis 8 ist ein Vergleich überlap pender Erfassungsdaten und ein Vergleich von Intra- und Inter-Baseline- Erfassungen innerhalb des Datenverarbeitungsmodulsystems 36 möglich. Beispielsweise bis zu vier Überlappungsvergleiche der Erfassung ein und desselben Objekts mittels entsprechend vier verschiedenen Inter- und Intra- Baselines kann dabei durchgeführt werden, was zu einer entsprechenden Fehlerredundanz führt. Diese zusätzliche Fehlerredundanz kann zu einer Verringerung eines geforderten Zertifizierungs-Aufwandes hinsichtlich der Fehlertoleranz führen.

Entsprechende Überlappbereiche der Erfassungsbereiche insbesondere be nachbarter Kamera-Gruppen 3 bis 8 können zwischen einer kleinsten zu erwartenden relevanten Objektgröße und einer größten zu erwartenden re levanten Objektgröße weiter ausgewertet werden. Diese Größenbereiche können je nach Anwendung der optischen Baugruppe vorgegeben werden. Bei der Anwendung an einem Fahrzeug kann eine kleinste Größe bei spielsweise eine typische Dimension von 5 cm haben und eine größte Ob jektgröße die typische Dimension von 10 m.

Es kann dabei ein Vergleich einer Objektpunkte Verteilung innerhalb eines bestimmten Objekthöhenbereiches erfolgen. Dies kann in einer Stixel- Darstellung geschehen, bei der Objekte in Form von in vertikaler Richtung ausgedehnten, stabförmigen Elementen angenähert werden.

Ein Vergleich von Objektdaten, die in einem Überlappbereich zwischen verschiedenen Kamera-Gruppierungen erfasst und zugeordnet wurden, kann innerhalb eines Unsicherheitsbereichs um jeden 3D-Datenpunkt her um erfolgen. Die Größe des Unsicherheitsbereichs kann je nach Anwen dungsfall vorgegeben werden. Auch eine minimale Anzahl benachbarter Datenpunkte innerhalb zugeordneter Objektkandidaten bzw. innerhalb ent sprechender, bei der Erfassung und Zuordnung sich ergebender Punkte- wolken, kann ebenfalls je nach Anwendung vorgegeben werden. Ausgele sen werden können Intra-Baseline-Überlappungen verschiedener Kamera- Gruppen, deren Erfassungsbereiche sich überlappen (Inter/Intra) oder auch ein Vergleich zwischen einer Inter-Baseline-Erfassung innerhalb einer Kamera-Gruppe und einer Intra-Baseline-Erfassung zwischen dieser Ka meragruppe und der benachbarten Kamera-Gruppe im überlappenden Er fassungsbereich. Soweit bei einem derartigen Überlappungs-Vergleich kei ne Verifizierung eines Objektkandidaten stattfindet, kann das Objekt ent weder verworfen werden oder im Sinne eines konservatives, Sicherheitsan satzes als existierendes Objekt berücksichtigt werden. Soweit in einem be stimmten Erfassungsbereich überhaupt keine Kandidatenwerte erfasst wer den, also sich ein Kamera-Erfassungsbereich als ungewöhnlich objektfrei herausstellt, kann dieser ungewöhnlich objektfreie Bereich im Sinne eines Sicherheitsansatzes als Hindernis interpretiert werden.

Im Datenverarbeitungs-Hauptmodul 42 können mehrere, beispielsweise zwei, drei oder vier Punktewolken, die sich nach Erfassung und Zuordnung von Datenverarbeitungs-Gruppenmodulen 37 bis 39 benachbarter Kamera- Gruppen ergeben, gegeneinander geprüft werden. Hierüber ergibt sich eine weitere funktional-redundante Stufe. Eine weitere form-redundante Stufe ergibt sich aus zwei unterschiedlich arbeitenden Prozessoren entweder auf Ebene der Gruppenmodule oder auf Ebene des Hauptmoduls.

Fig. 13 zeigt ein alternatives Datenverarbeitungsmodulsystem 48 bis ein schließlich der Ebene der Gruppenmodule. Hier ist also die Hauptmodul ebene weggelassen, die entsprechend der Fig. 12 aufgebaut ist.

Beim Datenverarbeitungsmodulsystem 48 nach Fig. 13 sind beispielhaft die Kamera-Gruppen 8 (Mitte links, vgl. Fig. 11), 3 (vorne links) und 4 (vome rechts) dargestellt. Die Grappenmodule, die der Kamera-Gruppe 8 zugeordnet sind, sind in der Fig. 13 mit 37‘, 37 R ‘ bezeichnet und entspre chen den Gruppenmodulen 37 und 37 R der Kamera-Gruppe 3.

Die jeweils einander zugewandten Doppel-Kameras R3 und ID der Kame ra-Gruppen 3 und 4 sind bei der Ausführung nach Fig. 13 ersetzt durch Hybrid-Kameras R 3 11 , lh H entsprechend der Hybrid-Kamera, die vorste hend unter Bezugnahme auf die Fig. 9 erläutert wurde.

Zum Verarbeiten der Signalausgänge 35 A , 35 B der Fembereichs-Optik 33 dieser Hybrid-Kameras R3 11 , lh H dienen zusätzliche Hybrid- Datenverarbeitungs-Gruppenmodule, nämlich ein Hybrid-Gruppenmodul 49 und ein Redundanz-Hybrid-Gruppenmodul 49 R , deren Aufbau grund sätzlich den vorstehend im Zusammenhang mit der Fig. 12 beschriebenen Datenverarbeitungs-Gruppenmodule entspricht. Der Signaleingang 40 2 des Hybrid-Gruppenmoduls 49 steht mit dem Signalausgang 35 A der Fernbe- reichs-Optik 33 der Hybrid-Kamera R3 11 in Signal Verbindung. Der Signal eingang 40 4 steht mit dem Signalausgang 35 A der Fembereichs-Optik der Hybrid-Kamera 1 ls H in Signal Verbindung. Der Signaleingang 40i des Hyb rid-Gruppenmoduls 49 steht mit dem Signalausgang 4 h des Gruppenmo duls 38 der Kamera-Gmppe 4 in Signal Verbindung. Der Signalausgang 4h des Hybrid-Gruppenmoduls 49 steht mit dem Signaleingang 40 4 des Grup penmoduls 37 der Kamera-Gmppe 3 in Signal Verbindung. Der Signalaus gang 4 h des Hybrid-Gruppenmoduls 49 steht mit dem Signaleingang 40s des Gmppenmoduls 37 der Kamera-Gmppe 3 in Signal Verbindung.

Die Verdrahtung des Redundanz-Hybrid-Gmppenmoduls 49 R ist entspre chend und ist in der Fig. 13 nicht explizit dargestellt. Diese Signalverschaltung des Hybrid-Grappenmoduls 49 führt zu einer entsprechenden Einbindung der Hybrid-Kameras R3 11 und 1 ls H der Kamera-Gruppen 3 und 4 zur Erfassung und Auswertung von Inter- und Intra- Baseline-Kamerapaaren, wie vorstehend erläutert. Hierbei werden zusätz- lieh die Erfassungsdaten der Fembereichs-Optiken 33 berücksichtigt, verglichen und zur Erhöhung der Fehlersicherheit herangezogen.

Bei der Ausführung nach Fig. 13 ist eine Redundanz-Kamera, nämlich die Kamera R3 11 als Hybrid-Kamera ausgeführt. Dies ist natürlich nur dann sinnvoll, wenn die Redundanz-Kamera tatsächlich dauerhaft zur Datenerfassung und Auswertung herangezogen wird und nicht nur beim Ausfall einer der anderen Kameras. Anstelle einer Redundanzkamera kann auch eine Normalbetriebs-Kamera, zum Beispiel eine der Kameras II3 bis 13 3 der Kamera-Gruppe 3 als Hybrid-Kamera ausgeführt sein.