Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
MULTICHANNEL OPTICAL UNIT FOR SYNCHRONOUSLY RECORDING IMAGE REPRESENTATIONS
Document Type and Number:
WIPO Patent Application WO/2022/188923
Kind Code:
A1
Abstract:
The invention relates to a multichannel optical unit (1) for synchronously representing a plurality of image representations (A) of a motif (M), comprising an extensive optical diffuser (6) with a predetermined image region (B), an imaging system (2) and an imaging region (3) which is designed to image the image region (B) of the diffuser (6) multiple times in the imaging region (3) by means of the imaging system (2). Moreover, the invention comprises an optical system made of a plurality of multichannel optical units, a camera and a calibration method.

Inventors:
HEINE RENÉ (DE)
BRANDES ARND RAPHAEL (DE)
Application Number:
PCT/DE2022/100174
Publication Date:
September 15, 2022
Filing Date:
March 07, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CUBERT GMBH (DE)
International Classes:
G01J3/02; G02B3/00; G01J3/28; G01J3/36; G02B5/02; G02B5/20; G02B27/10; G02B27/12; H04N5/225; H04N13/214; G01J3/12
Domestic Patent References:
WO2018113938A12018-06-28
Foreign References:
CN107271039A2017-10-20
US20160057407A12016-02-25
US20090021598A12009-01-22
Other References:
MU TINGKUI ET AL: "Compact miniature snapshot imaging spectrometry using continuous variable filter", SPIE PROCEEDINGS; [PROCEEDINGS OF SPIE ISSN 0277-786X], SPIE, US, vol. 11023, 12 March 2019 (2019-03-12), pages 110232L - 110232L, XP060116328, ISBN: 978-1-5106-3673-6, DOI: 10.1117/12.2521256
HUBOLD M ET AL: "System calibration and characterization of an ultra-compact multispectral snapshot imaging system", SPIE PROCEEDINGS; [PROCEEDINGS OF SPIE ISSN 0277-786X], SPIE, US, vol. 11144, 17 September 2019 (2019-09-17), pages 111440V - 111440V, XP060124555, ISBN: 978-1-5106-3673-6, DOI: 10.1117/12.2532317
ANONYMOUS: "Diffuser (optics) - Wikipedia, the free encyclopedia", 26 June 2015 (2015-06-26), XP055204399, Retrieved from the Internet [retrieved on 20150723]
GORDON WETZSTEIN ET AL: "Computational plenoptic imaging", SIGGRAPH '12 ACM SIGGRAPH 2012 COURSES, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 5 August 2012 (2012-08-05), pages 1 - 265, XP058008347, ISBN: 978-1-4503-1678-1, DOI: 10.1145/2343483.2343494
Attorney, Agent or Firm:
KONRAD, Michael (DE)
Download PDF:
Claims:
Ansprüche

1. Mehrkanaloptik (1) zur synchronen Darstellung einer Mehrzahl von Abbildungen (A) eines Motivs (M) umfassend einen flächigen optischen Diffusor (6) mit einem vorbestimmten Bildbereich (B), ein Abbildungssystem (2) und einen Abbildungsbereich (3), welche dazu ausgelegt ist, den Bildbereich (B) des Diffusors (6) mittels des Abbildungssystems (2) mehrfach im Abbildungsbereich (3) abzubilden.

2. Mehrkanaloptik nach Anspruch 1, dadurch gekennzeichnet, dass sie ein Linsensystem mit einer Mehrzahl von nebeneinander liegenden Einzellinsen oder Linsensystemen umfasst, welche bevorzugt so angeordnet und gestaltet sind, dass sie eine Vielzahl von rasterförmig angeordneten Abbildungen in unterschiedlichen Bereichen im Abbildungsbereich (3) erzeugen.

3. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie zwischen Diffusor (6) und Abbildungsbereich (3) eine ortsabhängig transmittierende Filtervorrichtung (4) umfasst, die dazu ausgelegt ist, unterschiedliche Abbildungen (A) des Bildbereichs (B) bezüglich ihrer Helligkeit und/oder der Lichtwellenlänge und/oder der Polarisation des Lichts unterschiedlich zu filtern, wobei die Filtervorrichtung (4) eine Anzahl von Filterelementen (4) umfasst, bevorzugt

- ein Helligkeitsfilterelement, welches an unterschiedlichen Stellen verschiedene Helligkeiten filtert, und/oder

- ein Polarisationsfilterelement, welches an unterschiedlichen Stellen verschiedene Polarisationen durchlässt, und/oder

- ein spektrales Filterelement (4), welches an unterschiedlichen Stellen verschiedene Lichtwellenlängen durchlässt, wobei ein Filterelement (4) insbesondere ein linearvariables Filterelement oder ein Mosaikfilterelement ist, wobei die Kamera (1) bevorzugt eine Polarisationskamera, eine HDR-Kamera oder eine Spektralkamera, insbesondere zur multispektralen oder hyperspektralen Aufnahme von Bildern, oder eine Kombination dieser Kameras ist.

4. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie eine Übergangs-Optik (7), bevorzugt eine Feldlinse oder ein Feldlinsensystem, zwischen dem Diffusor (6) und dem Abbildungssystem (2) umfasst, welche dazu ausgelegt ist, den Bildbereich (B) durch das Abbildungssystem (2) hindurch im Abbildungsbereich (3) abzubilden, wobei der Abstand zwischen Diffusor (6) und Abbildungssystem (2) bevorzugt verstellbar ist und die Übergangs-Optik (7) bevorzugt optisch verstellbar ausgelegt ist, so dass die Schärfe der Abbildung des Diffusors (6) auf den Abbildungsbereich (3) eingestellt werden kann.

5. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie eine Kopplungseinheit (8) vor dem Diffusor (6) aufweist, die dazu ausgelegt ist, vor dem Diffusor (6) eine Eingangsoptik (9) anzubringen, wobei die Kopplungseinheit (8) so beschaffen ist, dass eine Eingangsoptik (9) aus einer vorbekannten Gruppe von Eingangsoptiken (9) so angebracht werden kann, dass sie auf den Diffusor (6) ein Bild eines Motivs (M) abbildet, insbesondere in dem Fall, dass die Eingangsoptik (9) mit verschiedenen Brennweiten oder Aperturen oder Helligkeiten operieren, wobei die Kamera (1) bevorzugt eine Anpassungsoptik (10) zwischen Eingangsoptik (9) und Diffusor (6) umfasst, welche die Abbildung der Eingangsoptik (9) auf dem Diffusor (6) an den Bildbereich (B) des Diffusors (6) anpasst, insbesondere bezüglich der Schärfe der Abbildung, bevorzugt wobei die Kopplungseinheit (8) mehrere Eingangsoptiken (9) wechselweise vor den Diffusor (6) bewegen kann.

6. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass eine Eingangsoptik (9) mindestens ein Element der Gruppe Objektive, Endoskope, Teleskope, Mikroskope, Zylinderlinsen, Prismen, Gitter, Linienspektro meter, Spektroskopkomponente und Lichtleiter-Faserbündel umfasst, oder eine Gruppe von Eingangsoptiken (9), insbesondere in einer spektral-sensitiven Anordnung oder einer polarisations-sensitiven Anordnung.

7. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Diffusor (6) mindestens ein Element der Gruppe holographische Streu elemente, Bildverstärker, Photoelektronenvervielfacher, wellenlängenverändernde Medien, nicht-lineare Medien, Quantenpunkte, Flüssigkristalle, Kaliumhydrogenphos- phat-Element, Beta-Bariumborat-Element und Fluoreszenzschichten umfasst, wobei der Diffusor (6) bevorzugt eine bewegliche oder flüssige Anordnung von streuenden Elementen umfasst.

8. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass sie eine Umlenk-Optik (11) und/oder eine strahlteilende Optik (12) umfasst, wobei bevorzugt ein Strahlteiler (12) zwischen dem Diffusor (6) und der Abbildungsoptik (2) so angeordnet ist, dass der Bildbereich (B) des Diffusors (6) mittels mindestens zweier Strahlenbündel mehrfach abgebildet werden kann und eine erste Anzahl von Abbildungen (A) mittels eines ersten Strahlenbündels und eines ersten Teils des Abbildungssystems (2) auf einen ersten Abbildungsbereich (3) erfolgt und eine zweite Anzahl von Abbildungen (A) mittels eines zweiten Strahlenbündels und eines zweiten Teils des Abbildungssystems (2) auf einen zweiten Abbildungsbereich (3) erfolgt, wobei sich die zweite Anzahl von Abbildungen (A) bevorzugt bezüglich ihrer Größe und/oder eines auf diese Abbildungen (A) wirkenden Filterelements (4) von den ersten Abbildungen (A) unterscheiden.

9. Mehrkanaloptik nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass Abbildungselemente (2a) des Abbildungssystems (2) mit zunehmendem Abstand vom Zentrum des Abbildungssystems (2) und/oder von der optischen Hauptachse (HA) der Mehrkanaloptik (1) zunehmend schielend angeordnet sind, insbesondere nach innen auf den Bildbereich (B) schielend, bevorzugt wobei Abbildungselemente (2a) mit zunehmendem Abstand vom Zentrum des Abbildungs systems (2) und/oder von der optischen Hauptachse (HA) einen zunehmenden Neigungswinkel aufweisen, wobei das Abbildungssystem (2) bevorzugt zusätzlich eine Blende (13) aufweist, die so gestaltet ist, dass jeder Abbildungseinheit (2a) eine Apertur (13a) der Blende (13) zugeordnet ist, wobei diese Aperturen (13a) mit zunehmendem Abstand vom Zentrum des Abbildungssystems (2) und/oder von der optischen Hauptachse (HA) der Kamera (1) zunehmend dezentral zur Mittelachse des Abbildungselements (2a) angeordnet sind.

10. Optisches System (14) umfassend eine Reihenschaltung aus einer Mehrzahl von Mehrkanaloptiken (1) nach einem der vorangehenden Ansprüche, bevorzugt wobei die Abbildungen (A) einer vorangehenden Mehrkanaloptik (1) von einer nachfolgenden Mehrkanaloptik (1) bevorzugt wieder mehrfach abgebildet werden, und wobei besonders bevorzugt der Diffusor (6) einer nachfolgenden Mehrkanaloptik (1) im Abbildungsbereich (3) der vorangehenden Mehrkanaloptik (1) angeordnet ist.

11. Kamera (1) zur synchronen Aufnahme einer Mehrzahl von Abbildungen (A) eines Motivs (M) umfassend eine Mehrkanaloptik nach einem der Ansprüche 1 bis 9 oder ein optisches System (14) nach Anspruch 10 und zusätzlich einen flächigen Bildsensor (3) im Abbildungsbereich (3).

12. Verfahren zur Kalibrierung einer Mehrkanaloptik (1) nach einem der Ansprüche 1 bis 10, einem optischen System (14) nach Anspruch 11 oder einer Kamera (1) nach Anspruch 11, dadurch gekennzeichnet, dass für eine Anzahl der Abbildungen (A) auf dem Abbildungsbereich 3, insbesondere einem Bildsensor (3), für jeweils den Bereich einer Abbildung (A)

- eine Feldverteilung von Werten von Bildpunkten des betreffenden Bereichs des Abbildungsbereichs (3), insbesondere des Bildsensors (3), ermittelt wird, insbesondere ein Farbfeld,

- ein Mittelwert der Helligkeit und/oder der Polarisation und/oder der Wellenlänge des einfallenden Lichts für mindestens zwei dieser Bildpunkte basierend auf der Feldverteilung ermittelt wird, insbesondere eine Zentralwellenlänge,

- der betreffende Bereich des Abbildungsbereichs (3), insbesondere des Bildsensors (3), und/oder der Abbildung (A) basierend auf dem Mittelwert modifiziert und/oder kalibriert wird, wobei diese Kalibration bevorzugt für weitere Bildaufnahmen verwendet wird, und wobei bevorzugt zur Modifikation eine Kalibrationsmatrix berechnet wird, die auf die Abbildungen oder die Pixel eines Bildsensors (3) angewandt wird, wobei in dem Fall dass mehrere Mehrkanaloptiken (1) in Form eines optischen Systems (14) vorliegen die Kalibrationsmatrizen der Mehrkanaloptiken (1), bevorzugt mittels Matrixmultiplikation, zu einer resultierenden Kalibrationsmatrix vereinigt werden.

Description:
Mehrkanaloptik zur synchronen Aufnahme von Abbildungen

Die Erfindung betrifft eine Mehrkanaloptik, insbesondere eine Kamera mit einer solchen Mehrkanaloptik zur synchronen Aufnahme einer Mehrzahl von Abbildungen eines Motivs sowie ein Verfahren zur Kalibrierung einer solchen Kamera.

Kameras zur synchronen Aufnahme einer Mehrzahl von Bildern sind seit langer Zeit bekannt. Beispiele sind Stereokameras, Plenoptische Kameras oder Spektralkameras, die mehrere Bilder in unterschiedlichen Kanälen, z.B. Wellenlängenkanälen, gleich zeitig aufnehmen können. Solche Kameras können auch als „Mehrkanal-Kameras“ bezeichnet werden, da sie ein Motiv in Form von zwei oder mehr Bildkanälen gleichzeitig (synchron) aufnehmen. Diese Kameras sind mit einer Mehrkanaloptik, z.B. mit einer Matrix aus Mikrolinsen, ausgestattet. Diese Mehrkanaloptik kann in der Kamera direkt integriert sein, was die häufigste Ausführungsform ist, oder sie kann mit der Kamera abnehmbar gekoppelt sein.

Auch wenn eine Vielzahl von unterschiedlichen Kameratypen für verschiedenste Aufgaben existieren, ist der grundsätzliche Aufbau von Mehrkanal-Kameras oftmals der gleiche. Eine Mehrzahl von Linsen oder anderen Abbildungselementen (z.B. Lochblen den) bildet ein Motiv gleichzeitig auf unterschiedlichen Bereichen eines Bildmediums ab. Früher war dieses Bildmedium ein Film, heute ist es zumeist ein digital arbeitender Bildsensor. Beispielsweise bilden bei einer Stereokamera zwei nebeneinanderliegende Linsen ein Motiv auf zwei Bereichen eines Films ab, so dass zwei Bilder mit einem leichten Parallaxenunterschied entstehen. Eine Lichtfeldkamera verwendet eine Viel zahl von Linsen, z.B. 3, 19 oder 90.000, auf einer Linsenmatrix, um eine entsprechen de Anzahl von Bildern auf einem Bildsensor abzubilden. Moderne Mehrkanal-Spektral kameras verwenden in der Regel eine Linsenmatrix mit einer Vielzahl von Mikrolinsen, um ein Motiv vielfach auf einem Bildsensor abzubilden, wobei ein Filterelement dafür sorgt, dass jedes dieser Bilder in einem anderen Spektralbereich abgebildet wird.

Nachteil dieser Kameras bzw. der bekannten Mehrkanaloptiken ist, dass es bis heute nicht möglich ist, diese mit nahezu beliebigen Objektiven zu verwenden. Zwar ist es z.B. bei Stereokameras möglich, zwei identische Objektive zu verwenden, jedoch ist es nicht möglich, beide Bilder mit demselben Objektiv aufzunehmen. Es sollte hierzu beachtet werden, dass ein Objektiv mit einer normalen Bauform (also mit einer begrenzten Größe) in der Regel Licht mit vergleichsweise hohen Austrittswikein in Richtung des Bildsensors und einer davor liegenden Mehrkanaloptik austreten lässt. Dadurch werden von der Linsenmatrix einer Mehrkanal-Kamera nicht mehr identische Bilder auf dem Bildsensor (oder allgemein einer Bildebene) abgebildet, sondern es ergeben sich mit zunehmenden Abstand von der optischen Achse Bildfehler, die zum Teil gravierend sein können.

Es war eine Aufgabe der Erfindung, die Nachteile des Standes der Technik zu überwinden und eine Mehrkanaloptik, insbesondere eine Kamera zur Verfügung zu stellen, die mit unterschiedlichsten Objektiven betrieben werden kann, wobei Fehler der unterschiedlichen Abbildungen minimiert werden sollen.

Diese Aufgabe wird durch eine Mehrkanaloptik bzw. eine Kamera gemäß der Ansprüche gelöst, wobei die Kamera zudem auf eine besondere Weise kalibriert werden kann.

Eine erfindungsgemäße Mehrkanaloptik dient zur synchronen (gleichzeitigen) Darstellung einer Mehrzahl von Abbildungen eines Motivs. Sie umfasst einen flächigen optischen Diffusor mit einem vorbestimmten Bildbereich, ein Abbildungssystem und einen Abbildungsbereich und ist dazu ausgelegt, den Bildbereich des Diffusors mittels des Abbildungssystems mehrfach im Abbildungsbereich abzubilden.

Eine erfindungsgemäße Kamera dient zur synchronen (gleichzeitigen) Aufnahme einer Mehrzahl von Abbildungen eines Motivs und könnte auch als „Mehrkanal-Kamera“ bezeichnet werden. Sie umfasst eine erfindungsgemäße Mehrkanaloptik und zusätzlich eine flächige Aufnahmeeinheit, z.B. einen flächigen Bildsensor im Abbildungsbereich. Selbstverständlich kann auch eine Mehrkanaloptik eine Aufnahmeeinheit im Abbil dungsbereich aufweisen, wobei ein solcher Aufbau dann auch als „Kamera“ bezeichnet werden kann. Im Folgenden wird an Stelle des Wortes „Aufnahmeeinheit“ zum besseren Verständnis von „Bildsensor“ gesprochen, wobei damit auch eine Anordnung mehrerer gleichartiger oder unterschiedlicher Bildsensoren gemeint sein kann. Flächige Bildsensoren sind dem Fachmann im Grunde bekannt. Auch wenn der Bild sensor durchaus ein Filmmaterial sein kann, handelt es sich hierbei besonders bevor zugt um einen digitalen Pixeldetektor, welcher eine elektronische Aufnahme von Bild punkten („Pixeln“) erlauben. Bevorzugte Pixeldetektoren sind CCD-Sensoren (CCD: „charge-coupled device“; dt. „ladungsgekoppeltes Bauteil“) oder CMOS-Sensoren (CMOS: „Complementary metal-oxide-semiconductor“; dt. „sich ergänzender Metall- Oxid-Halbleiter“). Besonders bevorzugt sind auf Silizium basierende Sensoren, aber auch InGaAs-Sensoren sowie auf Bleioxid oder Graphen basierte Sensoren, insbesondere auch für Wellenlängenbereiche außerhalb des sichtbaren Bereichs.

Im Abbildungsbereich muss jedoch nicht zwingend eine Aufnahmeeinheit angeordnet sein, obwohl die Erfindung im Grunde eine Mehrkanal-Aufnahme zum Ziel hat. Gemäß einer alternativen Ausführungsform kann im Bildbereich auch ein weiterer Diffusor an geordnet sein, dessen Bildbereich dann z.B. von einer separaten Kamera aufgenom men werden kann. Beispielsweise kann eine solche Mehrkanaloptik dazu dienen, ein normales Smartphone oder eine herkömmliche Kamera zu einer Spektralkamera oder HDR-Kamera zu machen. Es ist jedoch noch nicht einmal notwendig, dass im Abbil dungsbereich unbedingt ein darstellendes oder aufnehmendes Element angeordnet ist. Der Abbildungsbereich könnte auch einfach als optische Ebene angesehen werden, welche mit einer passenden Optik aufgenommen werden kann, wobei dort durch das Abbildungssystem reelle Bilder durch das Abbildungssystem dargestellt werden können, aber im Grunde auch alternativ virtuelle Bilder.

Das Abbildungssystem umfasst in der Regel eine Mehrzahl von Abbildungselementen, insbesondere eine flächige Linsenmatrix mit einer Vielzahl von Einzellinsen oder Linsensystemen, eine Matrix aus Lochblenden, eine Spiegelmatrix oder ein Bündel aus Lichtleitern. Die Abbildungselemente sind bevorzugt so angeordnet, dass sie zu einem Aufnahmezeitpunkt eine Vielzahl von rasterförmig angeordneten Abbildungen des Bildbereichs im Abbildungsbereich, z.B. auf dem Bildsensor, erzeugen. Beispielsweise kann das Abbildungssystem aus einer Linsenmatrix oder Mehrlinsenmatrix bestehen oder diese (zusammen mit anderen Elementen) umfassen.

Ein optischer Diffusor an sich, z.B. eine Streuscheibe, ist im Stand der Technik bekannt und ist ein optisches Bauteil, das dazu dient, Licht diffus zu streuen, insbesondere mit- tels diffuser Reflexion, besonders bevorzugt aber mittels diffuser Brechung von Licht. Auch wenn in der Lichtmesstechnik Diffusoren regelmäßig eingesetzt werden, um einem Detektor eine erhöhte Empfindlichkeit für einen großen Raumwinkelbereich zu geben, werden Diffusoren im abbildenden Teil einer Kamera bzw. einer Mehrkanaloptik bisher nicht verwendet. Die Abstrahlung eines Diffusors folgt in der Regel dem Lambertschen Gesetz.

Im Unterschied zu einer als Beispiel betrachteten herkömmlichen Kamera, bei der das Abbildungssystem darauf ausgelegt ist, ein Motiv scharf auf der Aufnahmeeinheit, z.B. dem Bildsensor, abzubilden, bildet das Abbildungssystem bei der vorliegenden Erfin dung einen Bildbereich des Diffusors im Abbildungsbereich (z.B. auf dem Bildsensor) ab. Diese Abbildung ist zwar bevorzugt scharf, kann jedoch auch anders sein. Je nach Anwendung ist z.B. bevorzugt, gezielt ein unscharfes Bild des Bildbereichs darzustellen, bzw. aufzunehmen oder ein Beugungsmuster des Bildbereichs des Diffusors im Abbildungsbereich (z.B. auf dem Bildsensor) abzubilden.

Es ist durchaus möglich, mehrere Mehrkanaloptiken hintereinander (kaskadiert) anzu ordnen, wobei die Abbildungen einer vorangehenden Mehrkanaloptik von einer nach folgenden Mehrkanaloptik wieder mehrfach abgebildet werden kann (so dass z.B. aus vier Bildern der ersten Mehrkanaloptik sechzehn Bilder nach der zweiten Mehrkanal optik werden). Ein solches bevorzugtes optisches System hat den Vorteil, dass gleich zeitig mehrere unterschiedliche Untersuchungen an einem Motiv durchgeführt werden können, z.B. eine spektrale Untersuchung zusammen mit einer Untersuchung der Polarisation. Bevorzugt ist dabei der Diffusor einer nachfolgenden Mehrkanaloptik im Abbildungsbereich der vorangehenden Mehrkanaloptik angeordnet.

Ein erfindungsgemäßes Verfahren dient zur Kalibrierung einer erfindungsgemäßen Mehrkanaloptik (insbesondere einer Kamera). Diese Kalibrierung betrifft Fehler der Aufnahme, die durch eine unterschiedliche Dispersion von Medien, z.B. Filterelemen ten, zwischen dem Diffusor und dem Abbildungsbereich (z.B. dem Bildsensor) hervor gerufen werden. Für eine Anzahl der Abbildungen im Abbildungsbereich (z.B. auf dem Bildsensor), insbesondere für alle Abbildungen, wird für jede dermaßen kalibrierte Abbildung jeweils ein Bereich definiert, insbesondere die gesamte Abbildung. Für jeweils diesen Bereich einer Abbildung werden die folgenden Schritte durchgeführt: - Ermittlung einer Feldverteilung von Werten von Bildpunkten (z.B. der Pixel) des betreffenden Bereichs des Abbildungsbereichs (z.B. des Bildsensors), wobei diese Feldverteilung insbesondere ein Farbfeld ist,

- Ermittlung eines Zentralwerts der Helligkeit und/oder der Polarisation und/oder der Wellenlänge des einfallenden Lichts für mindestens zwei dieser Bildpunkte basierend auf der Feldverteilung, insbesondere eine Zentralwellenlänge (bei dem bevorzugten Farbfeld),

- Modifikation des betreffenden Bereichs des Abbildungsbereichs (z.B. des Bildsensors) und/oder der Abbildung (das aufgenommene Bild bzw. die Bilddaten) basierend auf dem Zentralwert.

Bevorzugt wird zur Modifikation eine Kalibrationsmatrix berechnet, die einfach auf die Abbildungen bzw, die Pixel eines Bildsensors angewandt wird. Werden mehrere Mehr kanaloptiken in Form eines erfindungsgemäßen optischen Systems in Reihe geschal tet, können die Kalibrationsmatrizen der einzelnen Mehrkanaloptiken, insbesondere mittels Matrixmultiplikation, zu einer resultierenden Kalibrationsmatrix vereinigt werden.

Diese Kalibration wird dann bevorzugt für weitere Bildaufnahmen verwendet, da sich der Diffusor nicht ändert und damit die Strahlverläufe in der Kamera unabhängig vom Motiv stets die gleichen bleiben.

Im Folgenden wird das Verfahren anhand eines Farbfeldes als Feldverteilung und einer Zentralwellenlänge als Zentralwert genauer beschrieben. Es kann jedoch an Stelle des Farbfeldes auch entsprechend ein Helligkeitsfeld oder ein Polarisationsfeld als Feldver teilung ermittelt werden und an Stelle der Zentralwellenlänge eine „Zentralpolarisation“ bzw. eine „Zentralhelligkeit“ als Zentralwert.

Die spektrale Sensitivität eines Bereichs eines Filterelements gibt wieder, welche Farbe (Wellenlänge) in welchem Bildpunkt des Abbildungsbereichs hinter dem Filterelement vorliegt. Im idealen Falle ist dies Licht mit einer einzigen (Zentral-)Wellenlänge, im Realfall eine Wellenlängenverteilung mit einer Zentralwellenlänge. Diese spektrale Sensitivität wird hier auch als „Farbfeld“ bezeichnet, da sie ein Feld (Bereich) umfasst, in dem abhängig vom Filterelement unterschiedliche Farben vorherrschen. Bei idealen Filterelementen verläuft dieses Farbfeld zumeist linear veränderlich (linearvaribaler Filter) oder konstant und stufig (Mosaikfilter). Ein Bereich des Abbildungsbereichs (z.B. des Bildsensors), welcher zur Aufnahme einer Bildes dient, sollte einen klar definierten (linear variierenden / stufig-konstanten) Verlauf des Farbfeldes aufweisen. In der Realität kommt es bei vielen Filterelementen jedoch auf die Strecke an, die das Licht bei Propagation durch das Filterelement in diesem zurücklegt. In einem Bereich eines Mosaikfilters mit einem winkelabhängigen Filterverhalten, welcher nur für eine einzige Zentralwellenlänge ausgestaltet ist, wird bei einem geraden Einfall eine andere Zentralwellenlänge gemessen wie bei einem schrägen Einfall. Auch wenn sich diese Unterschiede in der Praxis auf einige nm beschränken, führen sie dennoch zu systematischen Messfehlern und beeinflussen eine Auswertung von Spektralbildern negativ. Außerdem lässt sich dieser Effekt vorteilhaft zur Verbesserung der spektralen Auflösung nutzen, wie im Folgenden beschrieben werden wird. Ähnliche Effekte können bei Polarisationsfiltern mit der Polarisation des Lichts bzw. bei Helligkeitsfiltern mit der Helligkeit des Lichts auftreten.

Wohlgemerkt betrifft die hier erläuterte Betrachtung in erster Linie Effekte, die durch unterschiedliche Lichtwege im Filter hervorgerufen werden. Die geschilderten Abwei chungen können auch durch Inhomogenitäten im Filterelement oder Wellenlängen abweichungen in Bildern durch linearvariable Filterelemente hervorgerufen werden.

Entsprechendes gilt für die Polarisation und die Helligkeit.

Die Ermittlung des Farbfeldes erfolgt für denjenigen Bereich des Filterelements, durch den das Licht zur Aufnahme einer Abbildung fällt. Das Verfahren kann selbstverständ lich auch zur gleichzeitigen Modifikation mehrerer Abbildungen dienen. Die Ermittlung des Farbfeldes kann durch eine direkte Messung erfolgen. Dazu erfolgt eine Aufnahme und/oder Bereitstellung von einer Abbildung des Bildbereichs, welches von der Kamera in einem Spektralbereich aufgenommen worden ist. Alternativ oder zusätzlich kann die Ermittlung des Farbfeldes auch durch eine Berechnung des Verhaltens des Filters bei Einstrahlung einer Wellenlänge mit unterschiedlichen Einfallswinkeln unter Berücksich tigung der Abbildungseigenschaften der diesem Bereich des Abbildungsbereichs (z.B. des Bildsensors) zugeordneten Optik der Kamera erfolgen. Auf entsprechende Weise kann auch ein Polarisationsfeld bzw. ein Helligkeitsfeld ermittelt werden, wenn man an Stelle der Wellenlänge die Polarisation bzw. die Helligkeit betrachtet.

Somit, ist zu beachten, dass bei der Aufnahme einer Abbildung mit einem Bereich des Abbildungsbereichs (z.B. des Bildsensors) das Licht zu unterschiedlichen Bildpunkten der Abbildung mit unterschiedlichen Einfallswinkeln durch den Filter verläuft. Dadurch, und ggf. auch durch Inhomogenitäten der Dicke des Filters über den betreffenden Bereich durchläuft das Licht zu verschiedenen Bildpunkten des Abbildungsbereichs (z.B. Pixeln des Bildsensors) unterschiedliche Strecken durch das Filterelement. Je nach Art des Filterelements kann sich daraus eine Verschiebung der Filtereigenschaft ergeben. Ist z die zentrale Wellenlänge des Filters für Licht unter dem Winkel a, so kann sich für Licht, welches unter dem Winkel b durch den Filter tritt, eine zentrale Wellenlänge z ± Dz ergeben.

Diese Zentralwellenlänge wird nun für mindestens zwei Bildpunkte (z.B. Pixel), bevor zugt für alle Bildpunkte für eine vorbestimmte Interessensregion (engl.: "Region of Interest", ROI) des vorbestimmten Bereichs eines Abbildungsbereichs (z.B. Bildsen sors) bestimmt. Hierzu ist jedoch zu beachten, das (mindestens) zwei Bildpunkte bevorzugt in demjenigen Bereich liegen, der für eine Abbildung bestimmt ist.

Entsprechend kann auf diese Weise mit Informationen zur Polarisation eine „Zentral polarisation“ und mit Informationen zur Helligkeit eine „Zentralhelligkeit“ ermittelt wer den. Im Hinblick auf die Helligkeit wird bevorzugt zusätzlich eine Vignettierung der Ab bildungen betrachtet, was zu einem Helligkeitsverlauf in den Abbildungen führen kann.

Betrachtet man pro "Bild" die Zentralwellenlängen von zwei Bildpunkten (Pixeln), so lässt sich bei der Annahme eines linearen Verlaufs der Zentralwellenlänge über die Bildpunkte eine Modifikationsfunktion für alle Bildpunkte ermitteln („Stützfunktion“). Sollte der Verlauf nicht linear sein, ist es bevorzugt für mehr als zwei Bildpunkte Zentralwellenlängen zu bestimmen und daraus eine Modifikationsfunktion zu ermitteln. Ein sehr genaues Ergebnis erhält man, wenn man die Zentralwellenlängen aller Bildpunkte des Bereichs betrachtet. Die Modifikationsfunktion hat den Vorteil, dass nicht für alle Bildpunkte die Zentralwellenlängen ermittelt werden müssen, sondern diese auch durch die Modifikationsfunktion vorgegeben werden können.

Entsprechend kann auf diese Weise aus der Zentralpolarisation bzw. der Zentralhelligkeit eine Modifikationsfunktion ermittelt werden.

Mit der Modifikationsfunktion wird nun der Bereich des Abbildungsbereichs (z.B. des Bildsensors) und/oder entsprechende Abbildungen modifiziert, z.B. kalibriert. Alternativ oder zusätzlich wird ein ergänzender Datensatz zu den Abbildungen oder zur Steuerung der Bildaufnahme erzeugt. Modifikation und Datensatzerzeugung sind dabei zumeist gleichbedeutend, da in digitalisierten Systemen eine Modifikation auf einem Datensatz beruhen kann, der eingelesen und zur Modifikation von Bildsensoren oder Daten verwendet wird.

Die Modifikation kann eine Adaption sein, insbesondere eine Kalibration. Sie kann aber auch eine Hinzufügung von Bildinformationen zu einem Bild umfassen, z.B. die Hinzu fügung von ergänzenden Spektralinformationen oder Informationen zur Abstrahlcharak teristik eines Objekts. Diese ergänzenden Informationen können z.B. in Bilddaten direkt vorliegen oder als ein zusätzlicher Datensatz, also „außerhalb“ einer Abbildung aber mit dieser Verbunden. Es ist für eine Modifikation einer Abbildung oder eines Bildsensors im Grunde unerheblich, ob diese (z.B. als Kalibrierung) direkt bei der Aufnahme erfolgt oder die aufgenommenen Rohdaten (oder ggf. die rekonstruierten Daten) modifiziert werden. Somit können auch Daten zur Modifikation der Abbildung oder des Bildsensors in Form eines ergänzenden Datensatzes vorliegen.

Für eine Kalibration sollte das aufgenommene Bild ein uniformes Motiv darstellen, da mit jeder Bildpunkt der Abbildung schwerpunktsmäßig dasselbe sieht. Dies kann sehr einfach durch uniforme Ausleuchtung des Bildbereichs des Diffusors erreicht werden.

Bevorzugt wird das Absorptionsspektrum bzw. die Dispersion des Diffusors bei einer Kalibration berücksichtigt bzw. kompensiert. Zudem werden bevorzugt die Absoptions- funktion einer internen Optik und/oder die Quanteneffizienz des Sensors orstabhängig (insbesondere pixelgenau) kalibriert, bzw. kompensiert. Bei einer beliebigen Eingangs optik, welche von einem Endbenutzer gewählt wird, müssten für eine Kalibrierung die technischen Daten dieser Eingangsoptik bereitgestellt werden, z.B. die Trasmissions- kurve eines Objektivs. Alternativ ist bevorzugt, dass das optische System als ganzes (mit oder ohne Eingangsoptik) radianzkalibriert wird.

Im Folgenden werden bevorzugte Ausführungsformen der Erfindung beschrieben. Es wird darauf hingewiesen, dass eine bevorzugte Kamera auch analog zu der entspre chenden Beschreibung des Verfahrens ausgestaltet sein kann und insbesondere auch einzelne Merkmale verschiedener Ausführungsbeispiele miteinander kombiniert werden können.

Gemäß einer bevorzugten Mehrkanaloptik (z.B. einer Kamera, insbesondere einem Mehrkanal-Kamerasystem bzw. einem Multilinsen-Kamerasystem) umfasst das Abbildungssystem eine Linsenmatrix mit einer Mehrzahl von nebeneinanderliegenden Einzellinsen oder Linsensystemen, welche bevorzugt so angeordnet und gestaltet sind, dass sie eine Vielzahl von rasterförmig angeordneten Abbildungen in unterschiedlichen Bereichen im Abbildungsbereich (z.B. auf einem Bildsensor) erzeugen. Eine bevorzug te Linsenmatrix umfasst dazu bevorzugt eine Vielzahl von Linsen die rasterförmig zueinander angeordnet sind, also in einer regelmäßigen Anordnung, insbesondere auf einem Träger. Die Linsen sind bevorzugt in regelmäßigen Zeilen und Spalten oder ver setzt zueinander angeordnet. Besonders bevorzugt ist eine rechteckige bzw. quadra tische oder eine hexagonale Anordnung. Die Linsen können beispielsweise sphärische Linsen oder zylindrische Linsen sein, aber auch asphärische Linsen bzw. Linsen mit einer Freiform sind in einigen Anwendungsfällen bevorzugt. Selbstverständlich können, wie bereits erwähnt wurde, pro Kanal mehrere dieser Linsen in Reihe angeordnet sein.

Eine bevorzugte Ausführungsform der Mehrkanaloptik, insbesondere der Kamera, um fasst zwischen Diffusor und Abbildungsbereich (z.B. dem Bildsensor) eine ortsabhän gig transmittierende Filtervorrichtung, z.B. eine ortsabhängig reflektierende, beugende oder absorbierende Filtervorrichtung, die dazu ausgelegt ist, unterschiedliche Abbil dungen des Bildbereichs bezüglich ihrer Helligkeit und/oder der Lichtwellenlänge und/oder der Polarisation des Lichts unterschiedlich zu filtern. Diese Filtervorrichtung lässt also auf verschiedenen Kanälen verschiedene Helligkeiten und/oder Wellenlängen und/oder Polarisationen durch. Die Filtervorrichtung umfasst eine Anzahl von Filterelementen, insbesondere ein linearvariables Filterelement oder ein Mosaikfilterelement, bevorzugt ein Filterelement der Gruppe:

- Helligkeitsfilterelement, welches an unterschiedlichen Stellen verschiedene Helligkeiten filtert,

- Polarisationsfilterelement, welches an unterschiedlichen Stellen verschiedene Polarisationen durchlässt,

- spektrales Filterelement, welches an unterschiedlichen Stellen verschiedene Lichtwellenlängen durchlässt.

Insbesondere sind Kombinationen bevorzugt z.B. eine HDR-Spektralkamera. Dies kann insbesondere mittels Aufspaltung des Bildes mittels eines Strahlteilers und Verwendung unterschiedlicher Filter in den getrennten Strahlengängen geschehen.

Die Kamera ist also bevorzugt eine Polarisationskamera, eine HDR-Kamera oder eine Spektralkamera, insbesondere zur multispektralen oder hyperspektralen Aufnahme von Bildern. Bevorzugte Filterelemente sind im Hinblick auf die Helligkeit Grauverlaufsfilter oder Neutraldichtefilter bzw. im Hinblick auf die Polarisation Polarisatoren in Mosaik- Anordnung oder strukturierte Polarisatoren.

Ein Filterelement, welches an unterschiedlichen Positionen der Fläche des Filterele ments unterschiedliche Anteile (Spektralanteile bzw. Polarisationsanteile bzw. Hellig keitsanteile) von auftreffendem Licht transmittiert und andere Anteile nicht transmittiert, wird hier als „ortssensitives Filterelement“ bezeichnet, wobei es auch als „ortsabhängi ges Filterelement“ bezeichnet werden könnte. Es dient dazu, die durch das Abbildungs system erzeugten Abbildungen im Abbildungsbereich (z.B. auf dem Bildsensor) nach unterschiedlichen Helligkeits-, Polarisations- bzw. Spektralbereichen zu filtern.

Die Filtervorrichtung kann aus einem einzigen Filterelement bestehen bzw. dieses umfassen, sie kann aber auch mehrere Filterelemente umfassen und ggf. zusätzliche Elemente, z.B. Stützelemente, Bewegungselemente oder Abstandshalter. Für die Anordnung von Filterelementen der Filtervorrichtung gibt es mehrere Möglichkeiten.

Ein Filterelement kann beispielsweise direkt vor dem Abbildungssystem (z.B. einer Linsenmatrix) positioniert sein oder zwischen Abbildungssystem und Abbildungsbereich (z.B. einem Bildsensor). Es ist auch bevorzugt, dass Komponenten des Abbildungs systems als Filterelement ausgestaltet sind, insbesondere die Linsenmatrix. Beispiels weise kann das Substrat einer Linsenmatrix als Filterelement ausgestaltet sein. Ein Filterelement kann aber auch bevorzugt direkt vor dem Abbildungsbereich angeordnet sein oder zwischen einer Aperturmaske und dem Abbildungssystem oder Zwischen Abbildungssystem und einer objektseitigen Blende oder direkt vor einer solchen Blende wobei letzteres eine besonders bevorzugte Position ist.

Gemäß einer bevorzugten Ausführungsform umfasst das Filterelement einen Mosaik- Filter, welcher insbesondere in Verwendung zusammen mit einer Zoomoptik Vorteile bietet. Bevorzugt ist das Mosaik des Mosaik-Filters so angeordnet, dass große Intervalle innen sind, währen kleinere Intervalle außen sind. Bei einer bevorzugten Form des Mosaik-Filters ist ein Farbmosaik, insbesondere ein Farbglasmosaik, auf einer Seite eines Substrats, bevorzugt Glas, aufgebracht, insbesondere aufgedampft. Gemäß einer vorteilhaften Ausführungsform ist auf der Vorderseite eines Substrats das Filterelement (ein Mosaik-Filter oder ein anderer Filter) aufgebracht und auf der Rückseite des Substrats die Linsenmatrix (z.B. aufgeprägt). Bevorzugt transmittiert ein Mosaik-Filter für jede Einzellinse eine andere Wellenlänge.

Gemäß einer bevorzugten Ausführungsform umfasst das Filterelement einen linearvari ablen Filter mit Filterlinien („Verlaufsfilter“), welcher bevorzugt im Hinblick auf die Aus richtung der Filterlinien bezüglich des Abbildungssystems in einem Winkel zwischen 1° und 45° verdreht ist.

Eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, umfasst eine Übergangs- Optik, bevorzugt eine Feldlinse oder ein Feldlinsensystem, zwischen dem Diffusor und dem Abbildungssystem und/oder zwischen dem Abbildungssystem und dem Abbil dungsbereich (z.B. einem Bildsensor), welche dazu ausgelegt ist, den Bildbereich des Diffusors durch das Abbildungssystem hindurch im Abbildungsbereich (z.B. auf dem Bildsensor) abzubilden, also einen „Übergang“ zu schaffen. Der Abstand zwischen Diffusor und Abbildungssystem ist bevorzugt justierbar. Alternativ oder ergänzend ist die Übergangs-Optik bevorzugt optisch verstellbar ausgelegt. Dies hat den Sinn, dass die Schärfe der Abbildung des Diffusors auf dem Bildsensor eingestellt werden kann. Gemäß einer bevorzugten Ausführungsform umfasst die Übergangs-Optik eine Zoom optik, welche bevorzugt zum Zoom eines Teils oder aller Abbildungen ausgelegt ist.

Eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, weist eine Kopplungsein heit vor dem Diffusor auf, die dazu ausgelegt ist, vor dem Diffusor eine Eingangsoptik anzubringen. Man könnte die Kopplungseinheit auch als „Objektivhalter“ oder „Mount“ bezeichnen. Die Eingangsoptik ist dabei bevorzugt ein Objektiv, kann aber je nach Anwendung auch eine beliebige andere abbildende Optik sein, sofern sie alleine (oder zusammen mit einer nachfolgend beschriebenen Anpassungsoptik) ein reeles Bild auf dem Bildbereich des Diffusors abbilden kann. Die Kopplungseinheit ist dabei so be schaffen, dass eine Eingangsoptik aus einer vorbekannten Gruppe von Eingangsopti ken so angebracht werden kann, dass sie auf den Diffusor ein Bild eines Motivs abbil det, insbesondere in dem Fall, dass die Eingangsoptik mit verschiedenen Brennweiten oder Aperturen oder Helligkeiten operieren. Bei herkömmlichen Kameras sind Kopp lungseinheiten bekannt. Sie sind so beschaffen, dass aus einer Gruppe von Objekti ven, z.B. Teleobjektiv, Weitwinkelobjektiv, normales Objektiv, ein Objektiv ausgewählt und mit der Kamera durch eine Steck- oder Drehbewegung gekoppelt werden kann.

Wie vorangehend bereits angedeutet wurde, umfasst die Mehrkanaloptik, insbeson dere die Kamera, bevorzugt eine Anpassungsoptik zwischen Eingangsoptik und Diffusor, welche die Abbildung der Eingangsoptik auf dem Diffusor an den Bildbereich des Diffusors anpasst, insbesondere bezüglich der Schärfe der Abbildung. Im Falle von Objektiven einer herkömmlichen Kamera wäre solche eine Anpassungsoptik nicht unbedingt notwendig, da diese ein reeles Bild auf den Diffusor abbilden können. Für Eingangsoptiken, die jedoch ein virtuelles Bild erzeugen, z.B. das Bild des Okulars eines Mikroskops oder das Bild eines Galileischen Fernrohrs, ist eine solche Anpassungsoptik vorteilhaft.

Bevorzugt ist die Kopplungseinheit so gestaltet, dass sie mehrere Eingangsoptiken wechselweise vor den Diffusor bewegen kann, insbesondere in Form eines Revolvers oder Schiebers.

Bevorzugt ist die Mehrkanaloptik, insbesondere die Kamera, dazu ausgelegt, dass die Eingangsoptik mindestens ein Element der Gruppe Objektive, Endoskope, Teleskope, Mikroskope, Zylinderlinsen, Prismen, Gitter, Linienspektrometer, Spektroskopkompo nente und Lichtleiter-Faserbündel umfasst. Bevorzugt umfasst sie eine Gruppe von Eingangsoptiken, insbesondere in einer spektral-sensitiven Anordnung oder einer polarisations-sensitiven Anordnung.

Bei einer bevorzugten Mehrkanaloptik, insbesondere einer Kamera, umfasst der Diffusor mindestens ein Element der Gruppe holographische Streuelemente, Bildverstärker, Photoelektronenvervielfacher, wellenlängenverändernde Medien, nicht lineare Medien, Quantenpunkte, Flüssigkristalle, Kaliumhydrogenphosphat-Element, Beta-Bariumborat-Element und Fluoreszenzschichten.

Um den Einfluss lokaler Streuzentren auf eine Abbildung zu kompensieren umfasst der Diffusor bevorzugt eine bewegliche oder flüssige Anordnung von streuenden Elementen. Wenn sich ein Streuzentrum auch nur leicht bewegt, verschwimmt dessen Einfluss auf den Abbildungen ohne dass die Bildqualität merklich abnimmt.

Eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, umfasst eine Umlenk- Optik, z.B. einen Spiegel, Lichtleiter oder ein Prisma. Alternativ oder ergänzend umfasst eine bevorzugte Mehrkanaloptik, insbesondere eine Kamera, eine strahlteilende Optik, z.B. einen Strahlteiler. Bevorzugt ist dabei ein Strahlteiler zwischen dem Diffusor und der Abbildungsoptik auf eine Weise angeordnet, dass der Bildbereich des Diffusors mittels mindestens zweier Strahlenbündel zwei- oder mehr fach abgebildet werden kann. Doppelt bei zwei Strahlenbündeln und ansonsten bevor zugt entsprechend der Anzahl der Strahlenbündel. Wohlgemerkt betrifft dies nicht die Anzahl der Abbildungen durch das Abbildungssystem, da dieses aus einem einzigen Strahlenbündel eine Vielzahl von Abbildungen erzeugen kann. Beispielsweise kann die Mehrkanaloptik als Optik für eine omnidirektionale Kamera ausgestaltet sein.

Bevorzugt erfolgt eine erste Anzahl von Abbildungen mittels eines ersten Strahlenbün dels und eines ersten Teils des Abbildungssystems auf einem ersten Bereich des Abbildungsbereichs (z.B. des Bildsensors) und eine zweite Anzahl von Abbildungen mittels eines zweiten Strahlenbündels und eines zweiten Teils des Abbildungssystems auf einem zweiten Bereich des Abbildungsbereichs (z.B. des Bildsensors). Dabei ist bevorzugt, dass sich die zweite Anzahl von Abbildungen bevorzugt bezüglich ihrer Größe und/oder eines auf diese Abbildungen wirkenden Filterelements von den ersten Abbildungen unterscheiden.

Bevorzugt umfasst das Abbildungssystem dazu zusätzlich eine Linsenmatrix und min destens eine weitere Linse, die in der Ebene der Linsenmatrix oder abgesetzt von der Ebene der Linsenmatrix angeordnet ist (bevorzugt vor der Linsenmatrix) und dazu aus gestaltet ist, in dem zweiten Bereich des Abbildungsbereichs (z.B. des Bildsensors; ei nem anderen Bereich als dem ersten Bereich) eine zweite Abbildung des Bildbereichs auf dem Abbildungsbereich (z.B. dem Bildsensor) zu erzeugen. Die weitere Linse ist bevorzugt anders gestaltet als die anderen Linsen. Insbesondere weist sie eine Brennlinie auf und/oder sie hat eine andere Brennweite oder eine andere Größe als die anderen Linsen.

Bei einer bevorzugten Mehrkanaloptik, insbesondere einer Kamera, ist das Abbildungs system so gestaltet, dass es Unterschiede von Darstellungen vermindert, die unter unterschiedlichen Blickwinkeln aufgenommen worden sind. Solche Unterschiede können z.B. unterschiedliche, Verzerrungen und/oder Verschiebungen und/oder Vignettierungen sein. Dies verbessert die Qualität der Abbildungen besonders für kleine Bauformen der Mehrkanaloptik (bzw. Kamera), da sich diese Unterschiede aufgrund der unterschiedlichen Blickwinkel der Abbildungselemente auf den Bildbereich sich besonders stark auswirken.

Um dies zu erreichen, sind bevorzugt Abbildungselemente mit zunehmendem Abstand vom Zentrum des Abbildungssystems und/oder von der optischen Hauptachse der Mehrkanaloptik (bzw. Kamera) zunehmend schielend angeordnet. Dies bedeutet, dass sie nicht alle auf einen Punkt des Bildbereichs schauen, sondern dass Abbildungsele mente mit zunehmendem Abstand zunehmend nach innen schielen. Diese Technik ist im Stand der Technik bekannt und kann beispielsweise dadurch realisiert werden, dass der Abbildungsbereich in vorbestimmte Abbildungsregionen unterteilt wird, und in dem Weg (oder „Kanal“) zwischen Bildbereich des Diffusors und Abbildungsregion ein Abbildungselement (z.B. eine Mikrolinse) so angeordnet wird, dass der Bildbereich in der Abbildungsregion als Abbildung abgebildet wird. Aufgrund der unterschiedlichen Blickwinkel ist damit das Abbildungssystem kleiner als der Abbildungsbereich. Diesbezüglich ist bevorzugt, dass Abbildungselemente mit zunehmendem Abstand vom Zentrum des Abbildungssystems und/oder von der optischen Hauptachse der Mehrkanaloptik (bzw. Kamera) einen zunehmenden Neigungswinkel aufweisen, um den Astigmatismus und/oder eine Koma durch den Blickwinkel auszugleichen.

Alternativ oder ergänzend ist bevorzugt, dass das Abbildungssystem eine Blende auf weist, die so gestaltet ist, dass jeder Abbildungseinheit des Abbildungssystems (welche den Bildbereich des Diffusors auf dem Abbildungsbereich (z.B. dem Bildsensor) abbildet, insbesondere einer Mikrolinse des Abbildungssystems) eine Apertur der Blende zugeordnet ist. Die Aperturen der Blende sind dabei bevorzugt so angeordnet, dass sie bezüglich des Zentrums einer Abbildungseinheit deplaziert ist und zwar je mehr desto weiter die Abbildungseinheit vom Zentrum des Abbildungssystems (von der optischen Hauptachse des gesamten Systems) entfernt ist. Dabei kann eine Deplazie- rung nach innen (mit zunehmendem Abstand der Abbildungseinheit vom Zentrum des Abbildungssystems zunehmend näher zum Zentrum des Abbildungssystems hin) im Hinblick auf die Lichtstärke der Abbildung Vorteile bieten, da die Apertur dann gut im Strahlengang liegen würde. Eine Deplazierung nach außen (mit zunehmendem Ab stand der Abbildungseinheit vom Zentrum des Abbildungssystems zunehmend weiter vom Zentrum des Abbildungssystems weg) kann im Hinblick auf eine homogene Vig- nettierung Vorteile bieten. Die Aperturen können eine Transmissionsverlauf am Rand aufweisen. Es sind aber auch beliebige Formen und Transmissionsverläufe denkbar.

Es können auch vorteilhafter Weise übliche Maßnahmen zu Verbesserungen von Optiken angewandt werden Vorzugsweise eine Anti-Reflex-Beschichtung, eine absorbierende Beschichtung und/oder eine Strahlfalle des Gehäuses. Auch sind gekreuzte Polarisatoren zur Reflexionsunterdrückung bevorzugt.

Gemäß einer bevorzugten Ausführungsform umfasst die Mehrkanaloptik (bzw. Kamera) eine Aperturmaske zwischen Abbildungssystem (z.B. einer Linsenmatrix) und Abbildungsbereich (z.B. Bildsensor), wobei Aperturen auf der Aperturmaske entsprechend den Abbildungseinheiten (z.B. Linsen) des Abbildungssystems positioniert sind und die Aperturmaske so positioniert ist, dass Licht der Abbildungen der einzelnen Abbildungseinheiten durch Aperturen der Aperturmaske tritt. Die Aperturmaske weist also das gleiche Muster wie das Abbildungssystem auf, wobei statt der Abbildungseinheiten dort Aperturen vorliegen. Die Aperturmaske verbessert die Abbildungen, da sie Streulicht herausfiltert. Eine Übergangs-Optik, z.B. eine Zoomoptik, ist bevorzugt zwischen Aperturmaske und Abbildungsbereich (z.B. Bildsensor) positioniert. Die Aperturmaske ist bevorzugt so gestaltet, dass sie die Funktion der vorgenannten Blende erfüllen kann.

Für die Erfindung verwendete Linsen sind insbesondere sphärische Linsen, Zylinderlinsen, holographische Linsen oder Fresnellinsen oder Linsensysteme (z.B. Objektive) aus mehreren solcher Linsen.

Beispiele für bevorzugte Ausführungsformen der erfindungsgemäßen Vorrichtung sind in den Abbildungen schematisch dargestellt. Es wird dabei aus Gründen der besseren Verständlichkeit hier oftmals direkt der Fall dargestellt, dass die Mehrkanaloptik mit einem Bildsensor ausgestaltet ist und damit die Funktion einer Kamera hat.

Figur 1 zeigt perspektivisch eine bevorzugte Kamera.

Figur 2 zeigt in Seitenansicht eine Kamera gemäß einer weiteren bevorzugten Ausführungsform der Erfindung.

Figur 3 skizziert die Abbildung eines Motivs.

Figur 4 zeigt eine bevorzugte schielende Kamera.

Figur 5 zeigt eine Kamera mit einer Umlenk-Optik und einem Strahlteiler.

Figur 6 zeigt ein Beispiel zur Zentralwellenlänge und zur Modifikationsfunktion.

Figur 7 zeigt ein bevorzugtes optisches System.

Figur 1 zeigt schematisch eine bevorzugte Ausführungsform einer erfindungsgemäßen Kamera 1 (Mehrkanaloptik 1) zur Aufnahme einer Mehrzahl von Bildern in einer perspektivischen Darstellung. Die Kamera 1 umfasst einen flächigen Bildsensor 3, ein Filterelement 4 als Filtervorrichtung 4, eine Streuscheibe als Diffusor 6 und eine flächige Linsenmatrix 2 aus gleichförmigen Einzellinsen 2a als Abbildungssystem 2.

Die Abbildungselemente 2a des Abbildungssystems 2 (die Linsen 2a) sind so angeordnet, dass sie von einem Bildbereich B des Diffusors 6 eine Vielzahl von rasterförmig angeordneten Abbildungen a (s. z.B. Figur 3) auf dem Bildsensor 3 erzeugt, der hier als Aufnahmeeinheit 3 stellvertretend für den Abbildungsbereich 3 steht). Der Bildbereich B des Diffusors 6 zeigt das Bild eines Motivs M, welches mit einer (der Übersicht halber hier nicht dargestellten Optik) auf den Diffusor 6 projeziert wird. Der Übersicht halber ist nur eine der Linsen 2a der Linsenmatrix 2 mit einem Referenzzeichen versehen.

Zur Verbesserung der Qualität der Abbildungen A ist eine Aperturmaske 5 zwischen Bildsensor 3 und Linsenmatrix 2 angeordnet. Jede Apertur 5a der Aperturmaske 5, ist einer Einzellinse 2a zugeordnet und genau hinter dieser angeordnet. Zum Erhalt der spektralen Informationen ist ein Filterelement 4 zwischen Aperturmaske 5 und Bild sensor 3 angeordnet. Dieses Filterelement 4 kann in anderen Ausführungen auch vor der Linsenmatrix 2 angeordnet sein. In dem hier dargestellten Fall handelt es sich bei dem Filterelement 4 um einen linearvariablen Filter, der gegenüber dem Bildsensor 3 etwas verdreht ist. Jede Abbildung A hat damit ihren Mittelpunkt bei einem anderen Längenwellenbereich des Filterelements 4. Somit liefert jede Abbildung A auf dem Bildsensor 3 eine andere spektrale Information.

Figur 2 zeigt schematisch eine Seitenansicht einer Kamera 1 gemäß einer weiteren bevorzugten Ausführungsform mit einer Übergangs-Optik 7 zwischen der Linsenmatrix 2 und dem Diffusor 6. Die Kamera 1 ist in diesem Beispiel ohne eine Aperturmaske 5 dargestellt. Der Bildsensor 3 hat ein vorgelagertes Filterelement 4. Die Übergangs- Optik 7 kann beispielsweise eine Zoomoptik oder wie hier dargestellt eine Feldlinse sein. In diesem Beispiel wird ein Motiv M auf dem Diffusor 6 mittels einer Eingangs optik 9 (z.B. einem Objektiv) ab gebildet, welches mittels einer Kopplungseinheit 8 an der Kamera 1 gehalten wird. Die Kopplungseinheit 8 kann so ausgestaltet sein, dass ein einfaches Wechseln von Objektiven wie bei herkömmlichen Kameras möglich ist. Damit ein Bild der Eingangsoptik 9, z.B. einer einfachen Linse, stets scharf auf dem Diffusor 6 abgebildet wird ist im Bereich der Kopplungseinheit 8 eine Anpassungsoptik 10, z.B. einer einfachen Linse, angeordnet, mit der das Bild auf dem Diffusor 6 scharf gestellt werden kann. Die Kopplungseinheit 8 kann aber auch so gestaltet sein, dass ein Scharfstellen ohne weitere Optiken einfach über eine Abstandsänderung erfolgt.

Figur 3 skizziert die Abbildung eines Motivs M. Das Motiv M wird, wie vorangehend be reits beschrieben wurde, mittels einer Eingangsoptik 9 auf dem Diffusor 6 abgebildet. Je nach Anwendung kann die Abbildung scharf, unscharf oder auch anders sein, z.B. ein Beugungsmuster. Der Bereich dieses Bildes auf dem Diffusor 6, der Bildbereich B, wird nun mittels des Abbildungssystems 2 vielfach auf dem Bildsensor 3 abgebildet. In diesem Beispiel entsteht ein Raster von vielen einzelnen Abbildungen A, die alle das Bild im Bildbereich B des Diffusors 6 und damit das Motiv M zeigen.

Wenn sich der Diffusor 6 sehr nahe an dem Abbildungssystem 2 befindet, können perspektivische Abweichungen (Verzerrungen) der Abbildungen Aauftreten, so dass sie sich voneinander unterscheiden. Es wäre wünschenswert, wenn die Perspektive aller Abbildungen A identisch wäre.

Figur 4 zeigt eine bevorzugte schielende Kamera 1 , welche diese Verzerrungen kom pensieren kann. Das Abbildungssystem 2 umfasst in dieser Seitenansicht drei Reihen von Abbildungselementen 2a (Linsen 2a) übereinander. Das mittlere Abbildungsele ment 2a bildet den Bildbereich B des Diffusors 6 normal auf dem Bildsensor ab. Das obere und das untere Abbildungselement 2a würden den Bildbereich B durch den schieferen Blickwinkel auf den Diffusor 6 etwas schräg versetzt abbilden. Dies ist mit den „Kanälen“ angedeutet, die den Bereich der Lichtwege vom Bildbereich B zu den Abbildungen A skizzieren sollen. Für eine homogene Vignettierung umfasst das Abbildungssystem 2 hier eine Blende 13 mit Aperturen 13a. Diese Blende 13 ist so gestaltet, dass jeder der oberen und der unteren Abbildungseinheiten 2a jeweils eine Apertur 13a zugeordnet ist, welche jeweils dezentral zur Mittelachse (hier der Mitte) des Abbildungselements 2a angeordnet sind. Diese Aperturen 13a sollten in diesem Beispiel mit zunehmendem Abstand vom Zentrum des Abbildungssystems 2 bzw. von der optischen Hauptachse HA der Kamera 1 zunehmend dezentraler angeordnet sein, und zwar jeweils in einem größeren Abstand als die Mittelachse des jeweiligen Abbildungselements 2a. Mittels einer Aperturmaske 5 werden Übersprecher zwischen den Abbildungen A verhindert. Die Aperturen 5a der Aperturmaske 5 folgen hier dem Verlauf der angedeuteten Lichtwege.

Figur 5 zeigt eine Kamera mit einer Umlenk-Optik 11, hier einem Spiegel, und einem Strahlteiler 12. Die Strahlen vom Bildbereich B des Diffusors 6 werden mittels des Strahlteilers 12 geteilt und die hier nach oben gelenkte Strahlen durch den Spiegel wider in die ursprüngliche Richtung gelenkt. Das Abbildungssystem 2 umfasst hier unterschiedliche Abbildungselemente 2a, nämlich eine große Linse 2a, die eine große Abbildung A auf dem Bildsensor 3 erzeugen kann, und eine Reihe kleiner Linsen 2a, die eine Mehrzahl kleiner Abbildungen Aauf dem Bildsensor 3 erzeugen. Die Abbildungen A liegen jeweils auf unterschiedlichen Bereichen des Bildsensors 3. Selbstverständlich können auch mehrere unterschiedliche Sensoren als Bildsensor 3 verwendet werden, z.B. ein Sensor für die große Abbildung A und ein anderer Sensor für die kleineren Abbildungen A. Die Abbildungselemente 2a müssen dabei nicht wie hier dargestellt in einer Ebene liegen.

Figur 6 zeigt ein Beispiel zur Zentralwellenlänge Z (links) und zur Modifikationsfunktion, F (rechts). Für einen Lichtstrahl mit einem breiten Spektrum, der durch ein Filterele ment 6 tritt (s. z.B. Figur 1) ergibt sich nach dem Durchtritt ein schmales Spektrum mit einer Zentralwellenlänge Z. Trägt man für ein Pixelfeld mit den Koordinaten x und y alle Zentralwellenlängen Z oder von diesen Zentralwellenlängen Z abgeleitete Kalibrations werte in ein Schaubild ein, welches die Koordinaten x und y mit einer Wellenlänge l vereinigt (z.B. die Zentralwellenlänge Z), dann erhält man beispielsweise eine Verteilung, wie rechts dargestellt. Dies wäre eine beispielhafte Darstellung der Werte einer Modifikationsfunktion F. Bezüglich einer Kalibration von Helligkeitswerten oder Polarisationswerten sähe eine Abbildung entsprechend aus.

Figur 7 zeigt ein Beispiel für ein erfindungsgemäßes optisches System 14 aus einer Reihenschaltung von zwei Mehrkanaloptiken 1. Jede der Mehrkanaloptiken 1 erzeugt eine Anzahl von Abbildungen A, so dass die Gesamtanzahl von Abbildungen A nach jeder Stufe zunimmt. Wenn beispielsweise jede Mehrkanaloptik 1 vier Abbildungen A erzeugt, dann existieren von einem Motiv M nach der ersten Stufe vier Abbildungen A, und nach der zweiten Stufe sechzehn Abbildungen A. Die erste Mehrkanaloptik 1 (rechts) weist z.B. ein spektrales Filterelement 4 auf, die zweite (links) ein Polarisa tions-Filterelement 4. Selbstverständlich können auch beliebige andere Filterelemente 4 verwendet werden. Die erste Mehrkanaloptik 1 zeigt somit ein Motiv in vier unter schiedlichen Spektralbereichen und die zweite Mehrkanaloptik 1 jeden dieser Spektral bereiche in vier unterschiedlichen Polarisationsbereichen. Der Diffusor 6 der zweiten Mehrkanaloptik 1 ist im Abbildungsbereich 3 der ersten Mehrkanaloptik 1 angeordnet und die zweite Mehrkanaloptik 1 weist einen Bildsensor 3 im Abbildungsbereich 3 auf.

Abschließend wird angemerkt, dass die Verwendung der unbestimmten Artikel, wie z.B. „ein“ oder „eine“, nicht ausschließt, dass die betreffenden Merkmale auch mehrfach vorhanden sein können. So kann „ein“ auch als „mindestens ein“ gelesen werden. Begriffe wie „Einheit“ oder „Vorrichtung“ schließen nicht aus, dass die betreffenden Elemente aus mehreren zusammenwirkenden Komponenten bestehen können, die nicht unbedingt in einem gemeinsamen Gehäuse untergebracht sind, auch wenn der Fall eines umfassenden Gehäuses bevorzugt ist. Im Bereich der Optik kann insbeson dere das Element der Linse aus einer einzelnen Linse oder einem System von Linsen oder einem Objektiv bestehen ohne dass dies einer genauen Differenzierung bedarf.

Bezeugszeichenliste

1 Mehrkanaloptik / Kamera

2 Abbildungssystem / Linsenmatrix

2a Abbildungseinheit / Linse

3 Bildsensor / Abbildungsbereich / Aufnahmeeinheit

4 Filtervorrichtung / Filterelement

5 Aperturmaske

5a Apertur

6 Diffusor

7 Übergangs-Optik

8 Kopplungseinheit

9 Eingangsoptik

10 Anpassungsoptik

11 Umlenk-Optik

12 strahlteilende Optik / Strahlteiler

13 Blende

13a Apertur

14 Optisches System

A Abbildung

B Bildbereich

F Modifikationsfunktion

HA optische Hauptachse

Z Zentralwellenlänge

M Motiv