Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
MULTISPECTRAL "SNAPSHOT" (INSTANTANEOUS) ACQUISITION CAMERA
Document Type and Number:
WIPO Patent Application WO/2023/110922
Kind Code:
A1
Abstract:
The invention relates to an acquisition device (1) including a mosaic of filters (2) comprising super-macropixels (SM), each including a plurality of macropixels (M) which each comprise a plurality of elementary pixels (Pe), each super-macropixel being such that: o each macropixel of said super-macropixel forms a general band-pass filter allowing a general spectral band to pass therethrough, the general spectral bands being separate from and consecutive to one another; o each elementary pixel of each macropixel forms an elementary band-pass filter allowing an elementary spectral band (Bel, Be2, Be3, Be4) to pass therethrough, the elementary spectral bands being separate from and consecutive to one another; o for any pair of two macropixels having a side that is shared or a side portion that is shared, the general spectral bands associated with the two macropixels are not adjacent to one another.

Inventors:
FOUBERT PHILIPPE (FR)
TOUATI THIERRY (FR)
PEYROT CLOTILDE (FR)
ROUX NICOLAS (FR)
Application Number:
PCT/EP2022/085693
Publication Date:
June 22, 2023
Filing Date:
December 13, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
SAFRAN ELECTRONICS & DEFENSE (FR)
International Classes:
G01J3/28; H04N5/33; H04N23/11; H04N25/13
Domestic Patent References:
WO2020250773A12020-12-17
Foreign References:
US20170031318A12017-02-02
EP3113491A12017-01-04
FR3011663B12015-11-13
Attorney, Agent or Firm:
LAVAUD, Thomas et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1 . Dispositif d' acquisition ( 1 ) comportant :

- une mosaïque de filtres ( 2 ) comprenant des super- macropixels ( SM) identiques , chaque super-macropixel comportant une pluralité de macropixels (M) comprenant chacun une pluralité de pixels élémentaires ( Pe ) , chaque super-macropixel étant tel que : o chaque macropixel dudit super-macropixel forme un filtre passe-bande global laissant passer une bande spectrale globale (Bg1 , Bg2 , Bg3 , Bg4 ) , les bandes spectrales globales étant distinctes et successives ; o ledit super-macropixel ( SM) comporte quatre macropixels , les macropixels comprenant un premier macropixel (M1 ) laissant passer une première bande spectrale globale Bg1 , un deuxième macropixel (M2 ) laissant passer une deuxième bande spectrale globale Bg2 , un troisième macropixel (M3 ) laissant passer une troisième bande spectrale globale Bg3 et un quatrième macropixel (M4 ) laissant passer une quatrième bande spectrale globale Bg4 , les macropixels étant tels que : Bg1 < Bg2 < Bg3 < Bg4 ; o lorsque la mosaïque de filtres (2 ) est vue de face et orientée selon une orientation prédéfinie , ledit super- macropixel est agencé de sorte que le premier macropixel est situé en haut à gauche, le deuxième macropixel est situé en bas à droite , le troisième macropixel est situé en bas à gauche, et le quatrième macropixel en haut à droite dudit super-macropixel ; o chaque pixel élémentaire de chaque macropixel dudit super-macropixel forme un filtre passe-bande élémentaire laissant passer une bande spectrale élémentaire (Bel, Be2, Be3, Be4) incluse dans la bande spectrale globale dudit macropixel, les bandes spectrales élémentaires étant distinctes et successives ;

- une matrice de capteurs (3) associés chacun à un pixel élémentaire ;

- une unité de traitement (4) agencée pour produire une image multispectrales à partir de signaux de sortie des capteurs, l'image multispectrale comprenant des hyperpixels (HP) associés chacun à un pixel élémentaire, chaque hyperpixel comprenant des composantes spectrales (14) correspondant chacune à une bande spectrale élémentaire distincte .

2. Dispositif d'acquisition selon la revendication 1, dans lequel chaque super-macropixel (SM) et chaque macropixel ont la forme d'un carré.

3 Dispositif d'acquisition selon la revendication 1, dans lequel la première bande spectrale globale est incluse dans une bande spectrale bleue, la deuxième bande spectrale globale est incluse dans une bande spectrale verte, la troisième bande spectrale globale est incluse dans une bande spectrale rouge, et la quatrième bande spectrale globale est incluse dans une bande spectrale du proche infrarouge.

4. Dispositif d'acquisition selon l'une des revendications précédentes, dans lequel chaque macropixel comporte un premier pixel élémentaire laissant passer une première bande spectrale élémentaire Bel, un deuxième pixel élémentaire laissant passer une deuxième bande spectrale élémentaire Be2, un troisième pixel élémentaire laissant passer une troisième bande spectrale élémentaire Be3, et un quatrième pixel élémentaire laissant passer une quatrième bande spectrale élémentaire Be4, les pixels élémentaires étant tels que : Be1 < Be2 < Be3 < Be4.

5. Dispositif d'acquisition selon la revendication 4, dans lequel, lorsque la mosaïque de filtres (2) est vue de face et orientée selon l'orientation prédéfinie, chaque macropixel est agencé de sorte que le premier pixel élémentaire est situé en haut à gauche, le deuxième pixel élémentaire est situé en haut à droite, le troisième pixel élémentaire est situé en bas à gauche, et le quatrième pixel élémentaire est situé en bas à droite dudit macropixel.

6. Dispositif d'acquisition selon l'une des revendications précédentes, dans lequel l'unité de traitement (4) est agencée pour conférer, à chaque composante spectrale (14) de l'hyperpixel (15) associé à un pixel élémentaire particulier d'un super-macropixel particulier, une valeur égale au signal de sortie du capteur associé au pixel élémentaire appartenant audit super-macropixel particulier et laissant passer la bande spectrale élémentaire correspondant à ladite composante spectrale.

7. Dispositif d'acquisition selon l'une des revendications 1 à 5, dans lequel l'unité de traitement (4) est agencée pour conférer, à chaque composante spectrale de l'hyperpixel associé à un pixel élémentaire particulier d'un super- macropixel particulier, une valeur obtenue par interpolation des signaux de sortie des capteurs associés à des pixels élémentaires voisins du pixel élémentaire particulier et laissant passer la bande spectrale élémentaire correspondant à ladite composante spectrale.

8. Dispositif d'acquisition selon l'une des revendications 1 à 5, dans lequel l'unité de traitement (4) est agencée pour conférer, à chaque composante spectrale de l'hyperpixel associé à un pixel élémentaire particulier d'un super- macropixel particulier, une valeur égale au signal de sortie du capteur associé à un pixel élémentaire, laissant passer la bande de spectrale élémentaire correspondant à ladite composante spectrale, ledit pixel élémentaire appartenant à une fenêtre glissante ayant la taille d'un super-macropixel et à laquelle appartient le pixel élémentaire particulier.

9. Dispositif d'acquisition selon l'une des revendications précédentes, l'unité de traitement (4) étant en outre agencée pour produire une image en couleur et infrarouge à partir des signaux de sortie des capteurs.

10. Dispositif d'acquisition selon la revendication 9, dans lequel l'unité de traitement (4) est agencée, pour produire l'image en couleur et infrarouge, pour mettre en œuvre une opération de regroupement spatial de pixels élémentaires, puis un algorithme de reproduction de couleur, l'opération de regroupement de pixels élémentaires consistant à associer une unique valeur intermédiaire à chaque macropixel de chaque super-macropixel, ladite valeur intermédiaire étant obtenue par pondération des signaux de sortie des capteurs associés aux pixels élémentaires dudit macropixel.

11. Dispositif d'acquisition selon la revendication 10 et la revendication 3, comprenant en outre un filtre coupe-bande, positionné au niveau d'une pupille d'une caméra (6) dans laquelle est intégré le dispositif d'acquisition, le filtre coupe-bande étant conçu pour couper une bande spectrale frontière (Bf) située entre la troisième bande spectrale globale et la quatrième bande spectrale globale.

12. Dispositif d'acquisition selon la revendication 11, dans lequel la bande spectrale frontière (Bf) appartient au moins partiellement à la bande spectrale rouge, et dans lequel la troisième bande spectrale globale est décalée de manière à ne pas présenter de recouvrement avec la bande spectrale frontière .

13. Caméra (6) comprenant un dispositif d'acquisition (1) selon l'une des revendications précédentes.

Description:
CAMERA MULTISPECTRALE A ACQUISITION « SNAPSHOT »

(INSTANTANEE)

L' invention concerne le domaine des caméras multispectrales , et , en particulier, des caméras multispectrales utilisées pour réaliser des opérations de décamouflage . ARRIERE PLAN DE L' INVENTION

Il est connu, pour réaliser une opération de décamouflage d' une cible (un véhicule blindé par exemple ) , d' utiliser la technique de l ' imagerie multispectrale .

L' imagerie multispectrale consiste à acquérir de façon discrète l ' énergie réfléchie ou émise par une surface dans une pluralité de bandes spectrales contigües ou non (classiquement entre 3 et 20 bandes spectrales ) .

L' acquisition est réalisée par un dispositif d' acquisition multispectrale comprenant un capteur multispectral capable de mesurer des spectres (de réflectance ou de luminance notamment) dans des gammes de longueurs d' onde correspondant à des bandes spectrales situées par exemple dans le domaine du visible et/ou dans le domaine de l ' infrarouge .

Pour améliorer les performances du décamouflage , il est intéressant d' utiliser aussi des images issues d' un dispositifs d' acquisition d' images de type VJC (pour Voie Jour Couleurs ) . Un dispositif d' acquisition VJC fournit des images très proches de ce que voit un être humain . Ces images sont notamment pertinentes pour connaître le « contexte » du décamouflage , c' est-à-dire pour restituer les caractéristiques de la scène (de la végétation en particulier) dans laquelle est située la cible . On a donc envisagé, pour réaliser le décamouflage, d'utiliser un système d'acquisition comprenant un dispositif d'acquisition multispectrale, un dispositif d'acquisition VJC, et une unité de traitement. Le dispositif d'acquisition multispectrale produit des images multispectrales , le dispositif d'acquisition VJC produit des images VJC, et l'unité de traitement combine les images multispectrales et les images VJC pour réaliser le décamouflage.

Cependant, l'utilisation en opération d'un système comprenant deux caméras distinctes n'est pas aisée. Le système est à la fois volumineux et présente une consommation élevée .

Par ailleurs, la combinaison de ces images est complexe à réaliser.

L'acquisition multispectrale et l'acquisition VJC présentent en effet des comportements radiométriques très différents .

Comme les deux dispositifs d'acquisition ne sont pas intégrés dans une même caméra, il n'y a pas de voie support pour le décamouflage, ce qui engendre des difficultés pour harmoniser et corriger les voies VJC et multispectrale, ainsi que des difficultés de calage spatio / temporel.

Par ailleurs, la technique d'acquisition VJC sur petits pixels engendre des difficultés de calibration. Les images VJC sont très sensibles au bruit du fait de la taille des pixels .

OBJET DE L' INVENTION

L'invention a pour objet un dispositif d'acquisition permettant d'acquérir de manière combinée des images multispectrales et des images de type VJC, et qui ne présente pas les inconvénients qui viennent d'être cités.

RESUME DE L'INVENTION En vue de la réalisation de ce but , on propose un dispositif d' acquisition comportant :

- une mosaïque de filtres comprenant des super- macropixels identiques , chaque super-macropixel comportant une pluralité de macropixels comprenant chacun une pluralité de pixels élémentaires , chaque super-macropixel étant tel que : o chaque macropixel dudit super-macropixel forme un filtre passe-bande global laissant passer une bande spectrale globale, les bandes spectrales globales étant distinctes et successives ; o chaque pixel élémentaire de chaque macropixel dudit super-macropixel forme un filtre passe-bande élémentaire laissant passer une bande spectrale élémentaire, les bandes spectrales élémentaires étant distinctes et successives ; o pour tout couple de deux macropixels appartenant audit super-macropixel et ayant un côté commun ou une portion de côté commune , les bandes spectrales globales associées aux deux macropixels ne sont pas adj acentes ;

- une matrice de capteurs associés chacun à un pixel élémentaire ; une unité de traitement agencée pour produire une image multispectrales à partir de signaux de sortie des capteurs , l ' image multispectrale comprenant des hyperpixels associés chacun à un pixel élémentaire, chaque hyperpixel comprenant des composantes spectrales correspondant chacune à une bande spectrale élémentaire distincte .

Le dispositif d' acquisition selon l ' invention est donc capable, en utilisant des bandes spectrales globales pertinentes , de produire sur une seule voie à la fois des images multispectrales et des images en couleur et infrarouge . On peut donc mettre en œuvre une opération de décamouf lage efficace en utilisant une seule caméra dans laquelle est intégré le dispositif d' acquisition ; on obtient donc une réduction de coût, de volume et de consommation .

La configuration particulière de chaque super- macropixel , et les positions relatives des macropixels , permettent de réduire très nettement la diaphonie et les problèmes de bruit, ce qui améliore la précision et la fiabilité du décamouflage .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel chaque super-macropixel a la forme d' un carré et comporte quatre macropixels ayant aussi chacun la forme d' un carré, les macropixels comprenant un premier macropixel laissant passer une première bande spectrale globale Bg1 , un deuxième macropixel laissant passer une deuxième bande spectrale globale Bg2 , un troisième macropixel laissant passer une troisième bande spectrale globale Bg3 et un quatrième macropixel laissant passer une quatrième bande spectrale globale Bg4 , les macropixels étant tels que : Bg1 < Bg2 < Bg3 < Bg4 .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel , lorsque la mosaïque de filtres est vue de face et orientée selon une orientation prédéfinie, chaque super-macropixel est agencé de sorte que le premier macropixel est situé en haut à gauche, le deuxième macropixel est situé en bas à droite , le troisième macropixel est situé en bas à gauche , et le quatrième macropixel en haut à droite dudit super-macropixel .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel la première bande spectrale globale est incluse dans une bande spectrale bleue , la deuxième bande spectrale globale est incluse dans une bande spectrale verte, la troisième bande spectrale globale est incluse dans une bande spectrale rouge, et la quatrième bande spectrale globale est incluse dans une bande spectrale du proche infrarouge .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel chaque macropixel comporte un premier pixel élémentaire laissant passer une première bande spectrale élémentaire Bel , un deuxième pixel élémentaire laissant passer une deuxième bande spectrale élémentaire Be2 , un troisième pixel élémentaire laissant passer une troisième bande spectrale élémentaire Be3 , et un quatrième pixel élémentaire laissant passer une quatrième bande spectrale élémentaire Be4 , les pixels élémentaires étant tels que :

Be1 < Be2 < Be3 < Be4 .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel , lorsque la mosaïque de filtres est vue de face et orientée selon l ' orientation prédéfinie, chaque macropixel est agencé de sorte que le premier pixel élémentaire est situé en haut à gauche , le deuxième pixel élémentaire est situé en haut à droite, le troisième pixel élémentaire est situé en bas à gauche , et le quatrième pixel élémentaire est situé en bas à droite dudit macropixel .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel l ' unité de traitement est agencée pour conférer, à chaque composante spectrale de l ' hyperpixel associé à un pixel élémentaire particulier d' un super-macropixel particulier, une valeur égale au signal de sortie du capteur associé au pixel élémentaire appartenant audit super-macropixel particulier et laissant passer la bande spectrale élémentaire correspondant à ladite composante spectrale .

On propose de plus un dispositif d' acquisition tel que précédemment décrit , dans lequel l ' unité de traitement est agencée pour conférer, à chaque composante spectrale de l' hyperpixel associé à un pixel élémentaire particulier d' un super-macropixel particulier, une valeur obtenue par interpolation des signaux de sortie des capteurs associés à des pixels élémentaires voisins du pixel élémentaire particulier et laissant passer la bande spectrale élémentaire correspondant à ladite composante spectrale .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel l ' unité de traitement est agencée pour conférer, à chaque composante spectrale de l ' hyperpixel associé à un pixel élémentaire particulier d' un super-macropixel particulier, une valeur égale au signal de sortie du capteur associé à un pixel élémentaire , laissant passer la bande de spectrale élémentaire correspondant à ladite composante spectrale , ledit pixel élémentaire appartenant à une fenêtre glissante ayant la taille d' un super-macropixel et à laquelle appartient le pixel élémentaire particulier .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, l ' unité de traitement étant en outre agencée pour produire une image en couleur et infrarouge à partir des signaux de sortie des capteurs .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel l ' unité de traitement est agencée, pour produire l ' image en couleur et infrarouge, pour mettre en œuvre une opération de regroupement spatial de pixels élémentaires , puis un algorithme de reproduction de couleur, l ' opération de regroupement de pixels élémentaires consistant à associer une unique valeur intermédiaire à chaque macropixel de chaque super- macropixel , ladite valeur intermédiaire étant obtenue par pondération des signaux de sortie des capteurs associés aux pixels élémentaires dudit macropixel .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, comprenant en outre un filtre coupe- bande, positionné au niveau d' une pupille d' une caméra dans laquelle est intégré le dispositif d' acquisition, le filtre coupe-bande étant conçu pour couper une bande spectrale frontière située entre la troisième bande spectrale globale et la quatrième bande spectrale globale .

On propose de plus un dispositif d' acquisition tel que précédemment décrit, dans lequel la bande spectrale frontière appartient au moins partiellement à la bande spectrale rouge , et dans lequel la troisième bande spectrale globale est décalée de manière à ne pas présenter de recouvrement avec la bande spectrale frontière .

On propose de plus une caméra comprenant un dispositif d' acquisition tel que précédemment décrit .

L' invention sera mieux comprise à la lumière de la description qui suit d' un mode de mise en œuvre particulier non limitatif de l ' invention .

BREVE DESCRIPTION DES DESSINS

Il sera fait référence aux dessins annexés parmi lesquels :

La figure 1 représente un dispositif d' acquisition selon l ' invention ;

La figure 2 représente une mosaïque de filtres et un super- macropixel ;

La figure 3 représente un super-macropixel ; La figure 4 illustre une méthode de sous-échantillonnage pouvant être mise en œuvre pour obtenir des hyperpixels associés aux pixels élémentaires ;

La figure 5 illustre une méthode d' interpolation pouvant être mise en œuvre pour obtenir des hyperpixels associés aux pixels élémentaires ;

La figure 6 illustre une méthode de fenêtre glissante pouvant être mise en œuvre pour obtenir des hyperpixels associés aux pixels élémentaires ;

La figure 7 représente des bandes spectrales des résines et des pixels élémentaires ;

La figure 8 représente la bande spectrale frontière coupée par un filtre Notch .

DESCRIPTION DETAILLEE DE L' INVENTION

En référence à la figure 1 , le dispositif d' acquisition selon l ' invention 1 comprend une mosaïque de filtres 2 , un photodétecteur 3 et une unité de traitement interne 4 .

Le dispositif d' acquisition 1 est intégré dans une caméra 6 .

Une unité de traitement externe 5 est reliée à l ' unité de traitement interne 4 . Ici , l ' unité de traitement externe 5 est située à distance de la caméra 6 , mais elle pourrait parfaitement être intégrée dans la caméra 6 (et par exemple partager des ressources électroniques ou logicielles avec l ' unité de traitement interne 4 ) .

La mosaïque de filtres 2 contient n*m pixels élémentaires .

Le photodétecteur 3 intègre une matrice de capteurs comprenant aussi n*m capteurs , chaque capteur formant un pixel physique et étant associé à un pixel élémentaire distinct .

Les capteurs sont par exemple des capteurs CCD (pour Charged Coupled Device) ou CMOS (pour Complementary Metal Oxide Semiconductor) .

L' unité de traitement interne 4 est une unité électronique et logicielle . L' unité de traitement interne 4 acquiert les signaux de sortie produits par les capteurs et les analyse pour produire des images multispectrales et des images en couleur et infrarouge .

L' unité de traitement externe 5 est aussi une unité électronique et logicielle .

L' unité de traitement externe 5 acquiert les images multispectrales et les images en couleur et infrarouge et réalise l ' opération de décamouflage .

L' unité de traitement interne 4 comprend au moins un composant de traitement 8 adapté à exécuter des instructions de programmes .

Le composant de traitement 8 est par exemple un microcontrôleur, un processeur classique , un GPU (pour Graphics Processing Uni t, que l ' on peut traduire par « processeur graphique ») , un DSP (pour Digi tal Signal Processor, que l ' on peut traduire par « processeur de signal numérique ») , ou bien un circuit logique programmable tel qu' un FPGA (pour Field Programmable Gate Arrays) ou un ASIC (pour Application Specific Integrated Circui t) .

L' unité de traitement interne 4 comprend aussi au moins une mémoire 9 permettant notamment de stocker les instructions des programmes qui viennent d' être évoqués .

De même , l ' unité de traitement externe 5 comprend au moins un composant de traitement 10 et au moins une mémoire 11 .

On s ' intéresse maintenant plus particulièrement à la mosaïque de filtres 2 .

En référence aux figures 2 et 3 , la mosaïque de filtres 2 comprend des super-macropixels SM qui sont tous identiques .

Chaque super-macropixel SM comporte une pluralité de macropixels M comprenant chacun une pluralité de pixels élémentaires Pe .

Ici , chaque super-macropixel SM comporte quatre macropixels M comprenant chacun quatre pixels élémentaires Pe .

Chaque super-macropixel SM et chaque macropixel M ont chacun la forme d' un carré .

Dans chaque super-macropixel SM, chaque macropixel M dudit super-macropixel SM forme un filtre passe-bande global laissant passer une bande spectrale globale , les bandes spectrales globales étant distinctes et successives .

Par « distinctes et sucessives », on entend qu' il est possible d' ordonner les N bandes spectrales globales d' un super-macropixel Bg1 , Bg2 , ...Bgi , ..., BgN selon une liste telle que : Bg1 < Bg2 < ... < Bgi <... < BgN .

Cela signifie que la longueur d' onde maximale de Bg1 est inférieure à la longueur d' onde minimale de Bg2 , que la longueur d' onde maximale de Bg2 est inférieure à la longueur d' onde minimale de Bg3 , etc .

Les macropixels M comprennent donc ici un premier macropixel M1 laissant passer une première bande spectrale globale Bg1 , un deuxième macropixel M2 laissant passer une deuxième bande spectrale globale Bg2 , un troisième macropixel M3 laissant passer une troisième bande spectrale globale Bg3 et un quatrième macropixel M4 laissant passer une quatrième bande spectrale globale Bg4 , les macropixels M étant tels que : Bg1 < Bg2 < Bg3 < Bg4 .

Les bandes spectrales globales sont équiréparties par sous domaines Bleu, Vert, Rouge , Proche Infrarouge .

La première bande spectrale globale Bg1 est incluse dans une bande spectrale bleue, la deuxième bande spectrale globale Bg2 est incluse dans une bande spectrale verte, la troisième bande spectrale globale Bg3 est incluse dans une bande spectrale rouge , et la quatrième bande spectrale globale Bg4 est incluse dans une bande spectrale du proche infrarouge ( PIR) .

Le premier macropixel M1 est fabriqué avec une résine bleue (ReB) . Le deuxième macropixel M2 est fabriqué avec une résine verte (ReV) . Le troisième macropixel M3 est fabriqué avec une résine rouge (ReR) . Le quatrième macropixel M4 est fabriqué avec une résine PIR (ReP) .

Lorsque la mosaïque de filtres 2 est vue de face et orientée selon une orientation prédéfinie , qui correspond en l ' occurrence à l ' orientation visible sur la figure 2 , chaque super-macropixel SM est agencé de sorte que le premier macropixel M1 est situé en haut à gauche, le deuxième macropixel M2 est situé en bas à droite, le troisième macropixel M3 est situé en bas à gauche, et le quatrième macropixel M4 est situé en haut à droite dudit super- macropixel SM .

On constate que, dans chaque super-macropixel SM, pour tout couple de deux macropixels M appartenant audit super- macropixel et ayant un côté commun ou une portion de côté commune, les bandes spectrales globales associées auxdits deux macropixels M ne sont pas adj acentes .

Par « bandes spectrales globales adj acentes », on entend deux bandes qui se suivent dans la liste évoquée plus tôt .

De même , pour chaque macropixel M d' un super-macropixel SM, chaque pixel élémentaire Pe dudit macropixel M forme un filtre passe-bande élémentaire laissant passer une bande spectrale élémentaire, les bandes spectrales élémentaires étant distinctes et successives.

Ainsi, pour le premier macropixel M1 (bleu) , comprenant le groupe de pixels élémentaires {B1, B2, B3, B4}, on a :

Be_B1 < Be_B2 < Be_B3 < Be_B4, où Be_B1 est la bande spectrale élémentaire du pixel élémentaire B1, Be_B2 est la bande spectrale élémentaire du pixel élémentaire B2, Be_B3 est la bande spectrale élémentaire du pixel élémentaire B3, et Be_B4 est la bande spectrale élémentaire du pixel élémentaire B4.

Pour le deuxième macropixel M2 (vert) , comprenant le groupe de pixels élémentaires {V1, V2, V3, V4}, on a :

Be_V1 < Be_V2 < Be_V3 < Be_V4, où Be_V1 est la bande spectrale élémentaire du pixel élémentaire V1, Be_V2 est la bande spectrale élémentaire du pixel élémentaire V2, Be_V3 est la bande spectrale élémentaire du pixel élémentaire V3, et Be_V4 est la bande spectrale élémentaire du pixel élémentaire V4.

Pour le troisième macropixel M3 (rouge) , comprenant le groupe de pixels élémentaires {R1, R2, R3, R4 } , on a :

Be_R1 < Be_R2 < Be_R3 < Be_R4, où Be_R1 est la bande spectrale élémentaire du pixel élémentaire R1, Be_R2 est la bande spectrale élémentaire du pixel élémentaire R2, Be_R3 est la bande spectrale élémentaire du pixel élémentaire R3, et Be_R4 est la bande spectrale élémentaire du pixel élémentaire R4.

Pour le quatrième macropixel M4 (proche infrarouge) , comprenant le groupe de pixels élémentaires {PIR1, PIR2, PIR3, PIR4 } , on a :

Be_PIR1 < Be_PIR2 < Be_PIR3 < Be_PIR4, où Be_PIR1 est la bande spectrale élémentaire du pixel élémentaire PIR1 , Be_PIR2 est la bande spectrale élémentaire du pixel élémentaire PIR2 , Be_PIR3 est la bande spectrale élémentaire du pixel élémentaire PIR3, et Be_PIR4 est la bande spectrale élémentaire du pixel élémentaire PIR4 .

Ainsi , chaque macropixel M comporte un premier pixel élémentaire laissant passer une première bande spectrale élémentaire Bel , un deuxième pixel élémentaire laissant passer une deuxième bande spectrale élémentaire Be2 , un troisième pixel élémentaire laissant passer une troisième bande spectrale élémentaire Be3 , et un quatrième pixel élémentaire laissant passer une quatrième bande spectrale élémentaire Be4 , les pixels élémentaires étant tels que : Be1 < Be2 < Be3 < Be4 .

Les Bel , Be2 , Be3 , Be4 dependent du micropixel concerné .

Lorsque la mosaïque de filtres 2 est vue de face et orientée selon l' orientation prédéfinie , chaque macropixel M est agencé de sorte que le premier pixel élémentaire dudit macropixel M est situé en haut à gauche, le deuxième pixel élémentaire est situé en haut à droite, le troisième pixel élémentaire est situé en bas à gauche , et le quatrième pixel élémentaire est situé en bas à droite dudit macropixel M .

Le filtre passe-bande élémentaire de chaque pixel élémentaire Pe a typiquement une FWHM ( Full Width at Half Maximum, ou « largeur à mi-hauteur ») égale à environ 20nm .

Le filtre passe-bande global de chaque macropixel M a typiquement une FWHM égale à environ 80nm .

La disposition relative des macropixels M est importante pour limiter la contiguïté géométrique des bandes spectrales adj acentes , et donc pour limiter la diaphonie .

On décrit maintenant les traitements réalisés par l ' unité de traitement interne 4 pour produire une image multispectrale ( aussi appelée hypercube) à partir des signaux de sortie des capteurs.

L'image multispectrale comporte, pour chaque pixel élémentaire Pe, un hyperpixel comprenant une pluralité de composantes spectrales, c'est à dire une composante spectrale par bande spectrale élémentaire. Chaque hyperpixel comprend donc ici 16 composantes spectrales associées chacune à une bande spectrale élémentaire distincte.

Contrairement à d'autres architectures optiques, pour lesquelles la formation de l'image multispectrale consiste par exemple à « empiler » les imagettes, l'utilisation de la mosaïque de filtres a pour conséquence que les pixels filtrés ne sont pas cohérents spatialement.

Par conséquent, comme pour un capteur couleur à matrice dite « de Bayer », l'unité de traitement interne 4 utilise un algorithme pour calculer les valeurs spectrales correspondant à chaque hyperpixel .

L'optique et l'algorithme de formation de l'image multispectrale sont dimensionnés pour maximiser la performance du dispositif d'acquisition 1, et en particulier, pour optimiser la portée de détection (ou la taille apparente de la plus petite cible détectable) . Ce dimensionnement doit s'appuyer sur un modèle de prédiction de cette portée de détection, ou, à tout le moins, sur un modèle analytique permettant de positionner en relatif les portées données par différentes architectures de capteur, d'optique et de mise en forme des données spectrales.

En effet, la portée est intimement liée à l'étendue angulaire de la zone qui contribue à la formation d'un hyperpixel, au pas d'échantillonnage spatial des hyperpixels, mais aussi à l'écart angulaire séparant deux points pour éviter un « mélange spectral » dans l'évaluation de leur spectre respectif. Les contributeurs sont à la fois l'optique (pouvoir séparateur) et l'algorithme de formation de l' hypercube.

On présente ici trois modes de reconstitution de l'image multispectrale .

La figure 4 illustre un premier mode de reconstitution. On voit quatre super-macropixels SM sur la figure 4.

Le premier mode de reconstitution consiste, pour l'unité de traitement interne 4, à conférer, à chaque composante spectrale 14 de l'hyperpixel HP associé à un pixel élémentaire particulier Pe d'un super-macropixel particulier SM, une valeur égale au signal de sortie du capteur associé au pixel élémentaire Pe appartenant audit super-macropixel particulier SM et laissant passer la bande spectrale élémentaire correspondant à ladite composante spectrale 14.

Les quatre hyperpixels HP de la figure 4 sont donc distincts, chaque hyperpixel HP étant associé à tous les pixels élémentaires Pe d'un même super-macropixel SM.

Pour ne pas mélanger les bandes spectrales (condition de non mélange) , il convient cependant que la taille apparente de la cible que l'on cherche à décamoufler soit supérieure ou égale à 2x2 macropixels M pour toujours englober au moins un super-macropixel SM complet.

Le premier mode de reconstitution introduit un sous- échantillonnage relativement fort. Cependant, ce mode de reconstitution a pour avantage de ne pas impacter la radiométrie, car aucun traitement de type interpolation ou lissage n'est réalisé. Le volume de données utilisé pour produire l'image multispectrale correspond au volume initial .

En référence à la figure 5, un deuxième mode de reconstitution consiste, pour l'unité de traitement interne 4, à conférer, à chaque composante spectrale de l'hyperpixel HP associé à un pixel élémentaire particulier Pe d' un super- macropixel particulier, une valeur obtenue par interpolation des signaux de sortie des capteurs associés à des pixels élémentaires voisins du pixel élémentaire particulier et laissant passer la bande spectrale élémentaire correspondant à ladite composante spectrale .

Dans ce deuxième mode de reconstitution, l ' unité de traitement interne 4 restitue donc, pour chaque pixel élémentaire , un hyperpixel en calculant la valeur des différentes bandes spectrales par interpolation à partir des valeurs mesurées sur les pixels physiques voisins correspondant à cette bande , comme le ferait , pour une image couleur, un traitement de type « de Bayer » .

Cette solution, sur le principe, permet donc de calculer autant d' hyperpixels que de pixels élémentaire , et donc de restituer un hypercube « haute résolution » .

Pour ne pas mélanger les bandes spectrales ( condition de non mélange ) , il convient cependant que la cible ait une largeur et une hauteur qui couvrent les pixels élémentaires entrant dans l ' algorithme d' interpolation .

Le dessin de gauche de la figure 5 illustre un cas où l ' interpolation met en j eu les pixels élémentaires de même bande spectrale encadrant 1 ' hyperpixel à calculer .

Le choix du deuxième mode de reconstitution, et donc de l ' algorithme d' interpolation, peut faire décroître l ' impact du pixel physique le plus éloigné, et la zone de non mélange peut tendre à se rapprocher de la taille du super-macropixel .

En référence à la figure 6 , un troisième mode de reconstitution consiste, pour l ' unité de traitement interne 4 , à conférer, à chaque composante spectrale de 1 ' hyperpixel associé à un pixel élémentaire particulier d' un super- macropixel particulier, une valeur égale au signal de sortie du capteur associé à un pixel élémentaire , laissant passer la bande de spectrale élémentaire correspondant à ladite composante spectrale, ledit pixel élémentaire appartenant à une fenêtre glissante 15 ayant la taille d' un super- macropixel et à laquelle appartient le pixel élémentaire particulier .

Ainsi , sur la figure 6 , l' hyperpixel HP1 est associé au pixel élémentaire Pel alors que l ' hyperpixel HP2 est associé au pixel élémentaire Pe2 .

Ce mode restitue donc un hyperpixel pour chaque pixel physique en affectant, pour chaque bande spectrale élémentaire , la valeur du pixel physique le plus proche correspondant à cette bande . Cela équivaut donc à déplacer sur le capteur, de pixel en pixel , la fenêtre 15 , et d' affecter à l ' hyperpixel correspondant les valeurs ré- ordonnées prélevées dans cette fenêtre 15 .

Cette solution permet de calculer autant d' hyperpixels que de pixels physiques , et donc de restituer une image spectrale « haute résolution » . Cette logique du « plus proche voisin » est celle qui limite le plus le support d' interpolation : quelle que soit la position de la fenêtre 15 , l ' ensemble des longueurs d' onde est représenté dans un voisinage proche .

Pour ne pas mélanger les bandes spectrales ( condition de non mélange ) , il convient cependant que la cible ait une largeur et une hauteur proches de celles d' un super- macropixel SM .

On s ' intéresse maintenant à la synthèse des voies j our couleurs VJC et PIRL (proche infrarouge large bande ) .

L' unité de traitement interne 4 produit une image en couleur et infrarouge à partir des signaux de sortie des capteurs . Par « image en couleur et infrarouge », on entend une image formant une composition colorée et produite à partir de bandes spectrales bleu, rouge, verte , et infrarouge ( ici proche infrarouge ) .

Pour produire l ' image couleur et infrarouge, l ' unité de traitement interne 4 met tout d' abord en œuvre une opération de binning spatial de pixels élémentaires Pe ( c' est-à-dire une opération de regroupement spatial de pixels élémentaires Pe) . Le binning spatial permet d' obtenir une image intermédiaire .

Le binning spatial consiste à associer une unique valeur intermédiaire à chaque macropixel M de chaque super- macropixel SM, ladite valeur intermédiaire étant obtenue par pondération des signaux de sortie des capteurs associés aux pixels élémentaires dudit macropixel .

On a donc : où B Super-macropixel (i 0 , j 0 ) est la valeur intermédiaire d' un pixel élémentaire Pe appartenant à un premier macropixel M1 (bleu) , θ B est un premier coefficient de pondération, et les Pixel(i,j) sont les signaux de sortie des capteurs associés aux pixels élémentaires Pe appartenant audit premier macropixel M1 ; où V Super-macropixel (i 0 , j 0 ) est la valeur intermédiaire d' un pixel élémentaire Pe appartenant à un deuxième macropixel M2 (vert) , θ V est un deuxième coefficient de pondération, et les Pixel(i,j) sont les signaux de sortie des capteurs associés aux pixels élémentaires Pe appartenant audit deuxième macropixel M2 ; où R Super-macropixel (i 0 , j 0 ) est la valeur intermédiaire d' un pixel élémentaire Pe appartenant à un troisième macropixel M3 (rouge) , θ R est un troisième coefficient de pondération, et les Pixel(i,j) sont les signaux de sortie des capteurs associés aux pixels élémentaires Pe appartenant audit troisième macropixel M3 ; où PIR Super-macropixel (i 0 , j 0 ) est la valeur intermédiaire d' un pixel élémentaire Pe appartenant à un quatrième macropixel M4 ( PIR) , θ PIR est un quatrième coefficient de pondération, et les Pixel(i,j) sont les signaux de sortie des capteurs associés aux pixels élémentaires Pe appartenant audit quatrième macropixel M4 .

On met donc en œuvre un binning spatial 2x2 (par macropixel ) suivant les groupes .

Pour des pixels élémentaires de taille 4μm x 4μm à 6μm x 6μm, on obtient donc des pixels équivalents ayant pour taille 8μm x 8μm à 12μm x 12μm .

On obtient ainsi un gain en sensibilité ( car la calibration colorimétrique est sensible au bruit dans les images à petits pixels et dans les images à faible flux) . L' image est obtenue par une seule lecture pour 4 pixels élémentaires .

On obtient de plus un étalement de la PSF (pour Point Spread. Function, ou fonction d' étalement du point) par réglage de l ' optique suivant 2x2 pixels élémentaires (pixel élémentaire supérieur ou égal à 4μm x 4μm) , et une décontrainte sur l ' optique en terme de fréquence de coupure optique . La résolution optique est réduite et la tâche optique est étalée .

Avantageusement, le regroupement spatial est réalisé en hardware , c' est-à-dire par des composants électroniques (et non logiciels ) . Cela permet une amélioration du rapport signal à bruit capteur . Les charges accumulées de chaque pixel physique sont par exemple cumulées en utilisant des portes de sommation pour obtenir les valeurs intermédiaires de l ' image intermédiaire .

L' image en couleur et infrarouge est ensuite reconstituée à partir de l ' image intermédiaire , et donc à partir des bandes synthétisées des macropixels de chaque super-macropixel .

On voit sur la figure 7 la première bande spectrale globale Bg1 (transmission optique ) de la première résine (bleue) , la deuxième bande spectrale globale Bg2 de la deuxième résine (verte) , la troisième bande spectrale globale Bg3 de la troisième résine (rouge ) et la quatrième bande spectrale Bg4 de la quatrième résine ( PIR) .

On voit aussi , pour chaque bande spectrale globale, les bandes spectrales élémentaires associées Be1 , Be2 , Be3 , Be4 .

Les résines peuvent présenter des imperfections produisant des rebonds dans le domaine du proche infrarouge . Il peut être pertinent d' améliorer la zone spectrale de transition entre le domaine visible (B, V, R) et le domaine du proche infrarouge , pour éviter que les profils de transmission des résines ne soient perturbés .

On utilise donc un filtre Notch ( filtre coupe-bande ) positionné au niveau de la pupille de la caméra 6 .

En référence à la figure 8 , le filtre Notch permet de couper une bande spectrale frontière Bf située entre la troisième bande spectrale globale Bg3 (rouge) et la quatrième bande spectrale globale Bg4 (proche infrarouge) .

La réponse du filtre Notch présente une pente descendante à partir d'une longueur d'onde supérieure à 680nm, et une pente montante à partir d'une longueur d'onde inférieure à 730nm.

Avantageusement, on prévoit que la bande spectrale frontière Bf soit située dans la bande spectrale rouge Br, comme cela est visible sur la figure 8. On décale alors la troisième bande spectrale globale Bg3 de sorte que la troisième bande spectrale globale Bg3 et la bande spectrale frontière Bf ne présentent pas de recouvrement.

On voit sur la figure 8 que la longueur d'onde centrale de la troisième bande spectrale globale Bg3 est légèrement réduite, ce qui décale vers la gauche la troisième bande spectrale globale.

On sépare ainsi beaucoup mieux les composantes rouges des composantes proche infrarouge.

Avantageusement, on utilise aussi une lame de quartz formant un filtre passe-bas. Le filtre passe-bas est positionné juste avant la matrice de capteurs et permet de réduire les interférences produites par la mosaïque de filtres .

Suite à ces traitements, l'unité de traitement interne 4 produit une image combinée à partir de l'image multispectrale et de l'image en couleur et infrarouge, et transmet directement l'image combinée à l'unité de traitement externe 5. Alternativement, l'unité de traitement externe 5 acquiert l'image multispectrale et l'image en couleur et infrarouge.

L'unité de traitement externe 5 met alors en œuvre le décamouflage supra pour tenter de détecter la présence de la cible . Dans le cas d'une ambiance lumineuse normale, le dispositif d'acquisition 1 est configuré pour réaliser une défocalisation et un étalement de la PSF sur les 4x4 pixels élémentaires Pe de chaque super-macropixel SM.

L'image hyperspectrale est formatée en luminance absolue avec un procédé de calibration.

Un procédé d'accentuation de contraste est alors mis en œuvre. Le procédé d'accentuation de contraste utilise possiblement des effets de transparence et/ou de rémanence (voir par exemple le document FR 3 011 663 B1) .

On utilise ensuite une métrique, représentative d'un contraste dans la scène, pour réaliser le décamouflage. La métrique est calculée à partir des 16 bandes spectrales élémentaires .

L'image en couleur et infrarouge est reconstruite pour constituer la voie support (aucun binning pour l'application) . La calibration est faite avec binning. Les bandes B, V, R et PIRL sont synthétisés numériquement.

On n'utilise pas de binning pour l'application VJC, mais une pondération « custom » (personnalisée, adaptée à l'application) des bandes pour constituer la VJC, moins sensible au métamérisme de couleurs. Les coefficients de pondération sont stockés dans une table de correspondance (LUT) spécifique à couleurs saturées.

Dans le cas d'une ambiance lumineuse à faible éclairement solaire, le dispositif d'acquisition 1 est configuré pour réaliser une défocalisation et un étalement de la PSF sur les 2x2 macropixels M du super-macropixel SM. On obtient un gain de sensibilité car l'analyse est faite sur la base du macropixel (2x2 pixels élémentaires) .

L'image hyperspectrale est formatée avec un procédé de calibration VJC + PIRL. Un procédé d'accentuation de contraste est alors mis en œuvre. Le procédé d'accentuation de contraste utilise possiblement des effets de transparence et/ou de rémanence.

On utilise ensuite une métrique, représentative d'un contraste dans la scène, pour réaliser le décamouflage. La métrique est calculée sur 4 bandes spectrales seulement (du fait du binning) .

L'image en couleur et infrarouge est reconstruite pour constituer la voie support (on utilise le binning pour l'application) . La calibration est faite avec binning. Les bandes B, V, R et PIRL sont synthétisés numériquement.

Bien entendu, l'invention n'est pas limitée au mode de réalisation décrit mais englobe toute variante entrant dans le champ de l'invention telle que définie par les revendications .

Les bandes spectrales globales peuvent parfaitement être différentes de celles décrites ici. Toute bande des domaines du visible, du proche infrarouge PIR ou NIR (Near InfraRed) , ou de l'infrarouge court SWIR (Short Wavelength Infrared) , pourrait par exemple être utilisée.

Les super-macropixels et les macropixels peuvent être différents de ceux présentés ici : nombre différent de pixels élémentaires ou de macropixels, forme différente des macropixels ou du super-macropixel, etc.