Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND DEVICE FOR OPTICAL DETECTION
Document Type and Number:
WIPO Patent Application WO/2021/156560
Kind Code:
A1
Abstract:
Method (100) for optical detection of an object by an image sensor, the object and the image sensor being movable relative to each other, the image sensor being configured to receive a measurement of a movement speed of the sensor, which speed is measured in a frame of reference that is fixed relative to the object, the method comprising the following steps: defining (101) an area in an image plane of the sensor which comprises a central point; calculating a movement speed (102) from a virtual image point in the image plane, the virtual image point being a virtual image of a virtual object point formed on the image plane at the central point of the area, the movement speed being calculated on the basis of the movement speed of the image sensor; determining (103) an integration time which is an increasing function of the movement speed; acquiring (104) a raw image on the basis of the integration time; calculating a reference image (105) as a function of an estimated movement of the image point during the integration time; calculating a corrected image (106); selecting (107) pixels in the corrected image.

Inventors:
MONTEL JOHAN (FR)
Application Number:
PCT/FR2021/050165
Publication Date:
August 12, 2021
Filing Date:
January 29, 2021
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CENTRE NAT ETD SPATIALES (FR)
International Classes:
G01S5/16; G01S3/786; G06T7/20; G06T7/70
Domestic Patent References:
WO2012002731A22012-01-05
Foreign References:
US20170122734A12017-05-04
FR2997258A12014-04-25
Attorney, Agent or Firm:
CABINET GERMAIN ET MAUREAU (FR)
Download PDF:
Claims:
REVENDICATIONS

Ί. Procédé (100) de détection optique d'un objet (2) par un capteur d'images (1), le capteur d'images (1) et l'objet (2) étant mobiles l'un par rapport à l'autre, le capteur d'images (1) étant configuré pour recevoir une mesure d'une vitesse de déplacement du capteur d'images (1), la vitesse de déplacement étant mesurée dans un repère fixe par rapport à l'objet, le procédé comprenant les étapes suivantes :

- définition (101) d'une zone dans un plan image (3) du capteur d'images (1), ladite zone comprenant un point central;

- calcul d'une vitesse de déplacement (102) d'un point image virtuel dans le plan image, le point image virtuel étant une image virtuelle d'un point objet virtuel, formée sur le plan image (3) au point central de la zone, la vitesse de déplacement du point image virtuel étant calculée à partir de la mesure de la vitesse de déplacement du capteur d'images;

- calcul et détermination (103) d'un temps d'intégration, le temps d'intégration calculé étant une fonction croissante de la vitesse de déplacement calculée;

- acquisition (104) d'une image brute sur la base du temps d'intégration déterminé;

- calcul d'une image de référence (105) fonction d'un déplacement estimé du point image virtuel sur le plan image pendant le temps d'intégration, le déplacement estimé étant estimé sur la base du temps d'intégration et de la vitesse de déplacement calculée du point image virtuel sur le plan image;

- calcul d'une image corrigée (106) fonction de l'image brute et de l'image de de référence ;

- sélection (107) de pixels dans l'image corrigée, les pixels sélectionnés ayant une valeur supérieure à un seuil prédéterminé.

2. Procédé (100) selon la revendication 1, comprenant une étape de détermination d'une position (108) dans le plan image d'une image d'un point de l'objet, en fonction de la position et de la valeur des pixels sélectionnés dans l'image corrigée.

3. Procédé (100) selon l'une des revendications 1 ou 2, dans laquelle l'image de référence est calculée sur la base d'une réponse impulsionnelle locale au point image et sur la base du déplacement estimé du point image.

4. Procédé (100) selon l'une des revendications 1 à 3, dans laquelle l'image corrigée est la corrélation croisée de l'image brute avec l'image de référence.

5. Procédé (100) selon la revendication 1, dans laquelle l'étape de définition (101) d'une zone comprend la définition (101) d'une pluralité de zones dans le plan image, ladite pluralité de zones formant une partition du plan image, chaque zone de la pluralité de zones comprenant un point central de ladite zone.

6. Procédé (100) selon la revendication 5, dans laquelle l'étape de calcul de la vitesse de déplacement (102) du point image virtuel est mise en oeuvre au point central de chaque zone de la pluralité de zones, et dans laquelle l'étape de calcul et détermination (103) du temps d'intégration comprend une étape de calcul d'un temps d'intégration pour le point central de chaque zone de la pluralité de zones, en fonction de la vitesse de déplacement calculée pour ledit point central de ladite zone, et une étape de sélection d'un temps d'intégration déterminé, parmi les temps d'intégration calculés, la sélection étant réalisée, selon un critère de sélection, le temps d'intégration calculé pour le point central de chaque zone de la pluralité de zones étant une fonction croissante de la vitesse de déplacement calculée pour le point central de chaque zone de la pluralité de zones à l'étape de calcul de la vitesse de déplacement (102).

7. Procédé (100) selon la revendication 6, dans laquelle l'étape de calcul d'une image de référence (105) comprend le calcul d'une pluralité d'images de référence, chaque image de référence étant fonction du déplacement estimé, pendant le temps d'intégration, du point image virtuel au point central de chaque zone de la pluralité de zones;

8. Procédé (100) selon la revendication 7, dans laquelle l'étape de calcul d'une image corrigée (106) comprend, pour chaque zone de la pluralité de zones dans le plan image, le calcul d'une image corrigée (106) obtenue par une agrégation d'une pluralité d'images corrigées élémentaires, chaque image corrigée élémentaire étant calculée sur la base de l'image brute et d'une image de référence de la pluralité d'images de référence.

9. Dispositif (10) de détection optique d'un objet (2), le dispositif comprenant un capteur d'images (1), le capteur d'images (1) et l'objet (2) étant en mouvement l'un par rapport à l'autre, le capteur d'images (1) étant configuré pour recevoir une mesure d'une vitesse de déplacement du capteur d'images (1), la vitesse de déplacement du capteur d'images (1) étant mesurée dans un repère fixe par rapport à l'objet (2), le dispositif (10) de détection comprenant en outre un module de traitement configuré pour recevoir et traiter les images acquises par le capteur, le module de traitement comprenant :

- un module de définition configuré pour définir au moins une zone dans un plan image du capteur d'images, l'au moins une zone comprenant un point central;

- un premier module de calcul configuré pour calculer une vitesse de déplacement d'un point image virtuel dans le plan image, le point image virtuel étant une image virtuelle, d'un point objet virtuel, formée sur le plan image au point central de l'au moins une zone, la vitesse de déplacement du point image étant calculée à partir de la mesure de la vitesse de déplacement du capteur d'images;

- un deuxième module, configuré pour calculer un temps d'intégration calculé selon une fonction croissante de la vitesse de déplacement calculée du point image virtuel au point central de l'au moins une zone, et pour déterminer un temps d'intégration déterminé sur la base du temps d'intégration calculé au point central de l'au moins une zone, et pour commander l'acquisition par le capteur d'images (Ί) d'une image brute, sur la base du temps d'intégration déterminé;

- un troisième module configuré pour calculer une image de référence fonction du déplacement estimé, pendant le temps d'intégration, du point image virtuel au point central de l'au moins une zone sur le plan image, le déplacement estimé étant estimé sur la base du temps d'intégration et de la vitesse de déplacement calculée du point image virtuel;

- un quatrième module configuré pour calculer une image corrigée fonction de l'image brute et de l'image de de référence ;

- un cinquième module configuré pour sélectionner des pixels dans l'image corrigée, les pixels sélectionnés ayant une valeur supérieure à un seuil prédéterminé.

10. Programme d'ordinateur comprenant un ensemble d'instructions exécutables sur le processeur d'un ordinateur, configuré pour que lorsque ledit ensemble d'instructions est exécuté sur ledit processeur le procédé selon l'une des revendications Ί à 8 est mis en oeuvre.

11. Support lisible par un ordinateur, ledit support comprenant un ensemble d'instructions exécutables sur le processeur d'un ordinateur, configuré pour que lorsque ledit ensemble d'instructions est exécuté sur ledit processeur le procédé selon l'une des revendications 1 à 8 est mis en oeuvre.

Description:
DESCRIPTION

TITRE : Procédé et dispositif de détection optique.

La présente invention concerne le domaine des méthodes et dispositifs de détection optique d'objet.

Dans le domaine spatial, il est connu de contrôler l'attitude/l'orientation d'un satellite dans l'espace par l'utilisation d'un senseur stellaire, configuré pour détecter, par un moyen d'observation optique, des objets célestes, des étoiles notamment ; la détection de ces objets, dont les positions angulaires sont connues dans un repère inertiel, permet ensuite de déterminer l'orientation du satellite dans ce repère, par référence à la cartographie connue de ces objets détectés et identifiés.

L'inconvénient des méthodes et dispositifs connus dans ce domaine est que le rapport signal sur bruit n'est pas toujours suffisant pour permettre, en phase d'accrochage, une bonne détection, notamment dans le cas des nano satellites qui doivent être équipés de senseurs stellaires plus petits, avec un rapport signal à bruit plus faible, et/ou dans le cas de fortes vitesses angulaires au moment de la phase d'accrochage qui est la phase critique du fonctionnement des senseurs stellaires.

L'invention a donc pour but de proposer une solution à tout ou partie de ces problèmes.

A cet effet, la présente invention concerne un procédé de détection optique d'un objet par un capteur d'images, le capteur d'images et l'objet étant mobiles l'un par rapport à l'autre, le capteur d'images étant configuré pour recevoir une mesure d'une vitesse de déplacement du capteur d'images, la vitesse de déplacement étant mesurée dans un repère fixe par rapport à l'objet, le procédé comprenant les étapes suivantes :

- définition d'une zone dans un plan image du capteur d'images, ladite zone comprenant un point central;

- calcul d'une vitesse de déplacement d'un point image virtuel dans le plan image, le point image virtuel étant une image virtuelle d'un point objet virtuel, formée sur le plan image au point central de la zone, la vitesse de déplacement du point image virtuel étant calculée à partir de la mesure de la vitesse de déplacement du capteur d'images;

- calcul et détermination d'un temps d'intégration, le temps d'intégration calculé étant une fonction croissante de la vitesse de déplacement calculée;

- acquisition d'une image brute sur la base du temps d'intégration déterminé;

- calcul d'une image de référence fonction d'un déplacement estimé du point image virtuel sur le plan image pendant le temps d'intégration, le déplacement estimé étant estimé sur la base du temps d'intégration et de la vitesse de déplacement calculée du point image virtuel sur le plan image;

- calcul d'une image corrigée fonction de l'image brute et de l'image de de référence ;

- sélection de pixels dans l'image corrigée, les pixels sélectionnés ayant une valeur supérieure à un seuil prédéterminé.

Selon un mode de mise en oeuvre, l'invention comprend une ou plusieurs des caractéristiques suivantes, seules ou en combinaison techniquement acceptable.

Selon un mode de mise en oeuvre, la vitesse de déplacement du capteur d'images comprend une vitesse linéaire et/ou une vitesse angulaire permettant de calculer le déplacement dans le plan image du point image virtuel du point objet virtuel. Si l'objet est à une distance finie, la vitesse linéaire et la vitesse angulaire sont nécessaires ; si l'objet est à une distance très importante, comme les étoiles, seul la vitesse angulaire du capteur images est nécessaire. Selon ces dispositions, au lieu de baisser le temps d'intégration sous l'effet de la vitesse relative de l'objet à détecter par rapport au capteur d'images, le temps d'intégration est augmenté avec la vitesse; ainsi le rapport signal sur bruit sur l'image corrigée est maintenu constant malgré la vitesse relative de l'objet.

Selon un mode de mise en oeuvre, l'objet est une étoile, et le capteur d'images est un senseur stellaire.

Selon un mode de mise en oeuvre, la vitesse de déplacement mesurée est une vitesse angulaire.

Selon un mode de mise en oeuvre, la vitesse angulaire mesurée est mesurée par un senseur inertiel, par exemple un gyromètre.

Selon un mode de mise en oeuvre, le senseur inertiel est intégré au capteur d'images.

Selon un mode de mise en oeuvre la mesure de la vitesse peut être effectuée à partir de l'image optique dans une étape préalable.

Selon un mode de mise en oeuvre, l'image brute acquise est une matrice de pixels, chaque pixel de la matrice étant une valeur d'un signal optique mesurée par un détecteur élémentaire d'une matrice de détecteurs élémentaires dans le plan image.

Selon un mode de mise en oeuvre, l'image brute acquise est un échantillonnage selon la matrice de pixels d'une image formée dans le plan image par une optique du capteur d'images. Selon un mode de mise en oeuvre, le procédé comprend une étape de détermination d'une position dans le plan image d'une image d'un point de l'objet, en fonction de la position et de la valeur des pixels sélectionnés dans l'image corrigée.

Selon un mode de mise en oeuvre, l'étape de détermination de la position du point de l'objet comprend un calcul d'un barycentre géométrique des positions dans le plan image des pixels sélectionnés dans l'image corrigée.

Selon un mode de mise en oeuvre, l'image de référence est calculée sur la base d'une réponse impulsionnelle locale au point image et sur la base du déplacement estimé du point image.

Selon un mode de mise en oeuvre, l'image de référence est la corrélation croisée de la réponse impulsionnelle locale et d'une fonction indicatrice d'un détecteur élémentaire contenant le point image et d'une fonction indicatrice du déplacement estimé du point image.

Selon un mode de mise en oeuvre, la fonction indicatrice d'un détecteur élémentaire est une fonction de deux variables x et y, définie dans le plan image, qui vaut Ί en tout point du plan image à l'intérieur d'une surface dudit détecteur élémentaire dans le plan image, et qui vaut 0 partout ailleurs dans le plan de l'image.

Selon un mode de mise en oeuvre, la fonction indicatrice du déplacement estimé est une fonction de deux variables x et y, définie dans le plan image, qui vaut Ί en tout point du plan de l'image sur un segment colinéaire au déplacement estimé, ledit segment passant par le point central de la zone du plan image, et qui vaut 0 partout ailleurs dans le plan image. Selon un mode de mise en oeuvre, la réponse impulsionnelle locale et la fonction indicatrice du détecteur élémentaire et la fonction indicatrice du déplacement calculé sont chacune sur-échantillonnées, selon un facteur prédéterminé de sur-échantillonnage, par rapport à l'échantillonnage selon la matrice de pixels de l'image brute; selon ce mode de mise en oeuvre, la réponse impulsionnelle locale et la fonction indicatrice du détecteur élémentaire et la fonction indicatrice du déplacement calculé sont chacune calculées pour un ensemble de points (x, y) du plan image, lesdits points (x, y) étant répartis sur les lignes et les colonnes de la matrice des pixels de l'image brute, de sorte que sur chaque ligne, respectivement, sur chaque colonne, de ladite matrice, un nombre desdits points (x, y) de l'ensemble de point (x, y), est égal ou supérieur à un nombre de pixels de ladite ligne, respectivement, de ladite colonne, multiplié par le facteur de sur-échantillonnage.

Selon ce mode de mise en oeuvre, l'image de référence, produit de la convolution de la réponse impulsionnelle locale sur-échantillonnée et d'une fonction indicatrice, sur-échantillonnée, d'un détecteur élémentaire et d'une fonction indicatrice, sur-échantillonnée, du déplacement calculé du point central de la zone du plan image, est sur-échantillonnée dans le même rapport de sur-échantillonnage.

Selon un mode de mise en oeuvre, le facteur de sur-échantillonnage est supérieur à 5, de préférence supérieur à 10.

Selon un mode de mise en oeuvre, l'image de référence est normalisée, c'est- à-dire que la somme des valeurs de l'image de référence sur l'ensemble des points (x, y) sur lesquels l'image de référence est calculée est égale à Ί.

Selon un mode de mise en oeuvre, l'image de référence sur-échantillonnée est sous-échantillonnée selon un rapport de sous-échantillonnage inverse du rapport de sur-échantillonnage. Selon un mode de mise en oeuvre, l'image corrigée est une fonction d'un produit d'une convolution de l'image brute avec l'image de référence. Selon un mode de mise en oeuvre, l'étape de définition d'une zone comprend la définition d'une pluralité de zones dans le plan image, ladite pluralité de zones formant une partition du plan image, chaque zone de la pluralité de zones comprenant un point central de ladite zone. Selon un mode de mise en oeuvre, l'étape de calcul de la vitesse de déplacement du point image virtuel est mise en oeuvre au point central de chaque zone de la pluralité de zones, et dans laquelle l'étape de calcul et détermination du temps d'intégration comprend une étape de calcul d'un temps d'intégration pour le point central de chaque zone de la pluralité de zones, en fonction de la vitesse de déplacement calculée pour ledit point central de ladite zone, et une étape de sélection d'un temps d'intégration déterminé, parmi les temps d'intégration calculés, la sélection étant réalisée, selon un critère de sélection, le temps d'intégration calculé pour le point central de chaque zone de la pluralité de zones étant une fonction croissante de la vitesse de déplacement calculée pour le point central de chaque zone de la pluralité de zones à l'étape de calcul de la vitesse de déplacement.

Selon un mode de mise en oeuvre, le critère de sélection comprend une détermination du temps d'intégration calculé maximum parmi les temps d'intégration calculés pour le point central de chaque zone de la pluralité de zones.

Selon un mode de mise en oeuvre, la fonction croissante de la vitesse de déplacement s'écrit comme suit :

[Math Ί] où es t le temps d'intégration déterminé, est la vitesse de déplacement calculée, t 0 étant une valeur d'un temps d'intégration déterminée pour une vitesse de déplacement nulle.

Selon un mode de mise en oeuvre, le temps d'intégration est déterminé de sorte qu'un déplacement calculé pour chaque zone pendant le temps d'intégration est inférieur à un déplacement maximum prédéterminé. Selon un mode de mise en oeuvre, le déplacement maximum prédéterminé est compris entre 50 et Ί50 pixels, de préférence compris entre 90 et ΊΊ0 pixels, de préférence égal à 100 pixels.

Selon un mode de mise en oeuvre, l'étape de calcul d'une image de référence comprend le calcul d'une pluralité d'images de référence, chaque image de référence étant fonction du déplacement estimé, pendant le temps d'intégration, du point image virtuel au point central de chaque zone de la pluralité de zones.

Selon un mode de mise en oeuvre, l'étape de calcul d'une image corrigée comprend, pour chaque zone de la pluralité de zones dans le plan image, le calcul d'une image corrigée obtenue par une agrégation d'une pluralité d'images corrigées élémentaires, chaque image corrigée élémentaire étant calculée sur la base de l'image brute et d'une image de référence de la pluralité d'images de référence.

Selon un mode de mise en oeuvre, l'étape de calcul de l'image corrigée, pour chaque zone de la pluralité de zone, comprend une extraction d'une sous-image de l'image corrigée, la sous-image correspondant à ladite zone, suivi d'une agrégation de l'ensemble des sous-images extraites de l'image corrigée. Selon un mode de mise en oeuvre, l'image brute est une matrice de pixels, chaque pixel de la matrice étant une valeur d'un signal optique mesuré par un détecteur élémentaire d'une matrice de détecteurs élémentaires dans le plan image.

Selon un mode de mise en oeuvre, chaque zone de la pluralité de zones du plan image est définie par une sous-matrice de la matrice de pixels de l'image brute, et, pour chaque zone de la pluralité de zones, une matrice masque de ladite zone, est définie, la matrice masque étant de même dimension que la matrice de pixels de l'image brute, chaque point de la matrice masque qui correspond à un point de la sous-matrice prenant la valeur Ί et les autres points de la matrice masque prenant la valeur 0.

Selon un mode de mise en oeuvre, l'image corrigée est une matrice de pixels corrigés, et pour chaque zone de la pluralité de zones, l'extraction de la sous- image de l'image corrigée comprend une multiplication terme-à-terme de la matrice de pixels corrigés par la matrice masque de ladite zone.

Selon un mode mise en oeuvre, l'étape de sélection dans l'image corrigée, des pixels ayant une valeur supérieure à un seuil prédéterminé, comprend une étape de sélection d'au moins un pixel correspondant à un optimum local à l'intérieur d'une portion de l'image corrigée.

Selon un mode de mise en oeuvre, l'au moins un pixel correspond à un optimum local si la valeur de l'au moins un pixel est supérieur ou inférieur à la valeur de chaque autre pixel à l'intérieur de la portion de l'image corrigée

Selon un mode de mise en oeuvre, le procédé comprend une étape de détermination d'au moins une position dans le plan image d'une image d'un point de l'objet, en fonction de la position et de la valeur de l'au moins un pixel correspondant à un optimum local. L'invention concerne également un dispositif de détection optique d'un objet, le dispositif comprenant un capteur d'images, le capteur d'images et l'objet étant en mouvement l'un par rapport à l'autre, le capteur d'images étant configuré pour recevoir une mesure d'une vitesse de déplacement du capteur d'images, la vitesse de déplacement du capteur d'images étant mesurée dans un repère fixe par rapport à l'objet, le dispositif de détection comprenant en outre un module de traitement configuré pour recevoir et traiter les images acquises par le capteur, le module de traitement comprenant : - un module de définition configuré pour définir au moins une zone dans un plan image du capteur d'images, l'au moins une zone comprenant un point central;

- un premier module de calcul configuré pour calculer une vitesse de déplacement d'un point image virtuel dans le plan image, le point image virtuel étant une image virtuelle, d'un point objet virtuel, formée sur le plan image au point central de l'au moins une zone, la vitesse de déplacement du point image étant calculée à partir de la mesure de la vitesse de déplacement du capteur d'images;

- un deuxième module, configuré pour calculer un temps d'intégration calculé selon une fonction croissante de la vitesse de déplacement calculée du point image virtuel au point central de l'au moins une zone, et pour déterminer un temps d'intégration déterminé sur la base du temps d'intégration calculé au point central de l'au moins une zone, et pour commander l'acquisition par le capteur d'images d'une image brute, sur la base du temps d'intégration déterminé;

- un troisième module configuré pour calculer une image de référence fonction du déplacement estimé, pendant le temps d'intégration, du point image virtuel au point central de l'au moins une zone sur le plan image, le déplacement estimé étant estimé sur la base du temps d'intégration et de la vitesse de déplacement calculée du point image virtuel;

- un quatrième module configuré pour calculer une image corrigée fonction de l'image brute et de l'image de de référence ;

- un cinquième module configuré pour sélectionner des pixels dans l'image corrigée, les pixels sélectionnés ayant une valeur supérieure à un seuil prédéterminé.

L'invention concerne également un programme d'ordinateur comprenant un ensemble d'instructions exécutables sur le processeur d'un ordinateur, configuré pour que lorsque ledit ensemble d'instructions est exécuté sur ledit processeur le procédé selon l'un des modes de mise en oeuvre décrits ci-avant est mis en oeuvre.

L'invention concerne également un support lisible par un ordinateur, ledit support comprenant un ensemble d'instructions exécutables sur le processeur d'un ordinateur, configuré pour que lorsque ledit ensemble d'instructions est exécuté sur ledit processeur le procédé selon l'un des modes de mise en oeuvre décrits ci- avant est mis en oeuvre.

Pour sa bonne compréhension, un mode de réalisation et/ou de mise en oeuvre de l'invention est décrit en référence aux dessins ci-annexés représentant, à titre d'exemple non limitatif, une forme de réalisation ou de mise en oeuvre respectivement d'un dispositif et/ou d'un procédé selon l'invention. Les mêmes références sur les dessins désignent des éléments similaires ou des éléments dont les fonctions sont similaires.

[Fig. Ί] est une représentation schématique d'un logigramme des étapes d'un mode de réalisation du procédé selon l'invention.

[Fig. 2] est une vue simplifiée, en perspective, d'un mode de réalisation d'un dispositif selon l'invention illustrant le phénomène d'étalement de la tâche formée dans le plan de l'image par une étoile.

Un mode de mise en oeuvre et de réalisation de l'invention sera décrit en se référant à une application particulière de l'invention à la détection d'étoiles par un senseur stellaire en phase d'accrochage. Néanmoins l'homme du métier comprendra que cet exemple de mise en oeuvre de l'invention n'est pas limitatif et que l'invention peut également être mise en œuvre pour toutes les applications de détection optique d'objets dans de mauvaises conditions de rapport signal à bruit, et/ou dans des conditions cinématiques défavorables. Par exemple, l'invention peut être mise en œuvre et appliquée à un télescope ou une caméra au sol visant à détecter des objets célestes ou aériens ou tout autre objet dont on connaît la forme mais pas la position, tels que débris spatiaux observés depuis le sol, recalage optique de satellites depuis le sol, potentiellement de jour, etc..., pourvu que l'on dispose d'une information sur une vitesse relative de l'objet à détecter par rapport au capteur d'images optiques ou par rapport au véhicule porteur du capteur.

Le procédé 100 selon l'invention a pour but d'améliorer la capacité de détection optique d'objet faiblement lumineux, des étoiles par exemple, dont la position dans le champ d'observation du capteur d'images est a priori inconnue.

Le procédé 100 selon l'invention utilise pour cela une connaissance, même approximative, d'une réponse impulsionnelle (PSF) dynamique du capteur, déterminée sur la base d'une mesure d'une vitesse de déplacement du capteur par rapport à l'objet.

La vitesse de déplacement du capteur d'images par rapport à l'objet imagé peut comprendre une vitesse linéaire et/ou une vitesse angulaire permettant de calculer le déplacement dans le plan image d'un point image d'un point de l'objet considéré. Si l'objet est à une distance finie, la vitesse linéaire et la vitesse angulaire sont nécessaires; si l'objet est à une distance très importante, comme une étoile par exemple, seul la vitesse angulaire du capteur d'images est nécessaire.

Ainsi, dans le cas de la détection d'une étoile, le procédé consiste à adapter le temps d'intégration en fonction de la vitesse angulaire mesurée, de sorte que le temps d'intégration est une fonction croissante de cette vitesse angulaire. Cette méthode diffère ainsi des procédés connus qui consistent généralement à limiter voire à diminuer le temps d'intégration à mesure que la vitesse de déplacement du capteur d'images augmente, afin de limiter la taille du « filé ».

En contrepartie, la méthode présente les caractéristiques suivantes : le mouvement de « filé » des étoiles augmente de manière quadratique vis à vis de la vitesse angulaire, ce qui nécessite de traiter un nombre croissant de pixels. Le calcul à mettre en oeuvre consiste à effectuer la corrélation croisée 2D entre l'image brute acquise par le capteur d'images, et la PSF dynamique, dont la taille du support augmentera avec la longueur du filé. Ce désavantage est à pondérer avec le fait qu'une telle méthode serait mise en oeuvre en mode accrochage, phase durant laquelle les contraintes de vitesse de calcul sont relâchées.

Un senseur stellaire miniature de la classe (f~15mm, Φ=f/2, h=Ί000cΊ000 pixels de 8μm, σ~20e-), mettant en oeuvre le procédé selon l'invention, sera capable d'effectuer un accrochage avec des vitesses angulaires de l'ordre de 5 degrés/s.

Le procédé 100 selon l'invention, basée sur la connaissance de la PSF dynamique, permet de gagner environ un facteur 2 sur le bruit de position, par rapport à un calcul barycentrique «classique».

Les différentes étapes du procédé selon l'invention vont maintenant être décrite en référence aux figures Ί et 2.

Sur la figure 2, sont schématiquement représentés un capteur d'images Ί utilisé pour détecter un objet 2, par exemple une étoile 2. Le capteur d'images Ί est porté par un véhicule porteur, par exemple un satellite, non représenté sur la figure. Le capteur d'images Ί et le véhicule porteur sont solidairement fixés l'un à l'autre, autrement dit la vitesse de déplacement du capteur d'images Ί et celle du porteur sont les mêmes. Le véhicule porteur est animé d'une vitesse on cherche à calculer la vitesse de déplacement dans le plan de l'image, ou plan image 3, de l'image d'un point inertiel, i.e. de l'image d'un point fixe dans un repère inertiel, ledit point fixe étant par exemple une étoile présente dans le champ d'observation du capteur d'images. La vitesse de déplacement est ainsi calculée dans un repère liée au plan de l'image 3.

On note : [Math 2] le vecteur directeur de l'étoile 2 qui serait positionnée sur l'image en (x,y):

Durant le temps d'intégration t, de l'image, il faut donc intégrer cette équation pour connaître le déplacement ( Δx,Δy ) à appliquer à chaque pixel. Si on considère que la vitesse angulaire est constante durant le temps d'intégration ti, il vient : [Math 9]

Le déplacement ( Δx,Δy ) représente ainsi l'étalement de la tâche formée dans le plan de l'image par l'étoile 2, vue par le capteur d'images Ί au cours du déplacement angulaire du capteur d'images Ί à la vitesse angulaire w pendant la durée t, du temps d'intégration. Sur la figure 2, sont représentées 3 positions successives de l'étoile 2 au cours de son déplacement angulaire relativement au capteur d'image Ί, et la trace dans le plan image 3 des positions correspondantes de la tâche formée sur le plan image 3 par l'image de l'étoile 2 dans ces positions successives.

Pour déterminer 103 un temps d'intégration, pour l'acquisition Ί04 par le capteur d'images 1, d'une image brute de la scène observée, comprenant par exemple l'étoile 2 illustrée sur la figure 2 dans différentes positions par rapport au capteur d'images Ί, le procédé selon l'invention comprend une étape de définition 101 de n_zones x n_zones imagettes formant une partition de l'image totale dans le plan image 3 du capteur d'images 1, n étant un nombre entier supérieur ou égal à 1 ; chacune des zones comprend un point central, ou centre. Pour chaque centre de ces zones, de position (x, y), une vitesse de déplacement d'un point image virtuel dans le plan image 3 est calculée au cours d'une étape de calcul 102; le point image virtuel est une image virtuelle d'un point objet virtuel, par exemple une étoile 2, formée sur le plan image 3 au point central de la zone ; la vitesse de déplacement du point image virtuel est calculée, au cours de l'étape de calcul 102, à partir d'une mesure de la vitesse de déplacement du capteur d'images, par exemple en appliquant la formule ci-dessous dans le cas considéré d'une vitesse de déplacement angulaire du capteur d'images 1, la formule ci-dessous étant dérivée de la formule précédente :

[Math 10]

Pour chaque centre de ces zones, d'indice i de 1 à n, sur la base de la vitesse de déplacement calculée au cours de l'étape précédente, une étape de calcul et de détermination 103 d'un temps d'intégration calcule puis détermine un temps d'intégration.

Pour le centre de chaque zone, l'étape de calcul et de détermination 103 du temps d'intégration calcule un temps d'intégration calculé selon une fonction de la vitesse de déplacement d calculée pour ledit centre de ladite zone, par exemple, selon la formule suivante :

[Math 12]

Le temps d'intégration calculé au point central de chaque zone est ainsi une fonction croissante de la vitesse de déplacement calculé audit point central de la ladite zone, contrairement aux procédés connus de détection optique.

L'étape de calcul et détermination (103) du temps d'intégration comprend en outre une étape de sélection d'un temps d'intégration déterminé, parmi les temps d'intégration calculés, selon un critère de sélection.

Selon un mode de mise en oeuvre, le critère de sélection est un critère d'optimisation, sélectionnant le temps d'intégration qui est le maximum parmi l'ensemble des temps d'intégration Au cours de l'étape de calcul et détermination 103 du temps d'intégration, un déplacement d m est ainsi calculé selon la formule suivante par exemple, dans laquelle la vitesse de déplacement est la vitesse de déplacement associée au temps d'intégration [Math 13]

Le temps d'intégration peut être déterminé de sorte qu'un déplacement d m calculé pour chaque zone pendant le temps d'intégration est inférieur à un déplacement maximum d max prédéterminé, typiquement par exemple 100 pixels. Avantageusement, le déplacement maximum prédéterminé peut être compris entre 10 et 250 pixels, de préférence compris entre 50 et 150 pixels, de préférence encore compris entre 90 et 110 pixels. Ces déplacements préconisés sont des ordres de grandeur fournis à titre indicatif, et sont très importants devant l'état de l'art antérieur qui limite ces déplacements à quelques pixels, typiquement moins de 5 pixels.

Ainsi, si on définit d max sat par la formule suivante :

[Math 14] d max sat = min ( d max , d m )

Le temps d'intégration t i à commander peut être déterminé au cours de l'étape de détermination 103, par exemple sur la base de la formule suivante:

[Math 15] La vitesse de déplacement du capteur d'images peut être mesurée par un senseur inertiel, par exemple un gyromètre, porté par le véhicule porteur ou intégré au capteur d'images 1; la mesure de la vitesse de déplacement du capteur d'images peut aussi être effectuée à partir de l'image optique dans une étape préalable. Une fois le temps d'intégration t i déterminé au cours de l'étape de détermination 103, une image brute, notée IM dans la suite de la description, est acquise par le capteur d'images au cours d'une étape d'acquisition 104, sur la base du temps d'intégration déterminé.

L'image brute acquise IM est en général une matrice de pixels, chaque pixel de la matrice étant une valeur d'un signal optique mesurée par un détecteur élémentaire d'une matrice de détecteurs élémentaires dans le plan image. Ainsi, l'image brute acquise IM est un échantillonnage selon la matrice de pixels d'une image formée dans le plan image par une optique du capteur d'images. On notera dans la suite (i, j) les indices selon les lignes et les colonnes de la matrice de chaque zone parmi les n_zones x n_zones imagettes formant une partition de l'image totale dans le plan image 3.

Pour chaque zone (i, j), une image de référence est calculée, au cours d'une étape de calcul d'une image de référence 105, sur la base d'un déplacement estimé sur le plan image 3, pendant le temps d'intégration t i , d'un point image virtuel projeté au point central de ladite zone, le déplacement estimé étant fonction du temps d'intégration déterminé et de la vitesse de déplacement du point image virtuel sur le plan image 3 calculée au cours de l'étape de calcul d'une vitesse de déplacement 102; Ainsi, le déplacement estimé d au centre de la zone peut être estimé selon la formule ci-dessous:

[Math 16]

L'image de référence peut être calculée sur la base d'une réponse impulsionnelle (PSF) locale au centre de la zone et sur la base du déplacement estimé au centre de la zone.

Ainsi, l'image de référence peut être le produit d'une convolution de la PSF locale et d'une fonction indicatrice d'un détecteur élémentaire contenant le point image et d'une fonction indicatrice du déplacement estimé du point image. La fonction indicatrice d'un détecteur élémentaire est une fonction de deux variables x et y, définie dans le plan image, qui vaut 1 en tout point du plan image à l'intérieur d'une surface dudit détecteur élémentaire dans le plan image, et qui vaut 0 partout ailleurs dans le plan de l'image. La fonction indicatrice du déplacement estimé d x , d y est une fonction de deux variables x et y, définie dans le plan image, qui vaut 1 en tout point du plan de l'image sur un segment colinéaire au déplacement estimé d x , d y , ledit segment passant par le point central de la zone considéré du plan image, et qui vaut 0 partout ailleurs dans le plan image. Une réponse impulsionnelle (PSF) dynamique locale normalisée (PSFDLN), dépendant du déplacement d estimé localement, au centre de ladite zone, et de la PSF locale normalisée (PSFLN) propre à la position (x,y) peut s'écrire selon la formule suivante :

[Math Ί7]

PSFDLN = PSFLN * Π 1 , 1 * Π d x ,d y Selon un mode de mise en oeuvre, la réponse impulsionnelle locale et la fonction indicatrice du détecteur élémentaire et la fonction indicatrice du déplacement calculé sont chacune sur-échantillonnées, selon un facteur prédéterminé de sur ¬ échantillonnage, par rapport à l'échantillonnage selon la matrice de pixels de l'image brute; autrement dit, la réponse impulsionnelle locale et la fonction indicatrice du détecteur élémentaire et la fonction indicatrice du déplacement calculé sont chacune calculées pour un ensemble de points (x, y) du plan image, lesdits points (x, y) étant répartis sur les lignes et les colonnes de la matrice des pixels de l'image brute, de sorte que sur chaque ligne, respectivement, sur chaque colonne, de ladite matrice, un nombre desdits points (x, y) de l'ensemble de point (x, y), est égal ou supérieur à un nombre de pixels de ladite ligne, respectivement, de ladite colonne, multiplié par le facteur de sur-échantillonnage.

Selon ce mode de mise en oeuvre, l'image de référence, produit de la convolution de la réponse impulsionnelle locale sur-échantillonnée et d'une fonction indicatrice, sur-échantillonnée, d'un détecteur élémentaire et d'une fonction indicatrice, sur-échantillonnée, du déplacement calculé du point central de la zone du plan image, est sur-échantillonnée dans le même rapport de sur ¬ échantillonnage. Avantageusement, le facteur de sur-échantillonnage est supérieur à 5, de préférence supérieur à 10. Ainsi, la PSFL peut être stockée à bord du véhicule porteur et sur-échantillonnée d'un facteur sur_ech, typiquement >Ί0, ainsi que la fonction Π 1,1 constante. La fonction indicatrice du déplacement ( Δx,Δy ), est calculée à bord dynamiquement.

Avantageusement, l'image de référence peut être normalisée, c'est-à-dire que la somme des valeurs de l'image de référence sur l'ensemble des points (x, y) sur lesquels l'image de référence est calculée est égale à Ί. Avantageusement, l'image de référence sur-échantillonnée est ensuite sous- échantillonnée selon un rapport de sous-échantillonnage inverse du rapport de sur-échantillonnage, afin de revenir à un taux d'échantillonnage correspondant à celui de la matrice de l'image brute.

Si on choisit la PSFL normalisée alors la PSFDL est aussi normalisée par construction, mais pour des raisons numériques, on peut effectuer le calcul suivant :

[Math 18]

L'image de référence calculée au cours de l'étape de calcul d'une image de référence 105 pour chaque zone (i, j), prend ainsi la forme, pour chaque zone (i,j), d'une matrice M, qui est un sous-échantillonnage de facteur sur_ech de PSFDLN calculée sur ladite zone (i, j).

L'étape suivante du procédé selon l'invention est une étape de calcul d'une image corrigée 106 fonction de l'image brute et de l'image de référence.

Ainsi, une image de référence M ayant été calculée pour chaque zone (i, j), la corrélation croisée de M avec l'image brute IM est calculée également pour chaque zone (i, j), dont le résultat est représenté par la formule suivante: [Math Ί9] où s est le bruit de lecture de l'image brute, et \M\ désigne une norme quadratique de la matrice M.

Pour chaque zone (i, j), z*(i,j ) a la dimension de l'image brute IM.

On multiplie z* par un masque local μ(i,j) valant Ί sur la zone (i,j) et zéro ailleurs, selon la formule :

[Math 20]

On dispose alors des n_zones x n_zones images qui ont chacune la taille de l'image brute, avec des pixels ayant une valeur nulle pour tous les pixels qui ne sont pas dans la zone considérée.

L'image corrigée est ainsi la somme de toutes les images z*(i,j). Cette image corrigée, notée IMC, a la même dimension que l'image brute IM, et peut être représentée par la formule :

[Math 2Ί]

Après l'étape de calcul de l'image corrigée Ί06, le procédé Ί00 comprend une étape de sélection Ί07 de pixels dans l'image corrigée, les pixels sélectionnés ayant une valeur supérieure à un seuil prédéterminé. La sélection peut ainsi comprendre un seuillage sur l'image corrigée: on sélectionne les termes (i*,j*) dont la valeur IMC (i*,j*) est supérieure à SNR, où SNR est un seuil de signal à bruit, typiquement SNR = 5, afin de limiter la probabilité de fausse détection.

[Math 22]

IMC(i*,j*) > SNR

Puis on peut par exemple sélectionner les maxima locaux, c'est à dire que l'on sélectionne uniquement les pixels maximum sur un voisinage local, typiquement sur un carré de 30x30 pixels, afin de ne pas sélectionner plusieurs pixels de la même étoile (et donc obtenir plusieurs détections pour une même étoile).

[Math 23]

Selon un mode de mise en oeuvre, le procédé 100 comprend une étape de détermination d'une position 108 dans le plan image d'une image d'un point de l'objet, en fonction de la position et de la valeur des pixels sélectionnés dans l'image corrigée. Ainsi, l'étape de détermination de la position du point de l'objet peut comprendre, par exemple, un calcul d'un barycentre géométrique des positions, dans le plan image, des pixels sélectionnés dans l'image corrigée. L'invention concerne également un dispositif 10 de détection optique d'un objet 2, le dispositif comprenant un capteur d'images Ί, le capteur d'images Ί et l'objet 2 étant en mouvement l'un par rapport à l'autre ; le capteur d'images Ί est configuré pour recevoir une mesure d'une vitesse de déplacement du capteur d'images Ί, la vitesse de déplacement du capteur d'images Ί étant mesurée dans un repère fixe par rapport à l'objet 2; le dispositif 10 de détection comprend en outre un module de traitement configuré pour recevoir et traiter les images acquises par le capteur, le module de traitement comprenant : - un premier module configuré pour définir au moins une zone dans un plan image 3 du capteur d'images 1, l'au moins une zone comprenant un point central;

- un deuxième module configuré pour calculer une vitesse de déplacement d'un point image virtuel dans le plan image, le point image virtuel étant une image virtuelle, d'un point objet virtuel, formée sur le plan image 3 au point central de l'au moins une zone, la vitesse de déplacement du point image étant calculée à partir de la mesure de la vitesse de déplacement du capteur d'images;

- un troisième module, configuré pour calculer un temps d'intégration calculé selon une fonction croissante de la vitesse de déplacement du point image virtuel au point central de l'au moins une zone, et pour déterminer un temps d'intégration déterminé sur la base du temps d'intégration calculé au point central de l'au moins une zone, et pour commander l'acquisition par le capteur d'images Ί d'une image brute, sur la base du temps d'intégration déterminé;

- un quatrième module configuré pour calculer une image de référence fonction du déplacement estimé, pendant le temps d'intégration, du point image virtuel au point central de l'au moins une zone sur le plan image, le déplacement estimé étant estimé sur la base du temps d'intégration et de la vitesse de déplacement calculée du point image virtuel;

- un cinquième module configuré pour calculer une image corrigée fonction de l'image brute et de l'image de de référence ;

- un sixième module configuré pour sélectionner des pixels dans l'image corrigée, les pixels sélectionnés ayant une valeur supérieure à un seuil prédéterminé.

Selon un autre aspect, l'invention concerne un programme d'ordinateur comprenant un ensemble d'instructions exécutables sur le processeur d'un ordinateur, configuré pour que lorsque ledit ensemble d'instructions est exécuté sur ledit processeur le procédé est mis en oeuvre selon l'un des modes de mise en oeuvre décrits ci-avant, ledit processeur étant embarqué sur le véhicule porteur du capteur d'acquisition des images et couplé au capteur. Selon un autre aspect, l'invention concerne un support lisible par un ordinateur, ledit support comprenant un ensemble d'instructions exécutables sur le processeur d'un ordinateur, configuré pour que lorsque ledit ensemble d'instructions est exécuté sur ledit processeur le procédé est mis en oeuvre selon l'une des modes de mise en oeuvre décrits ci-avant, ledit processeur étant embarqué sur le véhicule porteur du capteur d'acquisition des images et couplé au capteur.