Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
REGISTRATION OF SAR IMAGES BY MUTUAL INFORMATION
Document Type and Number:
WIPO Patent Application WO/2014/173939
Kind Code:
A1
Abstract:
The invention relates to a method for registering an image using a criterion of similarity based on mutual information. The image to be registered is compared to a plurality of reference representations of an object, each reference representation consisting of a plurality of homogeneous areas. The mutual information between the image to be registered and each reference representation is calculated in all the homogeneous areas (120). The registration is provided by the reference representation corresponding to the highest mutual information (130, 140). The invention is advantageously applied to the navigation aid of an aircraft by readjusting the images obtained by means of a synthetic aperture radar.

Inventors:
MINVIELLE-LARROUSSE PIERRE (FR)
Application Number:
PCT/EP2014/058223
Publication Date:
October 30, 2014
Filing Date:
April 23, 2014
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
COMMISSARIAT ENERGIE ATOMIQUE (FR)
International Classes:
G06T7/00
Other References:
HUI ZHANG ET AL: "An entropy-based objective evaluation method for image segmentation", PROCEEDINGS OF SPIE, vol. 5307, 22 December 2003 (2003-12-22), pages 38 - 49, XP055094582, ISSN: 0277-786X, DOI: 10.1117/12.527167
HUA XIE ET AL: "Mutual information based registration of SAR images", LEARNING FROM EARTH'S SHAPES AND SIZES : IGARSS 2003 ; 2003 IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SYMPOSIUM ; CENTRE DE CONGRÈS PIERRE BAUDIS, TOULOUSE, FRANCE, 21 - 25 JULY 2003 ; PROCEEDINGS; [IEEE INTERNATIONAL GEOSCIENCE AND REMOTE SENSING SYM, vol. 6, 21 July 2003 (2003-07-21), pages 4028 - 4031, XP010704398, ISBN: 978-0-7803-7929-9, DOI: 10.1109/IGARSS.2003.1295351
"Field Programmable Logic and Application", vol. 3216, 1 January 2004, SPRINGER BERLIN HEIDELBERG, Berlin, Heidelberg, ISBN: 978-3-54-045234-8, ISSN: 0302-9743, article JAUME RIGAU ET AL: "Medical Image Segmentation Based on Mutual Information Maximization", pages: 135 - 142, XP055093653, DOI: 10.1007/978-3-540-30135-6_17
B. ZITOVA ET AL.: "Image registration methods : a survey", IMAGE AND VISION COMPUTING, vol. 21, 2003, pages 997 - 1000
P. VIOLA ET AL.: "Alignment by maximization of mutual information", INT'I JOURNAL OF COMPUTER VISION, vol. 4, no. 2, pages 137 - 154
J.E. BEVINGTON ET AL.: "Precision aided intertial navigation using SAR and digital map data", RECORD OF THE POSITION LOCATION AND NAVIGATION SYMPOSIUM, 1990, pages 490 - 496
RIGAU J. ET AL.: "Medical image segmentation based on mutual information maximization", MEDICAL IMAGE COMPUTING AND COMPUTER-ASSISTED INTERVENTION-MICCAI, 2004, pages 135 - 142, XP055093653, DOI: doi:10.1007/978-3-540-30135-6_17
Attorney, Agent or Firm:
AUGARDE, Eric et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1. Méthode de recalage d'une image ( / ) d'un objet par rapport à une pluralité de représentations de référence ( Mn ) de cet objet, chaque représentation de référence étant constituée par un ensemble ( Zn ) de zones ( Znk ), dites zones homogènes, chaque zone homogène présentant un niveau d'intensité homogène, ladite méthode étant caractérisée en ce que :

pour chaque représentation de référence de ladite pluralité, on calcule (120) l'information mutuelle ( C(l,Mn ) ) entre ladite image et la représentation de référence, sur l'ensemble ( Zn ) des zones homogènes de cette représentation de référence ;

on compare (130) les informations mutuelles ainsi calculées et l'on sélectionne (140) la représentation de référence de ladite pluralité pour laquelle l'information mutuelle est la plus élevée.

2. Méthode de recalage d'image selon la revendication 1, caractérisée en ce que, pour chaque représentation de référence ( M ), l'information mutuelle est déterminée par:

un calcul de l'entropie ( H(I) ) de l'image sur l'ensemble ( Z ) des zones homogènes de la représentation de référence;

un calcul (220), pour chaque zone homogène ( Zk ), d'un facteur de pondération ( pk ), associé à ladite zone, correspondant au rapport entre la surface ( ak ) de cette zone à la surface totale ( σ ) de l'ensemble desdites zones homogènes ;

un calcul (230), pour chaque zone homogène [ Zk ), de l'entropie ( H (/(i) ) ) de l'image sur cette zone ;

un calcul (230) de la différence entre l'entropie de l'image sur l'ensemble desdites zones homogènes, d'une part, et la somme pondérée des entropies de l'image sur les différentes zones homogènes, chaque zone étant pondérée par son facteur de pondération, d'autre part.

3. Méthode de recalage d'image selon la revendication 2, caractérisée en ce que le calcul de l'entropie ( H(I) ) de l'image sur l'ensemble ( Z ) desdites zones homogènes comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans l'ensemble desdites zones homogènes, au moyen d'une estimation par histogramme ou d'une estimation par noyau.

4. Méthode de recalage d'image selon la revendication 2, caractérisée en ce que le calcul de l'entropie ( H (/(i) ) ) de l'image sur chaque zone homogène [ Zk ) comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans cette zone homogène, au moyen d'une estimation par histogramme ou d'une estimation par noyau.

5. Méthode de recalage d'image selon l'une des revendications précédentes, caractérisée en ce que lesdites représentations de référence sont obtenues par une segmentation en zones homogènes d'images réelles de l'objet, chaque image réelle ayant été prise par un capteur ayant une position et une attitude prédéterminées par rapport à cet objet. 6. Méthode de recalage d'image selon l'une des revendications 1 à 4, caractérisée en ce que lesdites représentations de référence sont obtenues à partir d'un modèle numérique tridimensionnel de l'objet, chaque représentation de référence étant associée à une position et une attitude d'un capteur par rapport à cet objet. 7. Méthode de recalage d'image selon la revendication 6, caractérisée en ce que le modèle numérique tridimensionnel de l'objet comprend des zones homogènes, chaque zone homogène du modèle numérique étant définie par un contour, chaque contour étant défini par un ensemble de points et, le cas échéant, par une fonction d'interpolation.

8. Méthode de recalage d'image selon la revendication 7, caractérisée en ce que le contour d'une zone homogène est défini par un polygone passant par les points dudit ensemble de points. 9. Méthode d'aide à la navigation d'un aéronef par radar à synthèse d'ouverture, caractérisée en ce que ledit radar obtient au moins une image ( / ) de la zone survolée par ledit aéronef et que l'on recale ladite image par rapport à une pluralité de représentations de référence de la zone survolée, à l'aide de la méthode de recalage d'image selon l'une des revendications 1 à 4, chaque représentation de référence étant associée à une position et une attitude dudit aéronef dans un repère géo-référencé, et que l'on déduit une information de navigation de l'aéronef à partir de la position et de l'attitude associées à la représentation de référence pour laquelle l'information mutuelle est la plus élevée. 10. Méthode d'aide à la navigation selon la revendication 9, caractérisée en ce que les représentations de référence sont obtenues à partir d'un modèle numérique de terrain (M NT) stocké dans une base de données embarquée à bord dudit aéronef, ledit modèle numérique de terrain comprenant une pluralité de zones homogènes ( Zk ), chaque zone homogène du modèle numérique de terrain ( ) étant définie par un contour, chaque contour étant lui-même défini par un ensemble de points ( Â7 ) de coordonnées stockées dans la base de données et, le cas échéant, par une fonction d'interpolation.

11. Méthode d'aide à la navigation selon la revendication 10, caractérisée en ce que les zones homogènes du modèle numérique de terrain sont classées par types, un type étant associé à chacune de ces zones et stocké en relation avec elle dans la base de données.

12. Méthode d'aide à la navigation selon la revendication 11, caractérisée en ce que, pour au moins une représentation de référence ( Mn ), les zones homogènes ( Z* ) de cette représentation de référence sont obtenues à l'aide d'une transformation géométrique ( Tn ) des zones homogènes du modèle numérique de terrain, ladite transformation géométrique dépendant d'une position et d'une attitude de l'aéronef.

Description:
RECALAGE D'IMAGES SAR PAR INFORMATION MUTUELLE

DESCRIPTION

DOMAINE TECHNIQUE

La présente invention concerne de manière générale le domaine du recalage d'images. Elle trouve notamment à s'appliquer au recalage d'images obtenues par radar à synthèse d'ouverture ou SAR (Synthetic Aperture Radar) pour l'aide à la navigation d'un aéronef.

ÉTAT DE LA TECHNIQUE ANTÉRIEURE

Le recalage d'images est une problématique courante rencontrée dans nombre de domaines tels que l'imagerie médicale, la robotique, la cartographie, l'aide à la navigation etc.

De manière générale, le recalage d'images consiste à aligner des images d'une même scène, prises à différentes époques, différents angles de vue, différents capteurs. Une revue détaillée des différentes méthodes de recalage d'images pourra être trouvée dans l'article de B. Zitova et al. intitulé « Image registration methods : a survey » publié dans I mage and Vision Computing, Vol. 21, 2003, pp. 997-1000.

Une méthode connue de recalage d'images est fondée sur la maximisation de l'information mutuelle entre l'image à recaler et une image de référence. Cette méthode a été décrite dans le contexte de l'imagerie médica le par résonance magnétique, dans l'article de P. Viola et al. intitulé « Alignment by maximization of mutual information », publié dans Int'l Journal of Computer Vision, Vol. 4, N° 2, pp. 137-154.

Par ailleurs, la navigation des aéronefs repose classiquement sur une centrale inertielle embarquée, composée d'accéléromètres et de gyromètres. Toutefois, la précision obtenue par un système de navigation se dégrade progressivement au cours du vol en raison d'un phénomène de dérive. Il est alors nécessaire de recaler périodiquement le système de navigation inertiel à l'aide de système de navigation absolu tel qu'un système GPS ou d'un système d'imagerie, par exemple un système radar à synthèse d'ouverture (SAR). Dans ce dernier cas, on parle de navigation aidée par radar à synthèse d'ouverture (ou SAR-aided navigation).

Une méthode de navigation aidée par radar à synthèse d'ouverture est connue de l'article de J.E. Bevington et al. intitulé « Précision aided intertial navigation using SAR and digital map data », publié dans Record of the Position Location and Navigation Symposium, 1990, IEEE PLANS '90, IEEE, 1990, pp. 490-496.

Le radar à synthèse d'ouverture présente l'avantage de pouvoir être utilisé par tout temps et à toute heure. A l'aide du SAR, on peut former des images de zones du sol préalablement sélectionnées et les comparer à des données de référence, telles que des images satellitaires ou des modèles numériques de terrain, au moyen d'un recalage d'images. Cette comparaison permet de remonter aux conditions géométriques de la prise de vue, en particulier à la position et l'orientation de l'aéronef.

Une méthode de recalage d'images SAR basée sur la maximisation de l'information mutuelle a été décrite dans l'article de H. Xie et al. intitulé « Mutual information based registration of SAR images » publié dans Proc. of In Geoscience And Remote Sensing Symposium, IGARSS'03, IEEE International, 2003.

Cette méthode de recalage suppose toutefois de stocker un volume considérable de données et nécessite d'effectuer un grand nombre de calculs. Elle est par conséquent peu adaptée à une aide à la navigation qui doit opérer en temps réel et ne pas mobiliser d'importantes ressources embarquées en mémoire et en puissance de calcul.

Un premier objet de la présente invention est par conséquent de proposer une méthode de recalage d'images qui soit particulièrement robuste et rapide, et qui ne requière pas d'importantes ressources en mémoire et en puissance de calcul. Un objet subsidiaire de la présente invention est de proposer une méthode de navigation aidée par radar à synthèse d'ouverture qui utilise une telle méthode de recalage d'images. EXPOSÉ DE L'INVENTION

La présente invention est définie par une méthode de recalage d'une image ( / ) d'un objet par rapport à une pluralité de représentations de référence ( M n ) de cet objet, chaque représentation de référence étant constituée par un ensemble ( Z n ) de zones ( Z n k ), dites zones homogènes, chaque zone homogène présentant un niveau d'intensité homogène, ladite méthode étant particulière en ce que:

pour chaque représentation de référence de ladite pluralité, on calcule l'information mutuelle ( C(l,M n ) ) entre ladite image et la représentation de référence, sur l'ensemble ( Z n ) des zones homogènes de cette représentation de référence ;

- on compare les informations mutuelles ainsi calculées et on sélectionne la représentation de référence de ladite pluralité pour laquelle l'information mutuelle est la plus élevée.

La méthode selon l'invention peut comprendre ensuite une étape de détermination des conditions géométriques de prise de vue de l'image ( / ), définie(s) par les conditions géométriques de prise de vue de la représentation de référence sélectionnée. On recale ainsi l'image ( / ), en ce qu'on obtient de façon précise les conditions géométriques de sa prise de vue.

Avantageusement, pour chaque représentation de référence ( M ), l'information mutuelle est déterminée par:

un calcul de l'entropie ( H(I) ) de l'image sur l'ensemble ( Z ) des zones homogènes de la représentation de référence;

un calcul, pour chaque zone homogène ( Z k ), d'un facteur de pondération ( p k ), associé à ladite zone, correspondant au rapport entre la surface ( a k ) de cette zone à la surface totale ( σ ) de l'ensemble desdites zones homogènes ;

un calcul, pour chaque zone homogène { Z k ), de l'entropie ( H (/ (i) ) ) de l'image sur cette zone ; un calcul de la différence entre l'entropie de l'image sur l'ensemble desdites zones homogènes, d'une part, et la somme pondérée des entropies de l'image sur les différentes zones homogènes, chaque zone étant pondérée par son facteur de pondération, d'autre part.

Selon une première variante, le calcul de l'entropie ( H(I) ) de l'image sur l'ensemble ( Z ) desdites zones homogènes comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans l'ensemble desdites zones homogènes, au moyen d'une estimation par histogramme ou d'une estimation par noyau.

Selon une seconde variante, le calcul de l'entropie ( H (/ (i) ) ) de l'image sur chaque zone homogène ( Z k ) comprend une étape d'estimation de la densité de probabilité de l'intensité des pixels dans cette zone homogène, au moyen d'une estimation par histogramme ou d'une estimation par noyau.

Lesdites représentations de référence peuvent avoir été obtenues par une segmentation en zones homogènes d'images réelles de l'objet, chaque image réelle ayant été prise par un capteur ayant une position et une attitude prédéterminée par rapport à cet objet.

Alternativement, lesdites représentations de référence peuvent avoir été obtenues à partir d'un modèle numérique tridimensionnel de l'objet, chaque représentation de référence étant associée à une position et une attitude d'un capteur par rapport à cet objet.

Dans ce dernier cas, le modèle numérique tridimensionnel de l'objet peut comprendre des zones homogènes, chaque zone homogène du modèle numérique étant définie par un contour, chaque contour étant défini par un ensemble de points et, le cas échéant, par une fonction d'interpolation.

Le contour d'une zone homogène peut être défini par un polygone passant par les points dudit ensemble de points.

L'invention concerne également une méthode d'aide à la navigation d'un aéronef par radar à synthèse d'ouverture, selon laquelle ledit radar obtient au moins une image ( / ) de la zone survolée par ledit aéronef. On recale alors ladite image par rapport à une pluralité de représentations de référence de la zone survolée, à l'aide de la méthode de recalage d'image définie précédemment, chaque représentation de référence étant associée à une position et une attitude dudit aéronef dans un repère géo-référencé, et on déduit une information de navigation de l'aéronef à partir de la position et de l'attitude associées à la représentation de référence pour laquelle l'information mutuelle est la plus élevée.

Les représentations de référence peuvent être obtenues à partir d'un modèle numérique de terrain (M NT) stocké dans une base de données embarquée à bord dudit aéronef, ledit modèle numérique de terrain comprenant une pluralité de zones homogènes ( Z k ), chaque zone homogène du modèle numérique de terrain ( ) étant définie par un contour, chaque contour étant lui-même défini par un ensemble de points ( ) de coordonnées stockées dans la base de données et, le cas échéant par une fonction d'interpolation.

Les zones homogènes du modèle numérique de terrain peuvent être classées par types, un type étant associé à chacune de ces zones et stocké en relation avec elle dans la base de données.

Selon un exemple de réalisation, pour au moins une représentation de référence ( K ), les zones homogènes ( Z* ) de cette représentation de référence sont obtenues à l'aide d'une transformation géométrique ( T n ) des zones homogènes du modèle numérique de terrain, ladite transformation géométrique dépendant d'une position et d'une attitude de l'aéronef.

BRÈVE DESCRIPTION DES DESSINS

D'autres caractéristiques et avantages de l'invention apparaîtront à la lecture de modes de réalisation préférentiels de l'invention faite en référence aux figures jointes parmi lesquelles :

La Fig. 1 représente schématiquement l'ordinogramme d'une méthode de recalage d'image selon un mode de réalisation de l'invention ; La Fig. 2 illustre schématiquement une étape de traitement de la méthode de recalage de la Fig. 1 ;

Les Figs. 3A et 3B illustrent à l'aide d'un exemple le calcul de l'information mutuelle entre une image captée et une représentation de référence ;

La Fig. 4 représente schématiquement un premier système d'aide à la navigation par SAR utilisant la méthode de recalage d'image selon l'invention ;

La Fig. 5 représente schématiquement une zone homogène du modèle numérique de terrain utilisé dans le système de la Fig. 4 ;

La Fig. 6 représente schématiquement un second système d'aide à la navigation par SAR utilisant la méthode de recalage d'images selon l'invention.

EXPOSÉ DÉTAILLÉ DE MODES DE RÉALISATION PARTICULIERS

L'idée à la base de l'invention est d'effectuer un recalage d'image sur la base d'un critère de maximisation de l'information mutuelle, l'information mutuelle étant calculée sur des zones homogènes d'images de référence (dénommées ci-après représentations de référence).

La Fig. 1 représente schématiquement une méthode de recalage d'image selon un mode de réalisation de l'invention.

On suppose ici que l'on a obtenu une image d'un objet (en général tridimensionnel), notée / , (le terme objet étant ici pris au sens large et pouvant correspondre à une scène) à l'aide d'un capteur, par exemple un radar à synthèse d'ouverture. La position et l'attitude du capteur par rapport à l'objet ne sont pas connues.

On suppose que l'on dispose par ailleurs d'une pluralité de représentations de référence de cet objet, notées M n , n = \,..., N . Par représentation de référence de cet objet, on entend une représentation de cet objet, vu d'un point d'observation et sous une attitude de référence. La représentation de l'objet est constituée d'une pluralité de zones homogènes, chaque zone étant associée à un niveau d'intensité (niveau de gris, niveau de luminance). Le point d'observation de référence peut être défini par ses coordonnées relatives par rapport à l'objet en question. L'attitude de référence pourra en général être définie par un triplet d'angles donnant l'orientation du capteur sous lequel l'objet est observé. Les représentations de référence peuvent être considérées comme des images simplifiées de l'objet avec une description par zones homogènes.

Selon une première variante, les représentations de référence sont obtenues à partir d'images réelles de l'objet prises à l'aide d'un capteur dans des conditions bien définies de prises de vue, autrement dit pour une position et une attitude du capteur prédéterminées. Le capteur ayant servi à prendre l'image / peut être différent de celui ayant servi à obtenir la représentation de référence. Par exemple, le capteur ayant servi à obtenir la représentation de référence peut être un capteur optique et le capteur ayant servi à obtenir l'image à recaler peut être un radar à synthèse d'ouverture. De préférence, toutefois, les deux capteurs sont choisis identiques. Les images réelles précitées sont traitées au moyen d'une opération de segmentation, connue en soi, afin d'obtenir des représentations en zones homogènes au sens défini plus haut. On pourra notamment trouver une description d'une méthode de segmentation en zones homogènes dans l'article de Rigau J. et al. intitulé « Médical image segmentation based on mutual information maximization" publié dans Médical Image Computing and Computer-Assisted I ntervention-M ICCAI 2004 (pp. 135-142). La segmentation de l'image réelle peut ne pas être exhaustive mais dans ce cas seule la partie de l'image segmentée en zones homogènes sera retenue dans la représentation de référence.

Selon une seconde variante, les représentations de référence de l'objet sont obtenues par ordinateur à partir d'un modèle numérique de l'objet. Ce modèle numérique peut être défini par un maillage de la surface de l'objet, chaque maille étant caractérisée par un coefficient de réflectivité.

D'autres variantes d'obtention de représentations de référence de l'objet pourront être envisagées sans sortir du cadre de la présente invention.

La méthode de recalage d'image vise à déterminer parmi la pluralité de représentations de référence M n , n = \, ..., N celle qui correspond au mieux à l'image / .

Elle peut donc être exécutée séquentiellement, par itération sur l'indice n , ou bien en parallèle. On a représenté ici le mode de recherche séquentiel. Dans une première étape, 100, on initialise l'indice n de la représentation de référence.

A l'étape 110, on récupère, par exemple en lisant une mémoire de masse, la représentation de référence, M n . Celle-ci est constituée par une pluralité K n de zones homogènes, Z n k , k = \, ..., K n . Par zone homogène, on entend une zone dans laquelle l'intensité est constante. Chaque zone homogène Z n k est en général constituée d'une pluralité de composantes connexes. Ces composantes connexes sont avantageusement choisies de formes simples, par exemple de formes polygonales. Dans ce cas, chaque zone homogène peut être stockée en mémoire sous forme vectorielle.

A l'étape, 120, on calcule l'information mutuelle moyenne entre l'image / et la représentation de référence M n , sur l'ensemble des zones homogènes Z n k , k = \, ..., K n .

Plus précisément, si l'on note Z n = \^ Z k l'ensemble des zones homogènes de la k=l

représentation de référence M n , on calcule l'information mutuelle C(I,M n ) entre l'image / et la représentation de référence M sur l'ensemble des zones homogènes Z n . De manière équivalente, l'information mutuelle C(I,M n ) est celle entre l'image / restreinte à Z n , notée l [Z n ] , et la représentation de référence M n . On entend par restriction de l'image / à la zone Z n , l'image définie par :

l [Z n ] = {i(x, y)<p n (x, y) \i(x, y) G /} (1)

où <p„(x, y) est la fonction indicatrice de Z n .

Les étapes 110 et 120 sont exécutées par itération sur les N représentations de référence, comme indiqué par les étapes 125 et 127.

A l'étape 130, on compare les informations mutuelles calculées à l'étape 120 pour les différentes représentations de référence. A l'étape 140, on sélectionne la représentation de référence maximisant l'information mutuelle C(I,M n ) , autrement dit la représentation de référence d'indice n 0 telle que :

¾ = argmax (C(/, j) (2)

n=\,..,N

On rappelle que l'information mutuelle C(X, Y) entre deux variables aléatoires X, Y est définie par :

C ( X, Y) = H{X) - H{X I Y) = H{Y) - H {Y I X) (3 )

où H(X) (resp. H(Y) ) désigne l'entropie de X (resp. de F ) et H [XI Y) (resp. H(YI X) ) désigne l'entropie conditionnelle de la variable aléatoire X par rapport à Y

(resp. l'entropie conditionelle de la variable aléatoire Y par rapport à X ).

L'information mutuelle s'exprime de manière équivalente, sous une forme symétrique par :

C(X, Y) = H(X) + H(Y) -H(X, Y) (4) où H(X, Y) est l'entropie conjointe des variables X et Y .

Le calcul de l'information mutuelle C(I,M n ) entre l'image / et la représentation de référence M n sur l'ensemble Z n des zones homog °ènes de M n est détaillé ci-ap ~rès.

Pour des raisons de simplification des notations, on omettra dans la suite l'indice n de la représentation de référence. On notera donc M la représentation de référence et Z l'ensemble des zones homogènes de M . Ce calcul consiste à « probabiliser » l'image / ainsi que la représentation M , c'est-à-dire à considérer que l'intensité i d'un point (ou pixel) de / et l'intensité m d'un point (ou pixel) de Z comme des variables aléatoires.

L'entropie de la représentation M est obtenue par :

Etant donné que Z est constituée de zones homogènes Z k , k = \, ..., K , si l'on note p k = p (m = m k ) où m k est l'intensité des points dans la zone homogène Z k , l'entropie de la représentation M peut s'exprimer sous la forme

De manière similaire, l'entropie de l'image / sur la zone Z n'est autre que

où l'intégration est effectuée à partir de l'histogramme de l'intensité des pixels sur la zone Z . Alternativement, la densité de probabilité p(v) = p (i = v) peut être obtenue grâce à une estimation par noyau, à partir d'un échantillonnage de l'intensité des pixels de / dans la zone Z de manière connue en soi.

Enfin, l'entropie conjointe des images I et M dans la zone Z est définie par :

H (l,M ) = -j " p (m = u, i = v) \og (p (m = u,i = v)) dudv (8) Si l'on note i (k) la variable aléatoire i conditionnée par m= m k , où m k est l'intensité des pixels de l'image M dans la zone Z k , l'entropie conjointe est la somme de contributions sur les différentes zones homogènes : et, par conséquent:

#(/, ) =∑ Λ #(/<*>)-∑ Λ ΐο (10)

k=l k=l

en posant H(/ (i) ) = -jp(i (k) = v)log(/?(z '(i) = v))<iv qui n'est autre que l'entropie de l'image / dans la zone Z k , ou de manière équivalente l'entropie de l'image / restreinte à la zone Z k , notée /[z*].

Il résulte des expressions (4), (6) et (10) que l'information mutuelle C(I,M) entre l'image / et la représentation de référence M , sur la zone Z , est donnée par :

C(/, ) = H(/)-∑ A H(/ (i) ) (11)

On notera que, d'après (3), le second terme de l'expression (11) peut être considéré comme l'entropie conditionnelle de la variable aléatoire i par rapport à m, notée H(I/M).

La Fig. 2 représente de manière schématique la méthode de calcul de l'information mutuelle entre une image captée / et une représentation de référence, telle qu'utilisée à l'étape 120 de la Fig.1. Dans une première étape, 210, on calcule l'entropie H(I) de l'image / sur la zone Z , c'est-à-dire sur l'ensemble des zones homogènes Z k de M , à partir de l'expression (7).

Dans une seconde étape, 220, on détermine pour chaque zone homogène Z k de la représentation de référence, la probabilité p k qu'un point de Z appartienne à Z k . Comme indiqué précédemment, cette probabilité sert de facteur de pondération des entropies conditionnelles H (/ (i) ) dans le calcul de l'information mutuelle C(I,M) . σ K

La probabilité p k est obtenue par p k =— - où a = ^ y k où σ est la surface de σ k =i

la zone homogène Z k et σ est la surface de Z , c'est-à-dire la surface totale de l'ensemble des zones homogènes considérées. En effet, étant donné que l'on se limite à la zone Z , la probabilité qu'un point (ou pixel) soit d'intensité m k est simplement la probabilité que ce point ou pixel appartienne à la zone homogène Z k .

Dans une troisième étape, 230, on calcule pour chaque zone homogène Z k , k = \,..,K de Z , l'entropie de l'image / dans cette zone, c'est-à-dire l'entropie de I (k) au sens défini précédemment:

H (/<*> ) = -j p (/<*> = v) log ( p (/<*> = v)) dv (12)

Cette intégration est réalisée en estimant la densité de probabilité p (y) à partir de l'histogramme de l'intensité des pixels de / dans la zone Z k ou bien, au moyen d'une estimation par noyau, à partir d'un échantillonnage de l'intensité dans cette zone. L'intégration peut être effectuée numériquement à partir de la méthode des trapèzes ou la méthode de Simpson, de manière connue en soi.

A l'étape 240, on obtient l'information mutuelle entre l'image captée / et la représentation de référence M sur la zone Z , à partir de l'expression (11). Plus précisément, on calcule la différence entre l'entropie de l'image / sur la zone Z (obtenue en 210), et la somme pondérée des entropies de / calculées sur les différentes zones homogènes de M (obtenues en 230), chaque zone Z k étant pondérée par son facteur de pondération associé, p k (obtenu en 220).

Les Figs. 3A et 3B illustrent à l'aide d'un exemple le calcul de l'information mutuelle entre une image captée / et une représentation de référence M sur la zone Z .

On a désigné par 310 une représentation de référence M d'un objet. Cette représentation comporte des zones homogènes Z Z 2 ,Z 3 . on remarque que 1 e t Z 2 sont chacune constituée de deux composantes connexes. La réunion des zones homogènes sélectionnées constitue la zone Z désignée par 320.

Dans le cas présent, l'image I représentée en 330 est une simple translatée de la représentation de référence M t mais dans le cas général, peut bien entendu être sensiblement plus complexe. On a fait figurer en superposition la zone Z et l'image I .

En 340 on a représenté l'image I restreinte à la zone Z t précédemment notée l[Z] . Au moyen de cette image restreinte, on peut estimer la densité de probabilité p(v) dans Z t à partir de l'histogramme de l'intensité des pixels de I dans la zone Z Alternativement, on peut estimer cette densité à partir d'un échantillonnage de l'intensité de I dans cette zone.

En 361, 363 et 365, on a représenté l'image I restreinte respectivement aux zones Z 1 , Z 2 , Z 3 # c'est-à-dire les images [^ 1 ] , [·Ζ 2 ] # / ζ 3 ] . A partir des histogrammes 362, 364, 366 de l'intensité dans ces zones, ou bien à partir d'un échantillonnage de l'intensité de ces pixels dans ces zones (méthode de Parzen), on estime la densité de probabilité pi ) dans chacune de ces zones. On en déduit les entropies H ( (i) ) à partir de l'expression (12). Ces entropies sont ensuite pondérées par les surfaces relatives de ces zones p k et la somme pondérée ainsi obtenue est soustraite à l'entropie H(7) de l'image / dans la zone Z , pour donner l'information mutuelle C(/, ) .

La méthode de recalage d'images décrite précédemment peut avantageusement s'appliquer à une méthode d'aide à la navigation par SAR. La Fig. 4 représente de manière schématique un premier système d'aide à la navigation utilisant une méthode de recalage selon l'invention.

Le système d'aide à la navigation 400 est embarqué à bord d'un aéronef. Il comprend un radar à synthèse d'ouverture 420 et un module de traitement de signal, relié au radar 420, effectuant une synthèse d'images SAR, 440. Le radar à synthèse d'ouverture permet d'obtenir des images de la zone survolée par l'aéronef.

Le système 400 comprend en outre une base de données 410 embarquée dans laquelle est stocké un modèle numérique tridimensionnel de terrain ou MNT. Ce modèle décrit le terrain sous formes de zones homogènes. Ces zones homogènes peuvent être par exemple des parcelles, des lacs, routes, toitures, etc.

Chaque zone homogène Z k du modèle est définie par une succession de points et le cas échéant une courbe d'interpolation, telle qu'une fonction spline. Chaque point est défini par ses coordonnées dans un repère géo-référencé, par exemple par sa latitude, sa longitude et son altitude.

La Fig. 5 représente schématiquement une zone homogène Z k t définie par une pluralité de points ¾ de coordonnées (

sont respectivement la longitude, la latitude et l'altitude du point k . Dans le cas présent, aucune courbe d'interpolation n'est définie et la zone homogène n'est autre que celle délimitée par le polygone (non nécessairement inclus dans un plan) passant par les points .

A chaque zone homogène Z k est associé un type k = l,.., K . Le type % est lié à la réflectivité radar de la zone, elle-même dépendant de la nature de la zone en question (type de végétation, eau profonde, route bitumée etc.).

Le modèle MNT peut être obtenu par segmentation et classification préalable de cartes et d'images aériennes et/ou satellitaires. On notera que ce modèle vise simplement à identifier des zones homogènes à la surface terrestre (cette identification n'étant d'ailleurs pas nécessairement exhaustive). Il n'est en particulier pas nécessaire d'identifier la nature de chaque zone, seule important en définitive sa nature homogène dans le temps. Par exemple, une zone de végétation d'un certain type gardera une réflectivité radar homogène en dépit des variations saisonnières.

On comprendra ainsi que le modèle MNT est considéra blement moins gourmand en mémoire que des images aériennes classiques. Il se prête par conséquent bien à une utilisation embarquée.

Revenant à la Fig. 4, le module de recherche 450 fournit séquentiellement ou parallèlement au module d'extraction 430 une pluralité de positions et d'attitudes possibles de l'aéronef, définissant elles-mêmes des positions et attitudes du radar à synthèse d'ouverture.

Pour chaque couple de position, attitude du SAR, le module d'extraction, 430, obtient une représentation de référence M n du terrain par une transformation géométrique T n du modèle M NT. Cette transformation T n donne une vue du modèle M NT à partir du point d'observation et sous l'angle donnés par le couple de position et d'attitude en question.

La transformation T n est composée de manière générale de translations, rotations, projection etc. Une zone homogène Z k du modèle M NT, définie par les coordonnées de ses points P est ainsi transformée en une zone bidimensionnelle homogène, notée Z n k = T n {Z k ) l délimitée par les points P k = ^(-¾ ) · Bien entendu, la transformation T n laisse invariant le type % de la zone. Autrement dit, la zone Z n k est de type quelle que soit la transformation P„.

Le module de recalage d'images, 460, calcule l'information mutuelle C(l,M n ) entre l'image captée I , telle que synthétisée par le module 440, et chaque représentation de référence, M„, extraite de la base M NT. Elle sélectionne ensuite la représentation de référence M no | a plus proche de I par maximisation de C(l,M n ) . Le module de recherche modifie par itérations successives les position et attitude de l'aéronef de manière à trouver le maximum de l'information mutuelle C{l,M n ) . Selon une première variante, on pourra se contenter d'un maximum local, c'est- à-dire d'un maximum obtenu sur une plage discrète de positions et d'attitudes possibles de l'aéronef.

Selon une seconde variante, le maximum sera considéré comme atteint dès lors que l'information mutuelle est supérieure à un seuil prédéterminé.

On remarquera que le maximum de l'information mutuelle C{I,M) est atteint pour une coïncidence parfaite entre I et M t auquel cas

K

C (I, M) = H (M) = -∑p k log p k . On notera que cette valeur est positive puisque k=l

Pk < 1 . La recherche de la représentation de référence la plus proche pourra cesser dès lors que l'on aura trouvé une représentation de référence M telle que :

C (l,M ) +∑P k log p k

K≥K^ n et ≤ε (13)

où ^min et ε sont des valeurs de seuil prédéterminées. La première condition de (13) vise à écarter les représentations de référence pauvres en zones homogènes et présentant pour cette raison une entropie insuffisante.

Quelle que soit la variante, lorsque le module de recherche 450 a trouvé une représentation de référence M opt maximisant l'information mutuelle, la position et l'attitude de l'aéronef (ou du capteur) sont celles de la transformation T n associée à M opt .

On a supposé dans ce mode de réalisation que chaque nouvelle représentation de référence M n nécessitait d'effectuer une transformation géométrique T n su r | e modèle M NT. Selon une variante, pour accélérer la recherche, on pourra se contenter d'effectuer une opération géométrique simple sur représentation déjà extraite (translation, rotation et de manière plus générale une transformation isométrique) sans passer à chaque fois par le modèle MNT. Avantageusement, cette variante pourra combiner une boucle de recherche rapide faisant simplement intervenir des opérations isométriques sur une représentation de référence, et une boucle de recherche lente nécessitant des transformations géométriques plus complexes (nouvelle projection par exemple).

La Fig. 6 représente schématiquement un second système d'aide à la navigation par SAR utilisant la méthode de recalage d'images selon l'invention.

Ce système, 600, comprend, comme celui de la Fig. 4, un radar à synthèse d'ouverture 620, un module de synthèse d'image 640, une base de données embarquée 610 dans laquelle sont stockés un modèle numérique de terrain MNT, ainsi qu'un module d'extraction de représentations de référence, 630. Les éléments 610, 620, 630, 640 sont identiques aux éléments 410, 420, 430, 440 de la Fig. 4 et leur description ne sera donc pas reprise ici.

A la différence du système de la Fig. 4, le radar à synthèse d'ouverture 620 et le module de synthèse d'image 630 génèrent des images SAR, I m , à intervalles réguliers. En outre, le système 600 comprend un module de prédiction de trajectoire, 650. Ce module reçoit pour chaque image I m , l'indice de la représentation de référence, M m, „, q U j | u j est la plus proche et en déduit une information de navigation (position, vitesse, direction et attitude de l'aéronef). En fonction de la vitesse et de la direction de l'aéronef, le module de prédiction de trajectoire peut déterminer une zone de position et une plage angulaire d'attitude où l'aéronef sera susceptible de se trouver à l'instant suivant, et en déduire les représentations de référence M m+ n q U j pourront être prises en considération dans le calcul de similarité. Le cas échéant, le module 660 fournit également les valeurs C (l m , m B ) au module de prédiction 650, de manière à ce qu'il puisse affiner sa prédiction, par exemple selon un algorithme d'optimisation du plus fort gradient (steepest gradient). D'autres algorithmes d'optimisation ou d'estimation séquentielle (tel que le filtrage de Kalman) pourront être mis en œuvre sans sortir du cadre de la présente invention.