Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SYSTEM AND METHOD FOR LOCATING A PHOTOGRAPHIC IMAGE
Document Type and Number:
WIPO Patent Application WO/2010/146289
Kind Code:
A2
Abstract:
The invention relates to a method and system for locating (2) a photographic image (22) for modeling a three-dimensional scene. The system (2) comprises: a referenced device (4) including a first imager (10) and targets (121, 122), the first imager (10) being capable of imaging a scene (20) for generating the photographic image to be located (22); a referencing device (6) including a second imager (26) capable of imaging a target (121) for generating a reference tag, said second imager (26) being capable of imaging the referenced device (4) for generating a photographic referencing image (30); and a computing unit (9) capable of angularly locating the photographic image to be located (22) from the reference tag and the photographic reference image (30).

Inventors:
DE LUCA LIVIO (FR)
DEVEAU MATTHIEU (FR)
Application Number:
PCT/FR2010/051169
Publication Date:
December 23, 2010
Filing Date:
June 11, 2010
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
CENTRE NAT RECH SCIENT (FR)
DE LUCA LIVIO (FR)
DEVEAU MATTHIEU (FR)
International Classes:
G03B35/00; G01S5/00; G06E1/00; G06T17/00; H04N5/225; H04N13/00
Domestic Patent References:
WO2008008044A22008-01-17
WO2006047610A22006-05-04
WO2010010552A12010-01-28
Foreign References:
US5675112A1997-10-07
US6724930B12004-04-20
US6856935B12005-02-15
US5889550A1999-03-30
Other References:
None
Attorney, Agent or Firm:
KOENIG, Christine et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1.- Système de localisation (2) d'image photographique (22) pour modéliser une scène en 3 dimensions, caractérisé en ce que le système (2) comporte : - un dispositif repéré (4) comprenant un premier imageur (10) et au moins deux cibles (12i, 122) distinctes l'une de l'autre ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22) ;

- un dispositif de repérage (6) comportant un deuxième imageur (26) propre à imager au moins une cible (12i) positionnée à une distance connue (do) pour générer une vignette de référence (39), ledit deuxième imageur (26) étant apte à imager le dispositif repéré (4) pour générer une image photographique de repérage (30), ladite prise de vue du dispositif repéré (4) étant simultanée à la prise de vue de la scène (20) ; et

- une unité de calcul (9) apte à localiser angulairement l'image photographique à localiser (22) par rapport à un référentiel (25) à partir de la vignette de référence (39) et de l'image photographique de repérage (30).

2.- Système de localisation (2) selon la revendication 1, qui comprend une unité de mesure (7) apte à mesurer la position du dispositif repéré (4) par rapport au référentiel

(25), ladite mesure de position étant simultanée à la prise de vue de la scène (20) ; et dans lequel l'unité de calcul (9) est apte à positionner l'image photographique à localiser (22) à partir de la position mesurée.

3.- Système de localisation (2) selon la revendication 2, dans lequel l'unité de mesure (7) comprend : - un émetteur/récepteur (24) apte à émettre un faisceau vers un réflecteur (14) et à réceptionner le faisceau réfléchi par le réflecteur (14) ; et un réflecteur (14) apte à réfléchir le faisceau provenant de l' émetteur/récepteur (24) ; l' émetteur/récepteur (24) appartenant au dispositif de repérage (6), le réflecteur (14) appartenant au dispositif repéré (4) ; la position du dispositif repéré (4) par rapport à un référentiel (25) correspondant à la position du réflecteur (14) par rapport à un référentiel (25).

4.- Système de localisation (2) selon l'une quelconque des revendications 1 à 3, dans lequel les cibles (12ls 122) sont de couleurs différentes.

5.- Dispositif repéré (4) pour un système de localisation (2) d'image photographique (22) selon l'une quelconque des revendications 1 à 4, caractérisé en ce que le dispositif repéré (4) comprend un premier imageur (10) et au moins deux cibles

(12i, 122) distinctes l'une de l'autre ; le premier imageur (10) étant apte à imager une scène (20) pour générer l'image photographique à localiser (22).

6.- Procédé de localisation d'au moins une image photographique (22) pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique (2) ; ledit système de localisation (2) comportant un dispositif repéré (4) comprenant un premier imageur (10) et au moins deux cibles (12ls 122) distinctes l'une de l'autre, et un dispositif de repérage (6) comportant un deuxième imageur (26) et une unité de calcul (9), caractérisé en ce que le procédé comporte les étapes suivantes :

- obtention (36) d'au moins une partie d'une image photographique, ci-après appelée vignette de référence (39), représentant au moins une cible (12i) positionnée à une distance connue (do) ;

- prise de vue (44) d'une scène (20) par le premier imageur (10) pour générer l'image photographique à localiser (22) ;

- prise de vue (44) du dispositif repéré (4) par le deuxième imageur (26) pour générer une image photographique de repérage (30), ladite prise de vue du dispositif repéré (4) étant simultanée à la prise de vue de la scène (20) ;

- localisation (70) angulaire de l'image photographique à localiser (22) par rapport à un référentiel (25) à partir de la vignette de référence (39) et de l'image photographique de repérage (30).

7.- Procédé de localisation selon la revendication 6, à partir du système de localisation (2) comprenant une unité de mesure (7) comportant un émetteur/récepteur (24) intégré au dispositif de repérage (6) et un réflecteur (14) fixé au dispositif repéré (4) ; et dans lequel le procédé comprend en outre les étapes suivantes : - mesure (44) de la distance et des angles entre le réflecteur (14) et le deuxième imageur (26) par l'unité de mesure (7), ladite mesure de distance et d'angles étant simultanée à la prise de vue de la scène (20) ; et

- positionnement (70) de l'image photographique à localiser (22) à partir de ladite mesure de distance et d'angles, et de l'image photographique de repérage (30).

8.- Procédé de localisation selon l'une quelconque des revendications 6 et 7, dans lequel l'étape d'obtention (36) de la vignette de référence (39) est réalisée par prise de vue (36) de la cible (12i) positionnée à une distance connue (do) par le deuxième imageur (26).

9.- Procédé de localisation selon l'une quelconque des revendications 7 et 8, qui comporte en outre les étapes suivantes :

- échantillonnage (46) de la vignette de référence (39) en fonction de la distance connue (do) et de la distance entre le réflecteur (14) et le deuxième imageur (26) ; et

- détermination (48, 50, 52, 54, 56) de la position des cibles (12ls 122) dans l'image photographique de repérage (30) à partir de la vignette de référence (39) échantillonnée.

10.- Procédé de localisation selon la revendication 9, à partir du système de localisation (2) qui comprend en outre une mémoire (32) stockant les distances et les angles entre chaque cible (12ls 122) et le réflecteur (14), le procédé comportant une étape de détermination (58, 60, 62) des positions possibles de chaque cible (12^ 122) dans un espace virtuel, lesdites positions possibles étant les points d'intersection entre une sphère virtuelle (59) et une droite virtuelle (61), ladite sphère virtuelle (59) étant centrée sur la position du réflecteur (14), ladite sphère virtuelle (59) ayant un rayon égal à la distance entre chaque cible (12^ 122) et le réflecteur (14) ; ladite droite virtuelle (61) passant par un point perspectif (63) de l'image photographique de repérage (22) et par la position du barycentre de chaque cible (12^ 122) dans l'image photographique de repérage (30).

11.- Procédé de localisation selon la revendication 10, dans lequel le procédé comporte en outre une étape de détermination (64) des positions des cibles (12ls 122) dans l'espace virtuel par similitude entre, d'une part, les positions possibles des cibles (12i, 122) et, d'autre part, les distances et les angles entre chaque cible (12^ 122) et le réflecteur (14).

12.- Procédé de localisation selon la revendication 11, à partir du système de localisation (2) dans lequel la mémoire (32) stocke les distances et les angles entre le réflecteur (14) et le premier imageur (10), dans lequel le procédé comporte les étapes suivantes :

- calcul (40) d'une matrice de rotation (R) représentative de la rotation entre le réflecteur (14) et le premier imageur (10) et d'une matrice de translation (T) représentative de la translation entre le réflecteur (14) et le premier imageur (10) ; et

- établissement (66, 68) d'une matrice (Rg) représentative de l'orientation du premier imageur (10) par rapport au référentiel (25), et d'une matrice (Tg) représentative de la position premier imageur (10) par rapport au référentiel (25), à partir des positions des cibles (12ls 122), de la matrice de rotation (R) représentative de la rotation entre le réflecteur (14) et le premier imageur (10), et de la matrice de translation (T) représentative de la translation entre le réflecteur (14) et le premier imageur (10) ; et

- localisation (70) angulaire de l'image photographique à localiser (22) par rapport au référentiel (25) à partir de la matrice (Rg) représentative de l'orientation du dispositif repéré (4) par rapport au référentiel (25), et de la matrice (Tg) représentative de la position du dispositif repéré (4) par rapport au référentiel (25).

13. Programme informatique, caractérisé en ce qu'il comporte des instructions pour mettre en œuvre le procédé selon l'une quelconque des revendications 6 à 12, lorsqu'elles sont exécutées par un processeur.

Description:
Système et procédé de localisation d'image photographique

La présente invention concerne un système et un procédé de localisation d'image photographique pour modéliser une scène en 3 dimensions, ainsi qu'un dispositif repéré associé.

La modélisation à partir de photographies consiste à prendre plusieurs prises de vues selon différents angles d'un bâtiment ou d'une scène à l'aide d'un appareil photographique, à calculer les positions et orientations des points de vue des différentes prises de vue, à pointer les différents éléments structurants de ce bâtiment sur les différentes prises de vues, et à reconstruire une maquette tridimensionnelle de ce bâtiment ou de cette scène dans un espace virtuel, à partir des positions pointées sur les différentes prises de vues.

Dans ce processus, le pointage intervient dans deux étapes distinctes : - le calcul des positions et orientations des points de vue des différentes prises de vue ; et

- la saisie des éléments structurants du bâtiment.

Le pointage est réalisé par un technicien qui sélectionne manuellement des pixels des prises de vues à l'aide d'un pointeur d'un ordinateur. Ce pointage requiert plusieurs heures de travail.

L'invention a notamment pour but de réduire ou de supprimer l'étape longue et fastidieuse de pointage liée au calcul des positions et orientations des clichés.

A cet effet, l'invention a pour objet un système de localisation d'image photographique pour modéliser une scène en 3 dimensions, le système comportant :

- un dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre ; le premier imageur étant apte à imager une scène pour générer l'image photographique à localiser ;

- un dispositif de repérage comportant un deuxième imageur propre à imager au moins une cible positionnée à une distance connue pour générer une vignette de référence, ledit deuxième imageur étant apte à imager le dispositif repéré pour générer une image photographique de repérage, ladite prise de vue du dispositif repéré étant simultanée à la prise de vue de la scène ; et

- une unité de calcul apte à localiser angulairement l'image photographique à localiser par rapport à un référentiel à partir de la vignette de référence et de l'image photographique de repérage.

Suivant des modes particuliers de réalisation, le système de localisation comporte l'une ou plusieurs des caractéristiques suivantes :

- une unité de mesure apte à mesurer la position du dispositif repéré par rapport au référentiel, ladite mesure de position étant simultanée à la prise de vue de la scène ; et dans lequel l'unité de calcul est apte à positionner l'image photographique à localiser à partir de la position mesurée ; ladite unité de mesure comprenant

- un émetteur/récepteur apte à émettre un faisceau vers un réflecteur et à réceptionner le faisceau réfléchi par le réflecteur ; et un réflecteur apte à réfléchir le faisceau provenant de l' émetteur/récepteur ; l' émetteur/récepteur appartenant au dispositif de repérage, le réflecteur appartenant au dispositif repéré ; la position du dispositif repéré par rapport à un référentiel correspondant à la position du réflecteur par rapport à un référentiel ;

- des cibles de couleurs différentes.

L'invention a également pour objet un dispositif repéré pour un système de localisation d'image photographique décrit ci-dessus, ledit dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre ; le premier imageur étant apte à imager une scène pour générer l'image photographique à localiser.

L'invention a également pour objet un procédé de localisation d'au moins une image photographique pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique ; ledit système de localisation comportant un dispositif repéré comprenant un premier imageur et au moins deux cibles distinctes l'une de l'autre, et un dispositif de repérage comportant un deuxième imageur et une unité de calcul, caractérisé en ce que le procédé comporte les étapes suivantes : - obtention d'au moins une partie d'une image photographique, ci-après appelée vignette de référence, représentant au moins une cible positionnée à une distance connue ;

- prise de vue d'une scène par le premier imageur pour générer l'image photographique à localiser ;

- prise de vue du dispositif repéré par le deuxième imageur pour générer une image photographique de repérage, ladite prise de vue du dispositif repéré étant simultanée à la prise de vue de la scène ;

- localisation angulaire de l'image photographique à localiser par rapport à un référentiel à partir de la vignette de référence et de l'image photographique de repérage.

Suivant des modes particuliers de réalisation, le procédé comporte l'une ou plusieurs des caractéristiques suivantes :

- à partir du système de localisation décrit ci-dessus comprenant en outre une unité de mesure comportant un émetteur/récepteur intégré au dispositif de repérage et un réflecteur fixé au dispositif repéré ; le procédé comprend en outre les étapes suivantes :

- mesure de la distance et des angles entre le réflecteur et le deuxième imageur par l'unité de mesure, ladite mesure de distance et d'angles étant simultanée à la prise de vue de la scène ; et - positionnement de l'image photographique à localiser à partir de ladite mesure de distance et d'angles et de l'image photographique de repérage ;

- l'étape d'obtention de la vignette de référence est réalisée par prise de vue de la cible positionnée à une distance connue par le deuxième imageur ;

- le procédé comporte en outre les étapes suivantes : - échantillonnage de la vignette de référence en fonction de la distance connue et de la distance entre le réflecteur et le deuxième imageur ; et

- détermination de la position des cibles dans l'image photographique de repérage à partir de la vignette de référence échantillonnée ;

- à partir du système de localisation décrit ci-dessus comprenant en outre une mémoire stockant les distances et les angles entre chaque cible et le réflecteur, le procédé comporte en outre une étape de détermination des positions possibles de chaque cible dans un espace virtuel, lesdites positions possibles étant les points d'intersection entre une sphère virtuelle et une droite virtuelle, ladite sphère virtuelle étant centrée sur la position du réflecteur, ladite sphère virtuelle ayant un rayon égal à la distance entre chaque cible et le réflecteur ; ladite droite virtuelle passant par un point perspectif de l'image photographique de repérage et par la position du barycentre de chaque cible dans l'image photographique de repérage ; - le procédé comporte en outre une étape de détermination des positions des cibles dans l'espace virtuel par similitude entre, d'une part, les positions possibles des cibles et, d'autre part, les distances et les angles entre chaque cible et le réflecteur ;

- à partir du système de localisation décrit ci-dessus, dans lequel la mémoire stocke les distances et les angles entre le réflecteur et le premier imageur, le procédé comporte les étapes suivantes :

- calcul d'une matrice de rotation représentative de la rotation entre le réflecteur et le premier imageur et d'une matrice de translation représentative de la translation entre le réflecteur et le premier imageur ; et

- établissement d'une matrice représentative de l'orientation du premier imageur par rapport au référentiel, et de la matrice représentative de la position premier imageur par rapport au référentiel, à partir des positions des cibles, de la matrice de rotation représentative de la rotation entre le réflecteur et le premier imageur, et de la matrice de translation représentative de la translation entre le réflecteur et le premier imageur ; et - localisation angulaire de l'image photographique à localiser par rapport au référentiel à partir de la matrice représentative de l'orientation du dispositif repéré par rapport au référentiel, et de la matrice représentative de la position du dispositif repéré par rapport au référentiel.

Enfin, l'invention a également pour objet un programme informatique, caractérisé en ce qu'il comporte des instructions pour mettre en œuvre le procédé de localisation d'au moins une image photographique pour modéliser une scène en 3 dimensions à partir d'un système de localisation d'image photographique, lorsque ces instructions sont exécutées par un processeur.

L'invention sera mieux comprise à la lecture de la description qui va suivre, donnée uniquement à titre d'exemple et faite en se référant aux dessins, sur lesquels : la figure 1 est une vue schématique du système de localisation selon l'invention ; la figure 2 est un diagramme des étapes du procédé selon l'invention ; et les figures 3 et 4 sont des schémas représentant certaines étapes du procédé selon l'invention.

En référence à la figure 1 , le système de localisation 2 comprend un dispositif repéré 4 et un dispositif de repérage 6.

Selon le mode de réalisation illustré sur la figure 1, le dispositif repéré 4 comporte un support 8, un appareil photographique ci-après appelé premier imageur 10 et six cibles 12 ! avec i = 1,...6 portés par le support 8.

Le support 8 est par exemple formé par un anneau 16 sur le pourtour extérieur duquel les cibles 12 ! sont fixées. L'anneau 16 est en outre muni d'une barre 18 portant le premier imageur 10.

En variante, le support 8 présente une forme différente.

Le premier imageur 10 est apte à prendre en photographie un bâtiment ou une scène

20 pour générer une image photographique à localiser 22.

Les six cibles H 1 sont de forme sphérique. Chaque cible présente une couleur différente.

En variante, les cibles présentent des formes différentes.

En variante, le dispositif repéré 4 comporte uniquement deux cibles distinctes l'une de l'autre.

Le dispositif de repérage 6 comprend un deuxième appareil photographique, ci- après appelé deuxième imageur 26, propre à prendre en photographie le dispositif repéré 4 au moment où le premier imageur 10 prend en photographie la scène 20 pour générer une image photographique ci-après appelée image photographique de repérage 30.

Le système de localisation 2 comporte en outre une unité de mesure 7 et une unité de calcul 9.

L'unité de mesure 7 est apte à mesurer la position du dispositif repéré par rapport à un repère fixe. Elle comprend un émetteur/récepteur 24 intégré au dispositif de repérage 6 et un réflecteur 14 fixé sur le pourtour intérieur de l'anneau 16 du dispositif repéré.

L'émetteur/récepteur 24 est apte à émettre un faisceau laser vers le réflecteur 14 et à réceptionner le faisceau réfléchi par le réflecteur 14.

L'ensemble émetteur/récepteur 24 et réflecteur 14 est par exemple constitué par un télémètre. Dans ce cas, le réflecteur 14 est un prisme, et le télémètre est muni d'un système de suivi optique du prisme.

L'ensemble émetteur/récepteur 24, réflecteur 14 et deuxième imageur 26 est de préférence constitué par une station totale. Dans ce cas, les positions mesurées par l' émetteur/récepteur de la station totale sont corrigées pour définir des positions par rapport au centre de visée du deuxième imageur 26. Dans la suite de la description, il sera considéré que l'ensemble émetteur/récepteur 24, réflecteur 14 et deuxième imageur 26 est constitué par une station totale et que les positions mesurées par l' émetteur/récepteur sont corrigées pour définir des positions par rapport au centre de visée du deuxième imageur 26.

En variante, l' émetteur/récepteur 24 est apte à émettre un faisceau ultrason.

Un référentiel 25 est choisi conventionnellement au centre de visée du deuxième imageur 26. Un référentiel 27 est choisi conventionnellement au centre du réflecteur 14. Un référentiel 28 est choisi conventionnellement au centre de visée du premier imageur 10. Pour les besoins de l'invention, les matrices de rotation R, R' et Rg, et les matrices de translation T, T' et Tg sont établies.

La matrice de rotation R est représentative de la rotation entre le référentiel 27 du réflecteur 14 et le référentiel 28 du premier imageur 10. La matrice de rotation R' est représentative de la rotation entre le référentiel 25 du deuxième imageur 26 et le référentiel 27 du réflecteur 14. Enfin, la matrice Rg est représentative de la rotation entre le référentiel 25 du deuxième imageur 26 et le référentiel 28 du premier imageur 10 ou, autrement dit, l'orientation du premier imageur 10, par rapport au référentiel 25. En pratique, Rg = R . R' .

La matrice de translation T est représentative de la translation entre le référentiel 27 du réflecteur 14 et le référentiel 28 du premier imageur 10. La matrice de translation T' est représentative de la translation entre le référentiel 25 du deuxième imageur 26 et le référentiel 27 du réflecteur 14. La matrice de translation Tg est représentative de la translation entre le référentiel 25 du deuxième imageur et le référentiel 28 du premier imageur 10 ou, autrement dit, de la position du premier imageur 10, par rapport au référentiel 25. En pratique, Tg = T + T'.

L'unité de calcul 9 comporte une mémoire 32 propre à stocker un programme d'ordinateur et des données initiales, et un processeur 34 apte à exécuter ce programme d'ordinateur à partir des données initiales et des données fournies par l'unité de mesure 7, le premier imageur 10 et le deuxième imageur 26. A cet effet, l'unité de calcul 9, le premier imageur 10 et le deuxième imageur 26 comprennent des moyens de communication non représentés.

Les données initiales comportent les distances et les angles entre les cibles Yl x et le réflecteur 14, les distances et les angles entre le réflecteur 14 et le premier imageur 10, ainsi qu'une vignette de référence, comme explicité ci-après. En référence à la figure 2, le procédé de localisation selon l'invention débute par une étape 36 au cours de laquelle une cible est prise en photographie à une distance connue do. Cette cible est appelée première cible \2 \ ci-après.

Au cours d'une étape 38, une portion de l'image photographique photographiée au cours de l'étape 36, est extraite et enregistrée dans la mémoire 32. Cette portion d'image représente la première cible \1 \ . Cette portion d'image est représentée schématiquement sur la figure 3 et sera appelée ci-après vignette de référence 39.

Au cours d'une étape 40, les distances et les angles entre le réflecteur 14, et plus précisément le référentiel 27 du réflecteur, et le premier imageur 10, ou plus précisément le référentiel 28 du premier imageur, sont mesurés et enregistrés dans la mémoire 32. Le processeur 34 calcule la matrice de rotation R et la matrice de translation T correspondantes et les enregistre dans la mémoire 32.

Au cours d'une étape 42, les distances et les angles entre les cibles Yl x et le réflecteur 14 sont mesurés et enregistrés dans la mémoire 32.

Les distances et les angles entre les cibles Yl 1 et le réflecteur 14 définissent le modèle géométrique du dispositif repéré.

Les étapes 36 à 42 peuvent être effectuées en laboratoire.

Au cours d'une étape 44, le premier imageur 10 prend en photographie la scène 20 ou le bâtiment à photographier, et génère une image photographique à localiser 22.

Simultanément, le deuxième imageur 26 prend une photographie du dispositif repéré 4 pour générer une image photographique de repérage 30 et l'unité de mesure 7 mesure la distance jusqu'au dispositif repéré 4 et, en particulier, jusqu'au réflecteur 14 et les angles de visée du faisceau laser dans le référentiel 25 du deuxième imageur. L'étape

44 est réalisée sur site. En référence à la figure 3, le processeur 34 génère au cours d'une étape 46, une première 45, une deuxième 47 et une troisième 49 vignettes de travail par échantillonnage de la vignette de référence 39 avec trois facteurs de ré-échantillonnage différents. A cet effet, le processeur 34 utilise la distance entre le deuxième imageur 26 et le réflecteur 14 mesurée au cours de l'étape 44.

Le premier facteur de ré-échantillonnage fi est donné par la formule ci-dessous :

Dans laquelle : - D est la distance entre le deuxième imageur 26 et le réflecteur 14.

- do est la distance entre la première cible 12 1 et le deuxième imageur 26 lors de la prise de vue effectuée au cours de l'étape 36.

Lorsque le premier facteur de ré-échantillonnage fi est appliqué à la vignette de référence 39, celle-ci est redimensionnée pour que la première cible 12 1 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance D.

Le deuxième facteur de ré-échantillonnage f 2 est donné par la formule ci-dessous :

(D + R)

Λ = " d n dans laquelle R est la distance entre le réflecteur 14 et la cible Yl 1 la plus éloignée du réflecteur 14.

Lorsque le deuxième facteur de ré-échantillonnage f 2 est appliqué à la vignette de référence 39, la vignette de référence 39 est redimensionnée pour que la première cible 12i ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance égale à D+R.

Le troisième facteur de ré-échantillonnage f 3 est donné par la formule ci-dessous : (D - R)

Z 3 = d n

Lorsque le troisième facteur de ré-échantillonnage f 3 est appliqué à la vignette de référence 39, cette dernière est redimensionnée de manière à ce que la première cible 12 1 ait une dimension apparente équivalente à la dimension qu'elle aurait si elle avait été photographiée à une distance D-R.

Au cours d'une étape 48, un ensemble de scores de corrélation est calculé entre l'image photographique de repérage 30 et la première vignette de travail 45. A cet effet, l'image photographique de repérage 30 est partitionnée en plusieurs portions d'image 51 de même dimension que la première vignette de travail 45.

Un score de corrélation est par exemple calculé selon la formule mentionnée ci- dessous :

Dans laquelle :

- r est le score de corrélation,

- I 45 un vecteur ordonné représentatif des valeurs de gris x n 45 de n pixels de la vignette de travail, - I 51 est un vecteur ordonné représentatif des valeurs de gris x n de la portion d'image 51,

- V(/ 5 ) est la variance des valeurs de gris du vecteur I 45 ,

- V(/ 5/ ) est la variance des valeurs de gris du vecteur I 51 ,

- Cov(/ 5 , 1 51 ) est la covariance de / 5 et I 51 ,

Dans laquelle :

- n est le nombre total de pixels dans la vignette de travail Λ^ 5 est la moyenne des valeurs de gris des pixels x n A5 , M 51 est la moyenne des valeurs de gris des pixels XJ 5 .

Des scores de corrélation sont également calculés entre l'image photographique de repérage 30 et la deuxième 47 et la troisième 49 vignettes de travail pour obtenir trois ensembles de scores de corrélation. Chaque ensemble de scores de corrélation correspond aux scores de corrélation calculés avec une vignette de travail différente. Ces trois ensembles de scores de corrélation peuvent par exemple être représentés par trois images 53, 55, 57 en trois dimensions comme illustré sur la figure 3.

Au cours d'une étape 50, le processeur 34 recherche parmi ces trois ensembles de scores de corrélation, la valeur la plus élevée du score de corrélation, ainsi que la position (x l5 V 1 ) dans une des images 53, 55, 57, correspondant à cette valeur

Au cours d'une étape 52, un procédé de détection de contour est réalisé dans un sous-ensemble de l'image photographique de repérage 30 centré sur la position (x l5 V 1 ) déterminée au cours de l'étape 50.

Au cours d'une étape 54, un cercle est estimé sur le contour détecté au cours de l'étape 52, et la position (x,, y,) du centre de ce cercle est déterminée. Cette position (x,, y,) est assimilable à la position du centre de la cible détectée. Cette cible est l'une quelconque des six cibles du support 8 et sera référencée ci-après cible 12,.

En variante, lorsque la cible 12, n'est pas sphérique, une forme correspondant à la forme de la cible est estimée sur le contour détecté et la position du barycentre de cette forme est déterminée.

Au cours d'une étape 56, la cible 12, du support 8 correspondante à la cible détectée au cours des étapes 46 à 54, est reconnue par rapport à sa couleur.

Les étapes 46 à 56 permettent de déterminer les positions des cibles dans l'image photographique de repérage 30 à partir de la vignette de référence 39. Au cours d'une étape 58, la position du réflecteur 14 est recherchée dans un espace virtuel créé par le processeur 34, à partir de la distance et des angles mesurés par l'unité de mesure 7 au cours de l'étape 44.

Une sphère virtuelle 59 illustrée sur la figure 4 est générée autour de la position du réflecteur 14. Le rayon de la sphère virtuelle 59 est égal à la distance entre le réflecteur 14 et la cible déterminée 12,. Cette distance a été enregistrée dans la mémoire 32 au cours de l'étape 42.

Au cours d'une étape 60, une droite virtuelle 61 passant par le centre de visée 63 du deuxième imageur, aussi appelé point perspectif de l'image photographique de repérage 30, et par la position (x,, y,) du centre de la cible 12,, est définie. Les points d'intersection entre la droite virtuelle 59 et la sphère virtuelle 61 définissent deux hypothèses de position de la cible 12, dans l'espace virtuel.

Au cours d'une étape 62, le score de corrélation ayant la deuxième valeur la plus élevée, est recherché et les étapes 52 à 60 sont répétées pour ce deuxième score de corrélation.

Les étapes 52 à 62 sont répétées un nombre de fois correspondant au nombre de cibles sur le dispositif repéré 4.

Lorsque ces étapes ont été répétées a fois avec a égal au nombre de cibles, au cours d'une étape 64, les positions réelles des cibles sont choisies parmi l'ensemble des hypothèses de position de cibles par similitude avec le modèle géométrique du dispositif repéré 4 enregistré dans la mémoire 32.

Au cours d'une étape 66, une matrice de rotation R' et une matrice de translation T' sont établies entre le référentiel 25 du deuxième imageur et le référentiel 27 du réflecteur à l'aide de la position des cibles déterminées au cours de l'étape 64. Au cours d'une étape 68, la matrice Rg représentative de l'orientation du premier imageur 10 et la matrice Tg représentative de la position du premier imageur 10 par rapport au référentiel 25, sont déterminées à partir des matrices R et T calculées au cours de l'étape 40, et des matrices R' et T' établies au cours de l'étape 66, et par application des formules ci-dessous :

Rg = R . R' Tg = T + T'

Au cours d'une étape 70, l'image photographique à localiser 22 est localisée dans l'espace virtuel par mise en œuvre des matrices Rg et Tg dans des logiciels de modélisation 3D de type :

- « NUBES » développé par M. Livio De Luca, du laboratoire GAMSAU, et disponible à l'adresse internet suivante : http://www.map.archi.fr/nubes/introduction/projet.htm ;

- « MicMac » développé par M. Marc Pierrot-Deseilligny de l'IGN et Yves Egels, de l' ENSG et disponible à l'adresse internet suivante : http://www.micmac.ign.fr/ ;

- « ImageModeler » de la société Realviz - Autodesk ;

- « Photomodeler » de la société Eos System Inc. ; et

- « Socet Set » de la société BAE Systems.

En variante, l'image photographique à localiser 22 est localisée dans l'espace virtuel à l'aide de la matrice Rg et de la matrice Tg. La modélisation 3D de la scène est réalisée par pointage des éléments structurants sur l'image photographique 22 à localiser, par détection automatique des éléments structurant sur l'image photographique 22 et/ou par l'exploitation de toute autre information morphologique sur la surface à modéliser (une ou plusieurs images positionnées et orientées, un nuage de points obtenu par numérisation par balayage laser, un modèle 3D déjà existant).. La matrice de rotation Rg et la matrice de translation Tg doivent être calculées pour chaque nouvelle position du dispositif repéré.

En variante, les images photographiques à localiser sont localisées par rapport à un nuage de points représentatif de la scène à modéliser obtenu par une numérisation par balayage laser.

En variante, le dispositif repéré est monté sur un drone ou une montgolfière pour prendre des prises de vues aériennes.

En variante, les images à localiser sont localisées par rapport à une maquette 3D de 1 ' environnement.