Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD, MODULE AND SYSTEM FOR PROJECTING ONTO A WORKPIECE AN IMAGE CALCULATED ON THE BASIS OF A DIGITAL MOCKUP
Document Type and Number:
WIPO Patent Application WO/2020/058643
Kind Code:
A1
Abstract:
Method for projecting onto a real workpiece (4) an image calculated on the basis of a digital mockup (31) recorded on a digital information server (3) associated with said real workpiece, for the viewing of said workpiece under augmented reality, comprising the following steps: capture by a camera of the image of the real workpiece, real-time alignment of the reference frame associated with said digital mockup with the reference frame of the video capture system and the reference frame of the real workpiece, comprising a step of reprocessing of said image calculated as a function of the topology of said digital mockup and as a function of the orientation of the projection means with respect to said real workpiece.

Inventors:
MONTANDON CHRISTOPHE (FR)
DELHOMMEAU JEAN-BAPTISTE (FR)
Application Number:
PCT/FR2019/052197
Publication Date:
March 26, 2020
Filing Date:
September 19, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
DIOTASOFT (FR)
International Classes:
G06T11/00; G06T19/00
Domestic Patent References:
WO2015091291A12015-06-25
WO2004093444A12004-10-28
WO2003032129A22003-04-17
Foreign References:
FR3021784A12015-12-04
US20160358382A12016-12-08
US20170054954A12017-02-23
Other References:
"EUROGRAPHICS", 1 January 2001, SPRINGER VERLAG, VIENNA, AT, ISSN: 0946-2767, article RAMESH RASKAR ET AL: "Shader Lamps: Animating Real Objects With Image-Based Illumination", pages: 89 - 102, XP055286121, DOI: 10.1007/978-3-7091-6242-2_9
RAMESH RASKAR ET AL: "iLamps", ACM SIGGRAPH 2003 PAPERS, ACM US, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 1 July 2003 (2003-07-01), pages 809 - 818, XP058134370, ISBN: 978-1-58113-709-5, DOI: 10.1145/1201775.882349
DAVID LINDLBAUER ET AL: "Combining Shape-Changing Interfaces and Spatial Augmented Reality Enables Extended Object Appearance", HUMAN FACTORS IN COMPUTING SYSTEMS, ACM, 2 PENN PLAZA, SUITE 701 NEW YORK NY 10121-0701 USA, 7 May 2016 (2016-05-07), pages 791 - 802, XP058257539, ISBN: 978-1-4503-3362-7, DOI: 10.1145/2858036.2858457
Attorney, Agent or Firm:
BREESE, Pierre (FR)
Download PDF:
Claims:
Revendications

1. Procédé (PI, P2) de projection sur une pièce réelle (4) d'une image calculée à partir d'une maquette numérique (31) enregistrée sur un serveur d'informations numériques (3) associée à ladite pièce réelle, pour la visualisation de ladite pièce en réalité augmentée, comprenant les étapes suivantes :

- capture par une caméra de l'image de la pièce réelle,

- recalage en temps réel du repère associé à ladite maquette numérique avec le repère du système de capture vidéo et le repère de la pièce réelle,

caractérisé en ce qu'il comporte une étape de retraitement de ladite image calculée en fonction de la topologie de ladite maquette numérique et en fonction de l'orientation du moyen de projection par rapport à ladite pièce réelle.

2. Procédé (PI) de projection selon la revendication précédente, dans lequel l'étape de retraitement comporte une détection d'une zone traversante (41, 42) de l'objet réel (4) à partir de la topologie de la maquette numérique (31) et de l'orientation d'un moyen de projection (5) par rapport à ladite pièce réelle et, une atténuation de l'intensité lumineuse des zones de ladite image calculée correspondant à la zone traversante ainsi détectée.

3. Procédé (P2) de projection selon l'une quelconque des revendications précédentes, dans lequel l'étape de retraitement comporte une détection d'une zone de la maquette numérique (31) décalée en profondeur par rapport à un plan (44) de référence perpendiculaire à l'axe passant par le point focal du projecteur et le barycentre de la pièce réelle (4), et une modification de l'image calculée dans les parties correspondant à ladite zone.

4. Procédé (P2) de projection selon la revendication précédente, dans lequel la modification comporte une occultation dans l'image calculée d'informations numériques additionnelles.

5. Procédé (P2) de projection selon la revendication 3, dans lequel la modification comporte une correction numérique pour compenser le décalage entre la surface de projection et ledit plan de référence aux pixels desdites zones.

6. Procédé (P2) de projection selon la revendication précédente, dans lequel la correction comporte une production d'une matrice d'erreur, constituée par la différence entre une matrice calculée à partir de l'image acquise à partir de la pièce réelle et une matrice de référence correspondant à la topologie de la maquette numérique repositionnée dans le même référentiel, puis une production d'un critère d'erreur et une modification des cellules de la matrice de référence de l'image à projeter en cours d'adaptation, de façon à minimiser la matrice d'erreur et/ou une mesure scalaire de celle-ci.

7. Module de projection (5) sur une pièce réelle (4) d'une image calculée à partir d'une maquette numérique (31) enregistrée sur un serveur d'information numérique (3) et associée à ladite pièce réelle, pour la visualisation de ladite pièce réelle en réalité augmentée, comprenant :

- un module de capture (2) d'une image de la pièce réelle, - un module de recalage configuré pour recaler en temps réel un repère associé à ladite maquette numérique avec un repère du module de capture et un repère de la pièce réelle, caractérisé en ce qu'il comporte un module de retraitement configuré pour retraiter ladite image calculée en fonction de la topologie de ladite maquette numérique et en fonction de l'orientation du moyen de projection par rapport à ladite pièce réelle.

8. Système (1) de projection comportant :

- une caméra (2),

- un serveur d'informations numériques (3) comportant une maquette numérique (31),

- une pièce réelle (4) associée à la maquette numérique,

- un module de projection (5) selon la revendication précédente.

9. Système de projection (1) selon l'une quelconque des revendications précédentes de système, dans lequel le module de retraitement est configuré pour mettre en œuvre l'étape de retraitement selon l'une quelconque des revendications précédentes de procédé de projection.

10. Produit programme d'ordinateur, chargeable directement dans la mémoire interne d'un ordinateur, comprenant des portions de code de logiciel pour l'exécution des étapes du procédé selon l'une des revendications précédentes, lorsque ledit programme est exécuté sur un ordinateur.

Description:
PROCEDE, MODULE ET SYSTEME DE PROJECTION SUR UNE PIECE

D'UNE IMAGE CALCULEE A PARTIR D'UNE MAQUETTE NUMERIQUE

Domaine de l'invention

La présente invention concerne un système d'affichage visuel d'informations sur des objets réels pour des applications de réalité augmentée dans l'industrie, notamment pour la conception, la fabrication, l'assemblage ou la maintenance de pièces techniques.

Différents systèmes de réalité augmentée sont connus pour étendre la perception de la réalité visuelle avec des informations provenant d'une maquette numérique et plus largement de contenus numériques pouvant être projetés sur la surface de l'objet réel, par exemple des icônes ou des textes désignant les parties de l'objet sur lesquels un opérateur doit intervenir.

Ces solutions de réalité augmentée permettent d'améliorer l'efficacité des étapes de travail manuel dans la fabrication, l'assemblage et la maintenance et, en même temps, la qualité du travail à améliorer. La transmission précise d'informations, par exemple l'état de planification numérique (modèle CAO) directement à une pièce, rend la transmission complexe et sujette à erreur des plans de construction en utilisant des modèles et d'autres instruments de mesure dispensables. Une comparaison de variance visuelle peut être réalisée à tout moment et de manière intuitive pour un utilisateur. De plus, des instructions de travail, par exemple des instructions pas-à- pas, peuvent être mises à disposition directement sur l'objet de travail ou dans le champ de vision de l'utilisateur, c'est-à-dire exactement là où elles sont réellement nécessaires. Des scénarios typiques d'application de l'invention comprennent des systèmes d'assistance d'ouvriers pour afficher des instructions d'assemblage et de maintenance et des informations pour l'assurance qualité. Par exemple, les positions d'assemblage ou les trous de forage peuvent être marqués avec précision ou des points de soudure ou des supports à vérifier peuvent être identifiés. Le système est également adapté pour fournir une assistance au personnel d'entretien sur place par des experts non-résidents qui peuvent contrôler à distance la projection par une caméra intégrée.

Les pièces à usiner doivent être calibrées avec précision, en fonction de la position et de l'orientation du projecteur, de manière à permettre une association entre le référentiel des informations additionnelles, et le référentiel de l'objet réel.

Une solution de recalage des référentiels est basée sur l'utilisation de marqueurs : le système d'affichage visuel d'informations sur des objets réels comprend une unité de projection qui transmet graphiquement une information à un objet et un dispositif de suivi dynamique ayant un système de capteur 3D qui détermine et conserve la position et/ou l'orientation de l'objet et/ou de l'unité de projection dans l'espace. Un dispositif de commande pour l'unité de projection adapte la transmission de l'information à la position actuelle et/ou à l'orientation de l'objet et/ou de l'unité de projection, tel que déterminé par le dispositif de suivi.

La combinaison d'un projecteur avec un dispositif de suivi 3D dynamique permet un étalonnage continu et automatique (référencement dynamique) du projecteur et/ou de l'objet sur lequel une information doit être affichée, par rapport à l'environnement de travail. Il en résulte que l'unité de projection et l'objet peuvent tous deux être déplacés librement puisqu'à chaque mouvement de l'unité de projection ou de l'objet, la transmission graphique et/ou picturale de l'information est automatiquement suivie.

D'autres solutions permettent calculer la localisation de l'objet réel par rapport au point de vue de l'utilisateur pour aligner en permanence les informations numériques avec le monde réel sans l'apposition de marqueurs. La technologie SLAM (Simultaneous localization and mapping), permet d'opérer une reconstruction 3D de l'environnement.

D'autres solutions reposent sur des algorithmes d'apprentissage automatique qui permettent de reconnaître l'objet et de le suivre au fur et à mesure du temps.

État de la technique

On connaît dans l'état de la technique la demande de brevet internationale WO201591291 qui concerne un procédé d'exécution et de contrôle d'une étape d'usinage sur une pièce en utilisant un système comprenant un projecteur, un dispositif de photogrammétrie ainsi qu'une unité de commande, laquelle connaît la position relative du projecteur et du dispositif de photogrammétrie. Le procédé comprend les étapes suivantes : référencement en vue de déterminer la posture de la pièce par rapport au projecteur et au dispositif de photogrammétrie dans un système de coordonnées prédéfini ; projection d'une instruction de travail sur la pièce ; usinage de la pièce par un opérateur ; et contrôle de l'usinage par balayage d'au moins une zone partielle de la surface de la pièce. Toutes les étapes sont exécutées par le système sur le même poste de travail dans le cadre d'un processus intégré, à l'exception de l'usinage par l'opérateur.

On connaît aussi la demande de brevet internationale WO200493444 se rapportant à un procédé qui permet d'afficher une image de sortie sur un objet. À cet effet, un groupe de marqueurs uniques est fixé sur l'objet dans des positions prédéterminées. Une image d'entrée de l'objet et des marqueurs est captée par une caméra dans une relation physique fixe par rapport à un projecteur. Une pose du projecteur par rapport aux marqueurs est déterminée à partir de l'image. Puis, une ou plusieurs images de sortie relatives à l'objet peuvent être projetées sur l'objet, en des endroits prédéterminés, en fonction de la pose du projecteur et des marqueurs uniques. Le brevet français FR3021784 décrit un procédé de projection d'informations issues d'un modèle numérique de conception comprenant les étapes suivantes :

- une étape de calibration comprenant une acquisition de données caractéristiques provenant d'une surface d'intérêt, la comparaison desdites données caractéristiques avec des données numériques issues du modèle numérique de conception, et la détermination d'une position spatiale du dispositif de projection comprenant un vidéoprojecteur et au moins deux dispositifs d'acquisition d'image distincts, et,

- une étape de projection selon ladite position spatiale d'informations issues du modèle de conception numérique au moyen dudit vidéoprojecteur, sur ladite surface d'intérêt.

La demande de brevet internationale WO200332129 décrit un autre exemple de système permettant de visualiser des écarts sur une surface réelle par rapport à une surface nominale, ou dessinée, qui utilisent un système et un procédé qui consistent à cartographier les coordonnées spatiales (par exemple x, y et z) de la surface réelle sur un ordinateur, à comparer la surface réelle cartographiée à la surface nominale afin de réaliser une distribution tridimensionnelle des valeurs d'écart (D), à traiter cette distribution en motif topographique de contours ou zones multiples, chaque contour ou zone présentant la même, ou généralement la même, valeur d'écart (D), et à projeter optiquement ce motif topographique sur la surface réelle en concordance avec la cartographie initiale de la surface afin de produire un affichage des écarts superficiels (D) directement sur la surface réelle. Ces écarts sont mesurés suivant une orientation D perpendiculaire à la surface réelle, ce qui permet de donner la distribution tridimensionnelle en coordonnées x, y, D. La projection optique est, de préférence, une projection laser. La cartographie et la projection sur la surface réelle sont effectuées et coordonnées par rapport à trois points de référence sur ladite surface. La demande de brevet américain US20160358382 décrit un exemple de procédé pour la réalité augmentée en temps réel utilisant des techniques de projection 3D, le procédé comprenant :

- capturer, par un capteur 3D couplé à un dispositif informatique, un ou plusieurs balayages d'un objet physique dans une scène ;

- générer, par le dispositif informatique, un ou plusieurs modèles 3D de l'objet physique sur la base du ou des balayages ;

- déterminer, par le dispositif informatique, une pose du ou des modèles 3D par rapport à un projecteur sur la scène ;

- prédisposer, par le dispositif informatique, d'un contenu d'image basé sur la pose du ou des modèles 3D pour générer une carte d'image rendue et un résultat d'étalonnage ; et

- superposer, par un projecteur couplé au dispositif informatique, la carte d'image rendue sur l'objet physique dans la scène en utilisant le résultat d'étalonnage.

La demande de brevet américaine US20170054954 décrit un système pour afficher visuellement des informations sur des objets réels, comprenant :

- une unité de projection comprenant au moins un projecteur qui transmet graphiquement ou visuellement une information à un objet, l'information comprenant au moins des informations provenant des plans de construction de l'objet ;

- un dispositif de suivi dynamique ayant un système de capteur 3D comprenant au moins une caméra, dans lequel le dispositif de suivi dynamique détermine et garde une trace et/ou une orientation de l'objet et/ou de l'unité de projection dans l'espace ;

- une pluralité de marqueurs agencés aux points de référence d'un environnement dans lequel le système est employé, et dans lequel les marqueurs sont adaptés pour être détectés par le système de capteur 3D du dispositif de suivi dynamique ; et dans lequel l'unité de projection est commandée pour adapter une transmission de l'information à une position et/ou une orientation courante de l'objet et/ou de l'unité de projection déterminée par le dispositif de suivi dynamique, et dans lequel le dispositif de suivi dynamique est conçu pour une détection continue de la position et/ou de l'orientation de l'objet et/ou de l'unité de projection en temps réel de sorte que sur la base de la transmission de l'unité de projection, toute divergence avec les plans de construction peut être identifiée par un travailleur.

Inconvénients de l'art antérieur

Les solutions de l'art antérieur ne sont pas totalement satisfaisantes, car dans certaines situations, la projection des informations de réalité augmentées perturbe l'opérateur. Par exemple, lorsque la pièce réelle présente des cavités traversantes et que le projecteur est dans l'axe d'une telle cavité, le faisceau peut éblouir l'opérateur lorsqu'il intervient sur le côté de la pièce opposé au projecteur.

De même, lorsque la projection se fait sur des parties courbes de la pièce sur laquelle l'image de réalité augmentée est projetée ou décalée par rapport à un plan de référence normal par rapport à l'axe de projection, les informations sont inexploitables en raison de la déformation ou du flou qui en résulte.

Solution apportée par l'invention

L'invention vise à remédier à ces inconvénients en proposant une autoadaptation de la projection en fonction de la topologie et de la position de la pièce par rapport au projecteur.

À cet effet, il est proposé, selon un premier aspect de l'invention, un procédé de projection d'une image calculée à partir d'une maquette numérique enregistrée sur un serveur sur une pièce réelle associée à ladite maquette numérique pour la visualisation de ladite pièce en réalité augmentée, comprenant les étapes suivantes :

- capture par une caméra de l'image de la pièce réelle, - recalage en temps réel du repère associé à ladite maquette numérique avec le repère du système de capture vidéo et le repère de la pièce réelle.

Selon le premier aspect de l'invention, le procédé comporte une étape de retraitement de l'image calculée en fonction de la topologie de la maquette numérique et en fonction de l'orientation du moyen de projection par rapport à la pièce réelle.

L'étape de retraitement peut comporter une détection d'une zone traversante de l'objet réel à partir de la topologie de la maquette numérique et à partir de l'orientation du moyen de projection par rapport à la pièce réelle et, peut comporter une atténuation de l'intensité lumineuse des zones de ladite image calculée correspondant à la zone traversante ainsi détectée.

Avantageusement, l'étape de retraitement peut comporter une détection d'une zone de la maquette numérique décalée en profondeur par rapport à un plan de référence perpendiculaire à l'axe passant par le point focal du projecteur et le barycentre de la pièce réelle, et peut comporter une modification de l'image calculée dans les parties qui correspondent à la zone.

Selon une possibilité, la modification peut comporter une occultation dans l'image calculée d'informations numériques additionnelles.

Selon une autre possibilité, éventuellement combinable avec la première possibilité, la modification peut comporter une correction numérique pour compenser le décalage entre la surface de projection et ledit plan de référence aux pixels desdites zones.

Selon un mode de réalisation particulier, la correction peut comporter une production d'une matrice d'erreur, constituée par la différence entre une matrice calculée à partir de l'image acquise à partir de la pièce réelle et une matrice de référence correspondant à la topologie de la maquette numérique repositionnée dans le même référentiel, puis une production d'un critère d'erreur et une modification des cellules de la matrice de référence de l'image à projeter en cours d'adaptation, de façon à minimiser la matrice d'erreur et/ou une mesure scalaire de celle-ci.

Selon un deuxième aspect de l'invention, il est proposé un module de projection d'une image calculée à partir d'une maquette numérique enregistrée sur un serveur sur une pièce réelle associée à ladite maquette numérique pour la visualisation de ladite pièce en réalité augmentée, comprenant :

- un module de capture d'une image de la pièce réelle,

- un module de recalage configuré pour recaler en temps réel un repère associé à ladite maquette numérique avec un repère du système de capture vidéo et un repère de la pièce réelle.

Selon l'invention, le module de projet comporte un module de retraitement configuré pour retraiter ladite image calculée en fonction de la topologie de ladite maquette numérique et en fonction de l'orientation du moyen de projection par rapport à ladite pièce réelle.

Les différents modules peuvent être implémentés sous forme électronique, sous forme de logiciel, ou encore, par exemple, sous forme de FPGA.

Selon un troisième aspect de l'invention, il est proposé un système de projection comportant :

- une caméra,

- un serveur d'informations numériques comportant une maquette numérique,

- une pièce réelle associée à la maquette numérique,

- un module de projection selon le deuxième aspect de l'invention, ou l'un ou plusieurs de ses perfectionnements.

Selon une possibilité, le module de retraitement est configuré pour mettre en œuvre l'étape de retraitement selon le premier aspect de l'invention, ou l'un ou plusieurs de ses perfectionnements. Selon un quatrième aspect de l'invention, il est proposé un produit programme d'ordinateur, chargeable directement dans la mémoire interne d'un ordinateur, comprenant des portions de code de logiciel pour l'exécution des étapes du procédé selon l'une des revendications précédentes, lorsque ledit programme est exécuté sur un ordinateur.

Présentation des figures

D'autres données, caractéristiques et avantages de la présente invention apparaîtront à la lecture de la description de mises en œuvre et de modes de réalisation nullement limitatifs, au regard de dessins annexés sur lesquels :

- la figure 1 illustre un mode de réalisation d'un système selon l'invention,

- la figure 2 illustre une première situation de mise en œuvre d'un procédé selon un premier mode de réalisation d'un procédé selon l'invention,

- la figure 3 illustre une deuxième situation de mise en œuvre d'un procédé selon un deuxième mode de réalisation d'un procédé selon l'invention.

Description des modes de réalisation

Les modes de réalisation décrits ci-après n'étant nullement limitatifs, on pourra notamment considérer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites, par la suite isolées des autres caractéristiques décrites, si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique, de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. La figure 1 illustre un premier mode de réalisation d'un système de projection 1 selon l'invention.

Le système de projection 1 comporte :

- une caméra 2,

- un serveur d'informations numériques 3 comportant une maquette numérique 31,

- une pièce réelle 4 associée à la maquette numérique 31,

- un module de projection 5 selon un mode de réalisation d'un module de projection selon l'invention.

Selon l'exemple illustré par la figure 1, la caméra 2 et le module de projection 5 sont intégrés au sein d'un même dispositif 6.

Le module de projection 5 est configuré pour projeter une image sur la pièce réelle 4.

L'image projetée est calculée à partir de la maquette numérique 31 enregistrée sur le serveur d'information numérique 3.

Aussi, selon le mode de réalisation illustré par la figure 1, le module de projection 5 comporte :

- un module de capture d'une image de la pièce réelle, ici constitué par la caméra 2,

- une unité de calcul 7.

L'unité de calcul 7 est configurée pour recaler en temps réel un repère associé à la maquette numérique 31 avec un repère du module de capture 2 et un repère de la pièce réelle 4.

L'unité de calcul 7 est en outre configurée pour retraiter l'image calculée en fonction de la topologie de la maquette numérique 31 et en fonction de l'orientation du moyen de projection 5 par rapport à la pièce réelle 4.

La figure 2 illustre une situation de mise en œuvre d'un premier mode de réalisation d'un procédé PI selon l'invention. Le procédé PI comporte :

- une étape de capture par la caméra 2 de l'image de la pièce réelle 4,

- une étape de recalage en temps réel du repère associé à la maquette numérique 31 avec le repère de la caméra 2 et le repère de la pièce réelle 4,

- une étape de retraitement de l'image calculée en fonction de la topologie de la maquette numérique 31 et en fonction de l'orientation du moyen de projection par rapport à la pièce réelle 4.

Comme cela est illustré par la figure 2, l'étape de retraitement du procédé PI comporte en outre :

- une détection de deux zones traversantes 41 et 42 de l'objet réel 4, à partir de la topologie de la maquette numérique 31 et de l'orientation du module de projection 5 par rapport à ladite pièce réelle et,

- une atténuation de l'intensité lumineuse des zones de ladite image calculée correspondant aux deux zones traversantes 41 et 42 ainsi détectées.

Aussi, cela permet d'éviter d'éblouir un œil d'un utilisateur qui recevrait un rayon projeté à travers la zone correspondante et provenant de la projection de l'image retraitée par le module de projection 5.

Il est proposé un procédé P2, selon un deuxième mode de réalisation d'un procédé selon l'invention, uniquement décrit pour ses différences avec le procédé P2.

La figure 3 illustre une situation de mise en œuvre du deuxième mode de réalisation.

L'étape de retraitement du procédé P2 comporte :

- une détection d'une zone de la maquette numérique 31 décalée en profondeur par rapport à un plan de référence perpendiculaire à l'axe passant par le point focal du projecteur et le barycentre de la pièce réelle,

- et une modification de l'image calculée dans les parties correspondant à ladite zone.

La zone de la pièce réelle 4 correspondant à la zone de la maquette numérique 31 décalée en profondeur est référencée sur la figure avec le numéro 43.

Le plan de référence perpendiculaire à l'axe passant par le point focal du projecteur et le barycentre de la pièce réelle est référencé sur la figure avec le numéro 44.

L'image calculée peut comporter des informations numériques additionnelles 45 et 46, par exemple pour indiquer un diamètre des deux trous supérieurs Tl, T2 représentés sur la figure.

L'image calculée peut également comporter des informations numériques additionnelles correspondant au diamètre du trou inférieur représenté sur la figure T3.

Toutefois, dans l'exemple représenté sur la figure, sur détection du décalage entre la zone de la maquette numérique 31 et du plan de référence, l'image calculée est modifiée par une occultation dans l'image calculée des informations numériques additionnelles correspondant au trou T3.

Selon une première variante du procédé P2, uniquement décrit pour ses différences avec ce dernier, la modification pourrait comporter une correction numérique pour compenser le décalage entre la surface de projection et le plan de référence.

Selon une deuxième variante du procédé P2, uniquement décrit pour ses différences avec le procédé P2, et éventuellement combinable avec la première variante, l'étape de correction comporte une production d'une matrice d'erreur, constituée par la différence entre une matrice calculée à partir de l'image acquise à partir de la pièce réelle et une matrice de référence correspondant à la topologie de la maquette numérique repositionnée dans le même référentiel, puis une production d'un critère d'erreur et une modification des cellules de la matrice de référence de l'image à projeter en cours d'adaptation, de façon à minimiser la matrice d'erreur et/ou une mesure scalaire de celle-ci.

Bien sûr, l'invention n'est pas limitée aux exemples qui viennent d'être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l'invention. De plus, les différentes caractéristiques, formes, variantes et modes de réalisation de l'invention peuvent être associés les uns avec les autres selon diverses combinaisons dans la mesure où ils ne sont pas incompatibles ou exclusifs les uns des autres.