Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
IMAGING OF A MACROSCOPIC PLANT OBJECT
Document Type and Number:
WIPO Patent Application WO/2016/151240
Kind Code:
A1
Abstract:
Imaging of a macroscopic plant object. The invention relates to a method for imaging a macroscopic plant object, comprising the steps of: reception (201) of two-dimensional image data of said object, these image data coming from at least one two-dimensional capture device and comprising data acquired beyond the visible spectrum, and three-dimensional reconstruction (202, 203, 204, 205, 206, 207, 208) of said object from at least these data acquired beyond the visible spectrum.

Inventors:
BILLIOT BASTIEN (FR)
COINTAULT FRÉDÉRIC (FR)
GOUTON PIERRE (FR)
Application Number:
PCT/FR2016/050634
Publication Date:
September 29, 2016
Filing Date:
March 22, 2016
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
UNIVERSITÉ DE BOURGOGNE (FR)
INST NAT SUPÉRIEUR DES SCIENCES AGRONOMIQUES DE L'ALIMENTATION ET DE L'ENVIRONNEMENT (FR)
International Classes:
G06T7/00; G06K9/00; H04N5/335; H04N13/239
Foreign References:
US20100322477A12010-12-23
US5555464A1996-09-10
CA2764135A12010-12-09
Other References:
BASTIEN BILLIOT: "Conception d'un dispositif d'acquisition d'images agronomiques 3D en extérieur et développement des traitements associés pour la détection et la reconnaissance de plantes et de maladies", THÈSE DE DOCTORAT - UNIVERSITÉ DE BOURGOGNE, 20 November 2013 (2013-11-20), XP055212163, Retrieved from the Internet [retrieved on 20150909]
S. PERTUZ ET AL.: "Analysis of focus measure operators for shape-from-focus", PATTERN RECOGNITION, 2013, pages 1415 - 1432, XP055173399, DOI: doi:10.1016/j.patcog.2012.11.011
Attorney, Agent or Firm:
RADAULT, Gabrielle et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1. Procédé d'imagerie d'un objet végétal macroscopique, comprenant les étapes consistant à :

recevoir (201) des données d'images bidimensionnelles dudit objet, ces données d'images bidimensionnelles étant issues d'au moins un dispositif de captation bidimensionnelle et comprenant des données acquises au-delà du spectre visible, et

effectuer une reconstruction tridimensionnelle (202, 203, 204, 205, 206, 207, 208) dudit objet à partir au moins de ces données acquises au-delà du spectre visible.

2. Procédé selon la revendication 1 , dans lequel

les données d'images bidimensionnelles reçues comprennent en outre des données acquises dans le spectre visible, et

on utilise ces données acquises dans le spectre visible pour la reconstruction tridimensionnelle.

3. Procédé selon l'une quelconque des revendications 1 ou 2, dans lequel les données acquises dans le spectre non-visible comprennent des données acquises dans le spectre infrarouge.

4. Procédé selon l'une quelconque des revendications 1 à 3, comprenant

une étape de réception (201) de N> 1 ensembles de données d'images bidimensionnelles, chaque ensemble étant acquis à une profondeur de champ correspondante et comprenant des valeurs d'une pluralité de pixels,

une étape de recalage (202) pour mettre en correspondance les pixels des N ensembles reçus,

pour chaque pixel, une étape de calcul (205, 208) pour estimer à partir des N ensembles de données d'images reçues, une valeur de profondeur de champ correspondant à un maximum de netteté.

5. Procédé selon l'une quelconque des revendications 1 à 4, dans lequel

les données d'images bidimensionnelles reçues comprennent, pour chaque pixel, un jeu de P> 1 valeurs de pixel, chaque valeur étant issue d'une acquisition réalisée dans une bande de fréquences correspondante .

6. Procédé selon la revendication 5 lorsqu'elle dépend de la 4, comprenant

pour chaque ensemble parmi les N ensembles, pour chaque pixel dudit ensemble, une étape d'estimation (204) à partir des P valeurs correspondant à ce pixel d'une valeur additionnelle correspondant à un maximum d'énergie réfléchie,

et dans lequel l'étape de calcul (205, 208) est effectuée à partir au moins des valeurs de pixel additionnelles ainsi estimées.

7. Procédé selon la revendication 5 lorsqu'elle dépend de la 4, comprenant une étape consistant à

pour chaque ensemble parmi les N ensembles, pour chaque pixel dudit ensemble, combiner au moins certaines des P valeurs de pixel correspondant à un pixel en une valeur de pixel enrichie, de façon à obtenir N images enrichies, et

dans lequel l'étape de calcul est effectuée à partir des N images enrichies.

8. Dispositif d'imagerie (1) d'un objet végétal macroscopique (2), comprenant

des moyens de réception (1 1), pour recevoir d'au moins un dispositif de captation bidimensionnelle (3) des données d'images bidimensionnelles dudit objet, ces données d'images comprenant des données acquises au-delà du spectre visible et

des moyens de traitement (12) agencés pour effectuer une reconstruction tridimensionnelle dudit objet à partir au moins de ces données acquises au-delà du spectre visible.

9. Système d'imagerie (100) d'un objet végétal macroscopique (2), comprenant un dispositif d'imagerie (1) selon la revendication 8 et le dispositif de captation bidimensionnelle (3), ledit dispositif de captation (3) étant apte à acquérir des données bidimensionnelles hors du spectre visible et à une pluralité de profondeurs de champs.

10. Système (100) selon la revendication 9, comprenant en outre des moyens de déplacement (31 , 33), pour entraîner en mouvement tout ou partie (32) du dispositif de captation bidimensionnelle (3) de façon à adapter la profondeur de champ,

des moyens de contrôle (12) pour piloter les moyens de déplacement,

dans lequel la liaison (41) entre les moyens de contrôle et les moyens de déplacement est distincte de la liaison (42) entre le dispositif de captation bidimensionnelle et les moyens de réception (1 1) du dispositif d'imagerie (1).

Description:
Imagerie d'un objet végétal macroscopique

L'invention concerne l'imagerie végétale macroscopique.

Par « végétal», on entend dans la présente demande aussi bien les plantes, y compris les algues, que les organismes macroscopiques communément dénommés champignons, même si ces organismes ne sont pas toujours reconnus comme étant des végétaux proprement dits.

Par « macroscopique », on entend que l'objet à représenter se voit à l'œil nu. Cet objet présente donc des dimensions de l'ordre d'au moins l / 10ème de millimètre, avantageusement d'au moins un millimètre, par exemple d'au moins un centimètre. Les dimensions de l'objet peuvent en revanche être inférieures à la dizaine de mètres, par exemple inférieures au mètre.

L'invention peut par exemple trouver une application dans le phénotypage, le comptage en champ, les mesures de dimensions en laboratoire, etc.

Le phénotypage est une technique conduisant à déterminer comment une variété végétale donnée réagit face à un environnement donné. Plus précisément, un grand nombre de plants d'une même variété ou non sont soumis à différentes manipulations, par exemple de l'état hydrique du sol, de la température (éclairage par lampes à

Sodium par exemple), de la teneur en CO2 de l'air ambiant, de l'inoculation de maladies, etc. Des mesures de croissance des plantes, de leur architecture et de leur transpiration sont ensuite réalisées afin de pouvoir mieux corréler conditions environnementales et état des plants.

Des box d'imagerie comprenant un ensemble de capteurs permettent d'estimer divers paramètres des plants ayant ainsi poussé dans ces divers environnements. Par exemple une caméra infra-rouge peut permettre d'estimer un stress azoté, un capteur thermique permet d'estimer le stress hydrique, etc.

Les box d'imagerie actuels peuvent permettre de caractériser ainsi jusqu'à 1800 plants par jour.

Une sélection variétale peut ensuite être effectuée en fonction de cette caractérisation, laquelle aura permis de savoir que dans un environnement donné telle variété prospère mieux que telle autre. Le comptage en champ est une technique visant à estimer un nombre d'éléments végétaux, par exemple un nombre d'épis de blé ou de grappes de raisin, produits dans une parcelle donnée, et ce à partir d'acquisitions réalisées sur cette parcelle même, permettant d'estimer par exemple un rendement. Le comptage en champ implique classiquement des logiciels de reconnaissance de formes pour l'identification et le comptage des éléments végétaux à partir d'images.

Les plates-formes d'acquisition utilisées dans l'imagerie végétale macroscopique peuvent comprendre plusieurs dispositifs, pour l'acquisition dans le visible, dans l'infrarouge, etc.

On cherche à obtenir des images 3D, afin de disposer de davantage d'informations. Par exemple, en cas d'image 2D sur laquelle deux épis de blés sont superposés, le logiciel risque de ne compter qu'un seul épi. Une image tridimensionnelle peut ainsi permettre de limiter ce risque d'erreur. Dans le cadre d'une application au phénotypage, une reconstruction 3D peut permettre d'estimer un volume foliaire, plutôt qu'une surface foliaire, et plus généralement d'obtenir une information de profondeur. Ceci peut être particulièrement utile lorsqu'on étudie la concurrence entre espèces, car on pourra évaluer la couverture foliaire de chaque plant plus précisément.

Il a été envisagé de rajouter à une plate-forme du type connu de l'art antérieur un scanner, mais il existe un besoin pour un procédé plus simple.

On cherche en conséquence à effectuer une reconstruction 3D.

Le document CA 2 764 135 décrit un exemple de procédé de reconstruction 3D, dans lequel on utilise une caméra TOF (de l'anglais « Time of Flight ») et une caméra couleur. Les données issues de ces deux caméras sont confrontées entre elles pour reconstruire une image 3D de la plante.

Il existe un besoin pour une reconstruction 3D d'objets végétaux macroscopiques permettant de concilier simplicité et haute qualité d'image.

Il est proposé un procédé d'imagerie d'un objet végétal macroscopique, dans lequel :

- on reçoit des données d'images bidimensionnelles dudit objet, ces données d'images bidimensionnelles étant issues d'au moins un dispositif de captation bidimensionnelle, comprenant par exemple un capteur optique, et ces données d'images bidimensionnelles comprenant des données acquises au-delà du spectre visible, et

- on effectue une reconstruction tridimensionnelle dudit objet à partir au moins de ces données acquises au-delà du spectre visible.

Ainsi, on prend en compte des informations correspondant à des longueurs d'ondes en dehors de la bande visible pour la reconstruction 3D d'un objet végétal macroscopique. En utilisant cette information en- dehors de la bande visible, on peut améliorer la précision de la reconstruction 3D.

L'invention peut en outre permettre d'éviter les recalages entre acquisitions réalisées hors du spectre visible et l'image 3D reconstruite, puisque l'image 3D est reconstruite à partir de ces acquisitions hors du spectre visible.

En outre, ce procédé présente l'avantage d'une mise en œuvre avec peu ou pas de modifications d'une plate-forme existante, car la plupart de ces plates-formes intègrent déjà des capteurs en-dehors de la bande visible.

L'objet végétal macroscopique peut par exemple comprendre : - une portion macroscopique d'un végétal, par exemple les racines ou un bourgeon,

- l'ensemble de ce végétal, ou bien encore

- un ensemble macroscopique de plusieurs végétaux, en état de concurrence ou non. On peut ainsi effectuer une reconstruction de plusieurs végétaux différents dans une même scène, ou au contraire des mêmes végétaux.

Très avantageusement, les données d'images bidimensionnelles reçues peuvent comprendre aussi des données acquises dans le spectre visible, et on peut utiliser aussi ces données acquises dans le spectre visible pour la reconstruction 3D.

Avantageusement, le procédé de reconstruction peut être un procédé SFF (de l'anglais « Shape From Focus »). Ce type de procédé s'est avéré bien adapté à l'imagerie du végétal macroscopique.

Ainsi, au cours de l'étape de réception, on peut recevoir N> 1 ensembles de données d'images bidimensionnelles, chaque ensemble étant acquis à une profondeur de champ correspondante et comprenant des valeurs d'une pluralité de pixels. Les ensembles peuvent comprendre des données acquises en dehors du spectre visible, et éventuellement des données acquises dans le spectre visible.

Ces N ensembles peuvent être issus d'un même dispositif d'acquisition bidimensionnelle. Le procédé peut ainsi être mis en œuvre avec un équipement optique relativement simple.

On peut prévoir une étape de recalage pour mettre en correspondance des pixels de ces N ensembles.

On peut ensuite estimer pour au moins un, et de préférence chaque, pixel une valeur de profondeur de champ correspondant à un maximum de netteté sur ces N acquisitions. Le procédé peut ainsi comprendre, pour chaque pixel mis en correspondance, une étape de calcul pour estimer à partir des N ensembles de données d'images reçues, une valeur de profondeur de champ correspondant à un maximum de netteté.

Par exemple, on peut estimer pour au moins un, et de préférence chaque, pixel, et pour au moins un, et de préférence chaque, ensemble, une valeur de netteté à partir des données de cet ensemble. On choisit ensuite la valeur de profondeur de champ correspondant à la valeur de netteté maximale, ou bien encore on calcule par interpolation une valeur de profondeur de champ correspondant à un maximum de netteté.

L'invention n'est en rien limitée à une reconstruction SFF.

Par exemple, on pourrait choisir une technique de stéréovision active, dite aussi lumière structurée. On projette alors sur l'objet un motif connu, puis on capte par exemple une seule image. Les données d'images bidimensionnelles reçues peuvent alors comprendre une seule image, à partir de laquelle on effectue une reconstruction 3D en analysant la forme sur cette image de ce motif a priori connu.

Alternativement, le procédé de reconstruction peut être un procédé de stéréovision. Les données d'images reçues comprennent alors une image gauche et une image droite.

Avantageusement, les données acquises dans le spectre non- visible peuvent comprendre des données acquises dans le spectre infrarouge, par exemple des données correspondant à des longueurs d'ondes entre 700 nm et 5 mm, avantageusement entre 780 nm et

50 μπι, avantageusement entre 800 nm et 20 μπι. Ces données peuvent s'avérer relativement pertinentes lorsque l'objet est un végétal. Alternativement, ou en complément, les données acquises dans le spectre non-visible peuvent comprendre des données acquises dans le spectre ultraviolet, ou autre.

Dans un mode de réalisation avantageux, les données d'images bidimensionnelles reçues peuvent comprendre, pour chaque pixel, un jeu de P> 1 valeurs de pixel, chaque valeur étant issue d'une acquisition réalisée dans une bande de fréquences correspondante. On prévoit ainsi P bandes de fréquences, par exemple P bandes de fréquences disjointes et recouvrant une large gamme du spectre, par exemple le visible et l'infra- rouge.

Dans le cas d'une reconstruction SFF en particulier, le procédé peut alors comprendre, pour au moins un, et de préférence chaque, pixel, et pour au moins un, et de préférence chacun, des N ensembles, une étape consistant à estimer une valeur de pixel additionnelle à partir des P> 1 valeurs de pixels correspondant à ce pixel.

L'étape de calcul conduisant à estimer une profondeur de champ pour un pixel peut ensuite être effectuée à partir d'au moins une, et de préférence de N, valeurs additionnelles ainsi estimées pour ce pixel, et éventuellement avec des valeurs de pixels voisins, par exemple des valeurs additionnelles estimées pour les pixels voisins.

Lors de l'estimation de cette valeur additionnelle on peut par exemple choisir une valeur parmi les P valeurs correspondant à ce pixel, ou bien encore procéder par interpolation.

Cette valeur de pixel additionnelle peut correspondre par exemple à un maximum d'énergie réfléchie.

La valeur de pixel additionnelle peut être estimée de façon à correspondre à une ou plusieurs bandes de fréquences identifiées comme particulièrement riches en information.

Alternativement, cette valeur de pixel additionnelle peut être estimée de façon à correspondre à un maximum de netteté. La valeur de pixel additionnelle peut alors être obtenue en utilisant en outre les valeurs correspondant aux pixels voisins.

L'invention n'est donc en rien limitée par la façon dont est déterminée la valeur de pixel additionnelle, pourvu que cette estimation soit fonction d'au moins certaines des P valeurs de pixels correspondant à ce pixel. Dans un autre mode de réalisation, le procédé peut comprendre, pour au moins un, et de préférence chaque, pixel, et pour au moins un, et de préférence chacun, des N ensembles, une étape consistant à combiner au moins certaines des P valeurs de pixel correspondant à ce pixel de façon à obtenir une valeur de pixel enrichie, par exemple un P- couplet de valeurs. En réitérant cette étape pour chaque pixel d'un ensemble, on peut ainsi obtenir une image enrichie.

Pour chaque pixel, on pourra estimer à partir de la ou des images enrichies, par exemple à partir de N images enrichies, une valeur de profondeur de champ correspondant à un maximum de netteté.

Il est en outre proposé un dispositif d'imagerie d'un objet végétal macroscopique, comprenant

- des moyens de réception, pour recevoir d'au moins un dispositif de captation bidimensionnelle des données d'images bidimensionnelles dudit objet, ces données d'images bidimensionnelles comprenant des données acquises au-delà du spectre visible et

- des moyens de traitement agencés pour effectuer une reconstruction tridimensionnelle dudit objet à partir au moins de ces données acquises au-delà du spectre visible.

Ce dispositif d'imagerie peut par exemple comprendre ou être intégré dans un ou plusieurs processeurs, par exemple dans un microprocesseur, un DSP (de l'anglais « Digital Signal Processor »), ou autre.

Les moyens de réception peuvent par exemple comprendre une broche d'entrée, un port d'entrée, ou autre.

Les moyens de traitement peuvent par exemple comprendre un cœur de processeur, ou CPU (de l'anglais « Central Processing Unit »), ou autre.

Le dispositif d'imagerie peut comprendre en outre des moyens de transmission pour transmettre des données de reconstruction tridimensionnelles issues des moyens de traitement vers un dispositif d'affichage, par exemple un écran, un moniteur 3D et/ou autre, en vue d'un rendu 3D de l'objet reconstruit.

II est en outre proposé un système d'imagerie d'un objet végétal macroscopique, comprenant un dispositif d'imagerie tel que décrit ci- dessus et au moins un dispositif de captation apte à acquérir des données bidimensionnelles hors du spectre visible et à une pluralité de profondeurs de champs.

A cet effet, on peut prévoir des moyens de déplacement, pour entraîner en mouvement tout ou partie du dispositif de captation, par exemple simplement une lentille, afin d'adapter la profondeur de champ.

Ces moyens de déplacement peuvent être pilotés par des moyens de contrôle, par exemple tout ou partie d'un processeur. Ces moyens de contrôle peuvent être intégrés dans le même processeur que les moyens de traitement du dispositif de gestion, ou non.

Avantageusement, on peut prévoir une liaison entre les moyens de contrôle et ces moyens de déplacement, sur laquelle sont émis par les moyens de contrôle des messages afin de piloter le déplacement de tout ou partie du dispositif de captation, et une autre liaison entre le dispositif de captation et le dispositif d'imagerie, sur laquelle sont émis par le dispositif de captation des messages transportant les données acquises.

L'utilisation de ces deux liaisons distinctes peut permettre de diminuer l'encombrement de la liaison de données entre les dispositifs de captation et le dispositif d'imagerie. On pourra prévoir d'utiliser un bus unidirectionnel.

Il est en outre proposé un produit programme d'ordinateur comprenant des instructions pour effectuer les étapes du procédé décrit ci-dessus lorsque ces instructions sont exécutées par un processeur. Ce programme peut par exemple être téléchargé, sauvegardé sur un support de type disque dur, ou autre.

Des modes de réalisation de l'invention sont à présent décrits en référence aux dessins annexés sur lesquels :

La figure 1 montre schématiquement un exemple de système d'imagerie selon un mode de réalisation de l'invention ;

La figure 2 est un organigramme correspondant à un exemple de procédé selon un mode de réalisation de l'invention. Des références semblables d'une figure à l'autre peuvent être utilisées pour désigner des objets semblables ou similaires.

En référence à la figure 1 , un système d'imagerie 100 d'un objet végétal macroscopique 2 comprend un dispositif de captation bidimensionnelle 3 et un terminal 5. L'objet 2 peut par exemple comprendre une portion d'un plant végétal, comme illustré sur la figure.

Le dispositif de captation 3 peut par exemple comprendre une caméra, un appareil-photo, ou autre.

Le terminal 5 peut par exemple comprendre un ordinateur, un téléphone intelligent, ou autre.

Le dispositif de captation comprend une lentille 32, entrainable en mouvement le long d'un axe optique par des moyens de déplacement 31 , 33. Ces moyens de déplacement peuvent par exemple comprendre un moteur pas à pas 33 et un processeur 31 pilotant ce moteur 33. Le processeur 31 peut ainsi imposer un déplacement de la lentille 32, et donc une adaptation de la profondeur de champ.

Un capteur 34 permet de générer des signaux électriques transportant des informations d'énergie réfléchie par l'objet 2. Ces signaux sont reçus par le processeur 31 et envoyés par un bus unidirectionnel de données 42 au terminal 5.

Le déplacement de la lentille 32 est contrôlée par le terminal 5, via un autre bus 41 , distinct du bus 42 afin d'éviter d'encombrer le bus 41.

Le terminal comprend un dispositif d'imagerie 1 , ici un microprocesseur, comprenant :

- des moyens de réception 1 1 de données mesurées issues du dispositif de captation 3, par exemple une ou plusieurs broches d'entrée,

- des moyens de transmission 13 de message de commande de positionnement de la lentille 32, par exemple une ou plusieurs broches de sortie,

- des moyens des traitement 12, par exemple un cœur de processeur ou CPU, pour élaborer les messages destinés au moteur pas à pas 33, et pour effectuer une reconstruction 3D de l'objet 2 à partir des données d'images 2D issues du dispositif de captation 3,

- des moyens de transmission (non représentés) de données 3D reconstruites issues du CPU 12, pour transmettre ces données par exemple vers un écran en vue d'un affichage.

Les dispositifs 1 , 3 peuvent être distincts et éventuellement éloignés l'un de l'autre, mais on peut prévoir d'embarquer ces dispositifs 1 , 3 dans un même appareil, par exemple un téléphone intelligent ou un terminal dédié.

La figure 2 est un organigramme d'un procédé mis en œuvre dans le dispositif d'imagerie 1.

Au cours d'une étape 201 , on reçoit des données d'images bidimensionnelles (p(x,y,i,j)}. Plus précisément, la lentille référencée 32 sur la figure 1 est régulièrement déplacée d'une position à l'autre le long de l'axe optique, de sorte que N> 1 acquisitions sont réalisées, chaque acquisition correspondant à une profondeur de champ.

Sur la figure 2, le paramètre j indice les acquisitions.

Pour chaque acquisition, on reçoit un ensemble de valeurs de pixels, x et y indiçant la position des pixels sur une image 2D. Chaque valeur p mesurée est une valeur d'énergie réfléchie.

En outre, pour une acquisition j donnée, pour chaque pixel correspondant à un couple (x,y), on reçoit P valeurs d'énergie réfléchie, chaque valeur d'énergie réfléchie correspondant à une bande spectrale.

Les P bandes de fréquences sont disjointes et forment une partition incluant le visible et l'infra- rouge.

Sur la figure 2, le paramètre i indice les bandes de fréquences. On procède ensuite à un recalage pour mettre en correspondance les pixels des N acquisitions réalisées. On procède par exemple en agrandissant certaines images et en repérant des points fixes d'une image à l'autre. La profondeur de champ variant d'une acquisition à l'autre, certaines valeurs de pixel, notamment sur les bords des images, ne pourront être mises en correspondances avec les valeurs de pixels de l'image acquise à la plus courte distance de l'objet.

Sur la figure 2, les paramètres x', y' indiquent les positions des pixels après recalage.

Ainsi le recalage 202 est mis en place en intégrant les données acquises en-dehors du spectre visible, ce qui est relativement avantageux par rapport à un procédé dans lequel la reconstruction serait basée sur des données acquises dans le visible seulement et qui imposerait ensuite un recalage entre données 3D reconstruites et données 2D en-dehors du visible.

Une boucle est ensuite mise en place afin de parcourir chacune des N acquisitions, avec des étapes d'initialisation 203 de l'indice j, d'incrémentation 206 de cet indice j, et avec en outre un test de sortie de boucle 207.

A des fins de simplicité, on n'a pas représenté les boucles permettant de parcourir l'ensemble des pixels d'une même acquisition, qui porteraient sur les couples (x',y'), mais l'homme du métier comprendra que les étapes 204 et 205 sont effectuées pour chacun des pixels après recalage.

Lors de l'exécution d'une boucle, et pour chacun des pixels recalés, on estime au cours d'une étape 204 une valeur de pixel additionnelle PE(X', y', j). Cette estimation est effectuée à partir des P valeurs correspondant à ce pixel.

Dans cet exemple, on choisit parmi ces P valeurs la valeur maximale, c'est-à-dire que PE(X', y', j) = max({p(x',y',i,j}i=i,...,p) .

Si cette valeur maximale est atteinte dans l'infrarouge, c'est ainsi une information acquise en dehors du spectre visible qui sera retenue pour la suite du procédé, permettant ainsi une meilleure qualité de reconstruction 3D.

Cette étape 204 est effectuée pour chacun des pixels. Puis, on estime une valeur de netteté pour chacun des pixels, au cours d'une étape 205.

Sur la figure 2, l'étape 205 succède à l'étape 204 à l'intérieur d'une même boucle, mais l'homme du métier comprendra qu'en pratique, deux autres boucles, indicées x',y', peuvent être mises en place car l'estimation de la valeur de netteté H(x',y',j) d'un pixel est fonction des valeurs additionnelles obtenues pour les pixels voisins.

On parcourt donc l'ensemble des pixels pour estimer une valeur additionnelle pour chacun des pixels avant de procéder à une estimation de netteté.

Au cours de cette étape 205, on pourra utiliser un opérateur de netteté du type connu de l'art antérieur, par exemple un operateur basé sur un gradient, tel que décrit dans l'article de S. Pertuz et al., « Analysis of focus measure operators for shape-from-focus », Pattern Récognition (2013), pages 1415- 1432, 2013, ou un autre opérateur.

Lorsque la netteté de chaque pixel de chacune des N acquisitions est ainsi estimée, le test de sortie de boucle 207 est positif et de nouvelles boucles, toujours non représentées, sont mises en place afin de parcourir l'ensemble des pixels recalés. Pour chacun des pixels, correspondant à un couple (x',y'), on estime au cours d'une étape 208 une valeur de profondeur de champ à partir des N valeurs additionnelles obtenues pour ce pixel. On cherche en fait la profondeur de champ correspondant à un maximum de netteté.

Par exemple, on choisit l'indice J ' MAX pour lequel la relation

PE(X', y', J ' MAX) = max({p(x',y', est vérifiée.

Puis, au cours d'une étape 209, des données d'images reconstruites sont transmises vers un moteur 3D. Ces données peuvent comprendre, pour chaque pixel, la valeur de profondeur de champ estimée à l'étape 208 pour ce pixel, ainsi qu'une valeur d'énergie p(x',y').

Cette valeur p(x',y') peut être la valeur additionnelle correspondant à la profondeur de champ estimée à l'étape 208, par exemple.

L'image reconstruite peut ensuite être analysée de façon automatisée, par exemple en utilisant des outils de reconnaissance de formes, notamment dans le cadre d'une application au comptage en champ.

L'étape de transmission des données d'images reconstruite à un moteur 3D est facultative. On pourrait par exemple prévoir une transmission à des moyens de traitement agencés pour déduire de ces données une valeur de hauteur, notamment dans le cas d'une application de type suivi de croissance. Ces moyens peuvent par exemple déterminer une valeur de profondeur maximale (ou minimale) à partir des valeurs de profondeur de champ reçues et assigner à la valeur de hauteur cette valeur de profondeur de champ maximale ou minimale.

Dans un autre mode de réalisation de l'invention, non illustré, plutôt que de ramener au cours de l'étape 204 les P valeurs de pixels à une seule valeur additionnelle, on élabore un spectre pour chaque pixel. Dit autrement, lorsque tous les pixels ont été parcourus, on a obtenu une image enrichie, et la netteté de chaque pixel est estimée à partir du spectre de ce pixel et des spectres des pixels voisins.

Le procédé décrit ci-dessus peut être mis en œuvre dans le cadre d'un phénotypage, d'opérations de comptage en champ, de suivi de croissance en laboratoire, ou autre. Ce procédé peut être mis en œuvre avec un outil monoculaire et permet d'obtenir des informations 3D, ce qui peut participer à la qualité de la sélection variétale dans le cas du phénotypage, ou bien encore du comptage dans le cas du comptage en champ, ou des mesures de hauteur dans le cas du suivi de croissance.

L'invention pourra ainsi trouver des applications en agriculture, notamment en viticulture, par exemple pour caractériser une culture en temps réel avec un système embarqué, par exemple pour évaluer des dégâts dans un champ, détecter des maladies de façon précoce, caractériser un nombre de plants par mètre carré, un rendement précoce, un volume foliaire, une teneur en azote, un nombre de plants levés/ semés, ou autre.