Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
DEVICE FOR OBSERVING A SAMPLE AND METHOD FOR OBSERVING A SAMPLE
Document Type and Number:
WIPO Patent Application WO/2018/060619
Kind Code:
A1
Abstract:
The invention is a device allowing a sample (10) to be observed in a first mode, by lensless imaging using a first sensor (16). This first mode allows a first image to be obtained, on the basis of which a region of interest of the sample may be identified. The device then allows, via a relative movement (30), the region of interest to be analysed using a more precise second mode and in particular using an optical system (25) coupled to a second sensor (26).

Inventors:
ALLIER CÉDRIC (FR)
BORDY THOMAS (FR)
CIONI OLIVIER (FR)
HERVE LIONEL (FR)
MOREL SOPHIE (FR)
Application Number:
PCT/FR2017/052625
Publication Date:
April 05, 2018
Filing Date:
September 27, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
COMMISSARIAT ENERGIE ATOMIQUE (FR)
International Classes:
G03H1/08; G01N15/14; G03H1/04
Domestic Patent References:
WO2014118263A12014-08-07
WO2016107995A12016-07-07
WO2008090330A12008-07-31
WO2014118263A12014-08-07
WO2016107995A12016-07-07
Foreign References:
FR3030748A12016-06-24
US20120218379A12012-08-30
US20120148141A12012-06-14
FR1554811S
FR1652500S
Other References:
RYLE ET AL.: "Digital in-line holography of biological specimens", PROC. OF SPIE, vol. 6311, 2006, XP055184218, DOI: doi:10.1117/12.680798
S. N. A. MOREL; A. DELON; P. BLANDIN; T. BORDY; O. CIONI; L. HERVÉ; C. FROMENTIN; J. DINTEN; C. ALLIER: "Advanced Microscopy Techniques IV; and Neurophotonics II", vol. 9536, 2015, OPTICAL SOCIETY OF AMERICA, article "Wide-Field Lensfree Imaging of Tissue Slides"
Attorney, Agent or Firm:
LE GOALLER, Christophe et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1. Dispositif (1) pour l'observation d'un échantillon (10) comportant :

un support (10s), destiné à maintenir l'échantillon ;

une première source de lumière (11), configurée pour émettre une onde lumineuse incidente (12) se propageant jusqu'à l'échantillon ;

un premier capteur d'image (16), configuré pour acquérir une première image (I ) de l'échantillon illuminé par l'onde lumineuse incidente (12), le support (10s) étant configuré pour maintenir l'échantillon entre la première source de lumière (11) et le premier capteur d'image (16), de telle sorte qu'aucune optique de grossissement n'est disposée entre l'échantillon et le premier capteur d'image, le premier capteur d'image étant exposé à une onde lumineuse (14) dite d'exposition, la première image (I ) définissant un premier champ d'observation (Ω- de l'échantillon ;

le dispositif comportant également :

un deuxième capteur d'image (26), optiquement couplé à un système optique (25) disposant d'un grossissement supérieur à 1, de façon à acquérir une deuxième image (/2) de l'échantillon, maintenu sur le support 10s, selon un deuxième champ d'observation (Ω2 ) réduit par rapport au premier champ d'observation (Ω^ ;

un mécanisme de déplacement (30) relatif de l'échantillon (10) par rapport au premier capteur d'image (16) et au système optique (25), de façon à alterner entre :

une première modalité, selon laquelle l'échantillon est disposé dans le champ d'observation (Ω- du premier capteur d'image (16), de façon à acquérir la première image (4);

une deuxième modalité, selon laquelle l'échantillon est disposé dans le champ d'observation (Ω2) du deuxième capteur d'image (26), de façon à acquérir la deuxième image (/2).

2. Dispositif selon la revendication 1, comportant une deuxième source de lumière (21), configurée pour illuminer l'échantillon (10) lors de l'acquisition de la deuxième image de l'échantillon, la deuxième source de lumière pouvant être confondue avec la première source de lumière (11).

3. Dispositif selon la revendication 1 ou la revendication 2, comportant :

un sélecteur (41), configuré pour permettre la sélection d'une région d'intérêt (ROI) dans la première image (I ); un processeur (40), configuré pour déterminer une position relative de l'échantillon (10) par rapport au système optique (25), selon laquelle la zone d'intérêt sélectionnée (ROI) s'étend da ns le deuxième champ d'observation (Ω2 );

de telle sorte que le mécanisme de déplacement (30) est configuré pour positionner automatiquement l'échantillon (10) relativement au système optique (25) selon ladite position relative déterminée par le processeur.

4. Dispositif selon la revendication 3, comportant un processeur (40) configuré pour appliquer un opérateur de propagation numérique (h) à partir de la première image (I ), de façon à : calculer une expression complexe de l'onde lumineuse d 'exposition (14) selon une surface de reconstruction (Pz) s'étendant face au premier capteur d'image (16), former une image (/z), dite reconstruite, à partir du module et/ou de la phase de ladite expression complexe ;

de telle sorte que dans la deuxième modalité, la position de l'échantillon par rapport au système optique (25) est définie en fonction d'une zone d'intérêt (ROI) sélectionnée à partir de l'image reconstruite (Iz).

5. Dispositif selon l'une quelconque des revendications 3 ou 4, dans lequel le premier capteur d'image (16) s'étendant selon un plan de détection (P0), le d ispositif comporte un processeur (40) configuré pour appliquer une focalisation numérique à partir de la première image (/ , de façon à estimer une dista nce (zR0I ) entre l'échantillon (10) et le plan de détection (P0), au niveau de la région d'intérêt (ROI), de telle sorte que la position relative de l'échantillon (10) par rapport au système optique (25) est déterminée en fonction de la distance ainsi estimée.

6. Dispositif selon l'une quelconque des revendications 1 à 5, dans lequel le premier capteur d 'image (16) et le deuxième capteur d'image (26) éta nt fixes, le mécanisme de déplacement (30) est configuré pour déplacer l'échantillon (10):

- face au premier capteur d'image (16) dans la première modalité ;

et face au système optique (25) dans la deuxième modalité.

7. Dispositif selon l'une quelconque des revendications 1 à 5, dans lequel l'échantillon étant fixe, le mécanisme de déplacement est configuré pour :

déplacer le premier capteur d'image (16) pour l'amener face à l'échantillon (10), dans la première modalité ;

et/ou déplacer le système optique (25) pour l'amener face à l'échantillon (10), dans la deuxième modalité.

8. Procédé d 'observation d'un échantillon (10) comportant les étapes suivantes :

a) illumination de l'échantillon à l'aide d'une première sou rce de lumière (11);

b) acquisition d'une image de l'échantillon, dite première image ( ), à l'aide d'un premier capteur d'image (16), le premier capteur d'image étant exposé à une onde lumineuse dite d'exposition (14), l'échantillon étant maintenu entre la première source de lumière et le premier capteur d'image, aucune optique de grossissement n'étant disposée entre le premier capteur d'image et l'échantillon;

c) sélection d'u ne région d'intérêt (ROI) de l'échantillon à partir de la première image (I ); d) déplacement relatif de l'échantillon par rapport au premier capteur d'image et par rapport à un système optique (25), ayant un grossissement su périeur à 1, le système optique étant optiquement couplé à un deuxième capteur d'image (26), le déplacement étant effectué automatiquement par un mécanisme de déplacement (30), de telle sorte que la région d'intérêt (ROI) de l'échantillon, sélectionnée lors de l'étape c), soit située dans un champ d'observation (Ω2 ) du deuxième capteur d'image (26);

e) illumination de l'échantillon (10) à l'aide d'une deuxième source de lumière (21) et acquisition d'une image de la région d'intérêt de l'échantillon (ROI), dite deuxième image (I2 ), à l'a ide du deuxième capteur d 'image (26).

9. Procédé selon la revendication 8, dans lequel le déplacement relatif de l'échantillon permet de passer automatiquement entre :

- une première modalité, selon laquelle l'échantillon est disposé dans un champ d 'observation (Ω. ) du premier capteur d'image (16), de façon à acquérir la première image ( );

une deuxième modalité, selon laquelle l'échantillon est disposé dans le champ d'observation (Ω2 ) du deuxième capteur d 'image (26), de façon à acquérir la deuxième image (I2 ).

10. Procédé selon l'une quelconque des revendications 8 à 9, dans lequel lors de l'étape c), la région d'intérêt (ROI) est sélectionnée sur la première image (/ , à l'aide d'un sélecteur manuel (41) ou par une analyse de la première image ( ), l'analyse étant basée sur un critère de sélection préala blement défini, et mise en œuvre par un processeur (40). 11. Procédé selon l'une quelconque des revendications 8 à 9, dans lequel le premier capteur d 'image s'étendant selon un plan de détection (P0 ), l'étape c) comporte les sous étapes suivantes: ci) application d'un opérateur de propagation (h) à partir de la première image (/ , de façon à calculer une expression complexe de l'onde lumineuse d'exposition (14) selon une su rface de reconstruction (Pz), s'étendant face au plan de détection (P0);

cii) formation d'une image, dite image reconstruite (Iz), en fonction du module et/ou de la phase de l'expression complexe calculée lors de la sous-étape ci);

ciii) sélection de la zone d'intérêt (ROI) à partir de l'image reconstruite (Iz).

12. Procédé selon la revendication 11, dans lequel lors de l'étape ci), l'opérateur de propagation est appliqué à une image dite intermédiaire (ï ), obtenue à partir de la première image (I ), et comportant un nombre de pixels inférieur au nom bre de pixels de la première image (I ), le champ d'observation de l'image intermédiaire étant similaire au champ d'observation de la première image, l'étape c) comportant également les sous-étapes suivantes :

civ) application d'un opérateur de propagation (h) à partir de la première image, dans la région d'intérêt (ROI) sélectionnée dans la sous-étape ciii), de façon à calculer une expression complexe de l'onde lumineuse d'exposition selon une surface de reconstruction, s'étendant face au plan de détection, définissant une image complexe d'intérêt (Az R0I );

cv) à partir de l'image complexe d'intérêt (Az R0I) calculée, formation d 'une image, dite image reconstruite d'intérêt ( ZIROI), en fonction du module et/ou de la phase de l'expression complexe ;

cvi) affichage de l'image reconstruite d'intérêt ( z>ROi )-

13. Procédé selon l'une quelconque des revendications 11 ou 12, dans lequel lors de la sous- étape ciii), la région d 'intérêt (ROI) est sélectionnée sur l'image reconstruite (Iz), à l'aide d'un sélecteur manuel (41) ou par une analyse de l'image reconstruite (Iz), l'analyse étant basée sur un critère de sélection préala blement défini, et mise en œuvre par un processeur (40). 14. Procédé selon l'une quelconque des revendications 11 à 13, dans lequel lors la sous-étape ci), la surface de reconstruction est un plan, dit plan de l'échantillon (P10 ), selon lequel s'étend l'échantillon (10).

15. Procédé selon l'une quelconque des revendications 11 à 14 comportant, préala blement à l'étape c), une éta pe de calibration d'une position de l'écha ntillon (10) par rapport au plan de détection (P0), l'étape de calibration comprenant les sous-étapes suivantes :

i) sélection d 'une pluralité de points de calibration (Un) sur la première image acquise ( ); ii) détermination d 'une zone élémentaire de calibration (Vn) autour de chaque point de calibration (Un) sélectionné ;

iii) mise en œuvre, par un processeur (40), d'un algorithme de focalisation numérique, de façon à estimer une distance, dite dista nce de calibration (zn), entre l'échantillon (10) et le plan de détection (P0 ), au niveau de chaque zone élémentaire de calibration (Vn); iv) partition de la première image acquise (I ) en différentes images élémentaires (IliW ), et association, à chaque image élémentaire, d'u ne distance (zw) entre l'échantillon et le plan de détection (P0), en fonction de la distance de calibration (zn) estimée pour chaque zone élémentaire de calibration (Vn);

de telle sorte que

la sous-étape ci) comporte une application d 'un opérateur de propagation à chaque image élémentaire (IliW), selon la distance (zw) associée à ladite image élémentaire, de façon à calculer, pour chaque image élémentaire, une expression complexe de l'onde lumineuse d'exposition (14) selon un plan de reconstruction élémentaire (Pz w ) ;

- l'étape cii) comporte une formation d'u ne image reconstruite élémentaire (IZiW) à partir du module ou de la phase de l'expression complexe calculée lors de la sous-étape ci), selon chaque plan de reconstruction élémentaire [Pz>w ), l'image reconstruite (Iz) étant obtenue par concaténation de chaque image reconstruite élémentaire (IZiW).

16. Procédé selon la revendication 15, dans lequel l'algorithme de focalisation numérique comporte :

une application d'un opérateur de propagation numérique (h) à chaque zone élémentaire de calibration (Vn) afin d'obtenir, pour chacune d'entre elles, une image complexe, dite de calibration, (An z) de l'onde lumineuse d'exposition (14) selon différents plans de reconstruction (Pz) respectivement espacés de différentes distances (z), du plan de détection (P0 );

pour chaque zone élémentaire de calibration (Vn), une détermination, pour chaque pla n de reconstruction (Pz), d'un indicateur de netteté (qn z) d'une image de reconstruction obtenue (A'n z) à partir de la phase et/ou du mod ule de l'expression complexe de calibration calculée dans ledit plan de reconstruction (Pz);

- une détermination d'une distance de calibration (zn) entre l'échantillon et le plan de détection au niveau de chaque zone élémentaire de calibration (Vn), en fonction des indicateurs de netteté (qn z) calculés.

17. Procédé selon l'une quelconque des revendications 8 à 16 dans lequel l'éta pe d) comporte les sous-étapes suivantes :

di) mise en œuvre, par un processeur, d 'un algorithme de focalisation numérique, de façon à estimer une distance (zR0I) entre l'échantillon (10) et un plan de détection (P0) selon lequel s'étend le capteur d'image (16), au niveau de la région d'intérêt (ROI) sélectionnée lors de l'étape c);

d ii) déplacement relatif de l'échantillon (10) par ra pport au système optique (25), en prenant en compte la distance ainsi estimée, de telle sorte que l'échantillon soit disposé dans un plan focal du système optique (25). 18. Procédé selon la revendication 17, dans lequel l'algorithme de focalisation numérique comporte :

l'application d'un opérateur de propagation numérique (h) à partir de la première image, de façon à calculer une expression complexe de l'onde lumineuse d'exposition selon une pluralité de plans de reconstruction (Pz) respectivement situés à différentes distances (z) de reconstruction du plan de détection (P0 );

l'obtention d'une image de reconstruction (A'z) à chaque distance de reconstruction, à partir de la phase ou de l'amplitude de l'expression complexe déterminée selon chaque plan de reconstruction (Pz);

détermination d'un indicateur de netteté (qz) à chaque image de reconstruction ; - détermination de la distance (zR0I) entre l'échantillon et le plan de détection (P0 ), au niveau de la région d'intérêt (ROI), en fonction de l'indicateur de netteté (qz) déterminé sur chaque image de reconstruction.

Description:
Dispositif d'observation d'un échantillon et procédé d'observation d'un échantillon

Description

DOMAINE TECHNIQUE

Le domaine technique de l'invention est la microscopie, combinant une modalité classique avec objectif optique de grandissement et une modalité d'imagerie sans lentille.

ART ANTERIEUR

L'observation d'échantillons, et en particulier des échantillons biologiques, par imagerie sans lentille, a connu un développement important depuis ces dix dernières années. Cette technique permet d'observer un échantillon en le disposant entre une source de lumière et un capteur d'image, sans disposer de lentille de grossissement optique entre l'échantillon et le capteur d'image. Ainsi, le capteur d'image collecte une image de l'onde lumineuse transmise par l'échantillon. Cette image, également appelée hologramme, est formée de figures d'interférence entre l'onde lumineuse émise par la source de lumière et transmise par l'échantillon, et des ondes de diffraction, résultant de la diffraction par l'échantillon de l'onde lumineuse émise par la source de lumière. Ces figures d'interférences sont parfois dénommées figures de diffraction, ou désignées par le terme anglais « diffraction pattern ».

Le document WO2008090330 décrit un dispositif permettant l'observation d'échantillons comportant des cellules par imagerie sans lentille. Ce document montre que l'imagerie sans lentille peut être utilisée à des fins de microscopie, pour compter des cellules. Ce document montre également qu'en se basant sur une analyse morphologique de figures de diffraction, certaines cellules peuvent être identifiées.

Le document WO2014118263 décrit un dispositif combinant une modalité d'imagerie sans lentille et une modalité d'imagerie classique, mettant en œuvre une optique de grossissement. Le document WO2016/107995 décrit un procédé de localisation d'une particule transparente ou translucide. Le procédé est basé sur l'acquisition d'une image défocalisée de la particule, et sur le recours à une reconstruction holographique pour obtenir une position précise de la particule dans l'échantillon. On déplace ensuite un système optique, couplé à une source laser, de façon que la particule soit disposée dans le plan focal du système optique, de façon à optimiser la focalisation du faisceau laser, produit par la source laser, sur la particule. Un des avantages de l'imagerie sans lentille est l'obtention d'images de qualité tout en disposant d'un champ d'observation nettement plus important que celui d'un microscope. Mais l'hologramme ne permet pas une observation fiable des cellules, ou autres éléments diffusants d'un échantillon, lorsque leur concentration augmente. L'hologramme peut alors être traité par un algorithme de reconstruction holographique, de manière à obtenir une image reconstruite représentant une caractéristique, par exemple le module ou la phase, de l'onde lumineuse traversant l'échantillon et se propageant vers le capteur d'image. Ce type d'algorithme est bien connu dans le domaine de la reconstruction holographique. Un exemple d'algorithme de reconstruction holographique est décrit dans la publication yle et al, « Digital in-line holography of biological spécimens », Proc. Of SPIE Vol.6311 (2006). Cependant, un tel algorithme peut donner lieu à l'apparition d'un bruit de reconstruction, désigné par le terme "twin image", sur l'image reconstruite.

La demande US2012/0218379 décrit un procédé permettant de reconstruire une image complexe d'un échantillon, cette dernière comportant des informations d'amplitude et de phase, en limitant le twin image. La demande US2012/0148141 applique le procédé décrit dans la demande US2012/0218379 pour reconstruire une image complexe de spermatozoïdes et de caractériser leur mobilité. Cette dernière demande décrit un algorithme dit de tracking, permettant de suivre la trajectoire des spermatozoïdes.

Les inventeurs proposent un dispositif ainsi qu'un procédé d'observation, permettant de combiner le grand champ d'observation conféré par l'imagerie sans lentille, et une analyse plus fine par une modalité d'observation plus précise.

EXPOSE DE L'INVENTION

Un premier objet de l'invention est un dispositif pour l'observation d'un échantillon comportant: un support, destiné à maintenir l'échantillon ;

- une première source de lumière, apte à émettre une onde lumineuse incidente se propageant jusqu'à l'échantillon ;

un premier capteur d'image, apte à acquérir une première image de l'échantillon illuminé par l'onde lumineuse incidente, le support étant configuré pour maintenir l'échantillon entre la première source de lumière et le premier capteur d'image, de telle sorte qu'aucune optique de grossissement n'est disposée entre l'échantillon et le premier capteur d'image, le premier capteur d'image étant exposé à une onde lumineuse dite d'exposition, la première image définissant un premier champ d'observation de l'échantillon ;

le dispositif comportant également :

un deuxième capteur d'image, optiquement couplé à un système optique disposant d'un grossissement supérieur à 1, de façon à acquérir une deuxième image de l'échantillon, maintenu sur le support, selon un deuxième champ d'observation réduit par rapport au premier champ d'observation.

Le système optique peut notamment être un objectif, par exemple un objectif de microscope, de grandissement supérieur à 5, voire supérieur à 10.

Le dispositif peut comporter une deuxième source de lumière, apte à illuminer l'échantillon lors de l'acquisition de la deuxième image de l'échantillon. La deuxième source de lumière peut être confondue avec la première source de lumière.

Le dispositif peut comporter un mécanisme de déplacement relatif de l'échantillon par rapport au premier capteur d'image et au système optique, de façon à alterner entre :

- une première modalité, selon laquelle l'échantillon est disposé dans le champ d'observation du premier capteur d'image, de façon à acquérir la première image; une deuxième modalité, selon laquelle l'échantillon est disposé dans le champ d'observation du deuxième capteur d'image, de façon à acquérir la deuxième image.

Le mécanisme de déplacement peut être une platine apte à se translater ou à effectuer une rotation.

Le dispositif peut comporter :

un sélecteur, apte à permettre la sélection d'une région d'intérêt dans la première image, ou à partir de la première image. Le sélecteur peut être actionnable manuellement. Il peut notamment s'agir d'un périphérique d'ordinateur de type souris ou clavier.

un processeur, configuré pour déterminer une position relative de l'échantillon par rapport au système optique selon laquelle la zone d'intérêt sélectionnée s'étend dans le deuxième champ d'observation ;

de telle sorte que le mécanisme de déplacement est configuré pour positionner automatiquement l'échantillon relativement au système optique selon ladite position relative déterminée par le processeur. Ainsi, la zone d'intérêt de l'échantillon peut être observée par le deuxième capteur d'image, à travers le système optique. Le dispositif peut comporter un processeur configuré pour appliquer un opérateur de propagation numérique à partir de la première image, de façon à :

calculer une expression complexe de l'onde lumineuse d'exposition selon une surface de reconstruction, et notamment un plan de reconstruction, s'étendant face au premier capteur d'image, définissant une image complexe ;

former une image, dite reconstruite, à partir du module et/ou de la phase de ladite expression complexe, de telle sorte que dans la deuxième modalité,

de telle sorte que la position de l'échantillon par rapport au système optique est définie en fonction d'une zone d'intérêt sélectionnée à partir de l'image reconstruite.

Par image reconstruite, on entend une image représentant le module de l'onde lumineuse d'exposition, ou la phase de l'onde lumineuse d'exposition, ou leur combinaison, l'image reconstruite étant formée à partir de l'image complexe obtenue par l'application de l'opérateur de propagation numérique sur la première image.

Selon un mode de réalisation, le premier capteur d'image s'étend selon un plan de détection et le dispositif comporte un processeur configuré pour appliquer une focalisation numérique (ou autofocus numérique) à partir de la première image, de façon à estimer une distance entre l'échantillon et le plan de détection, au niveau de la région d'intérêt, de telle sorte que la position relative de l'échantillon par rapport au système optique est déterminée en fonction de la distance ainsi estimée.

Selon un mode de réalisation, le premier capteur d'image et le deuxième capteur d'image sont fixes, et le mécanisme de déplacement est apte à déplacer l'échantillon :

face au premier capteur d'image dans la première modalité ;

et/ou face au système optique dans la deuxième modalité.

Selon un mode de réalisation, l'échantillon est fixe ; le mécanisme de déplacement est apte à :

- déplacer le premier capteur d'image pour l'amener face à l'échantillon, dans la première modalité ;

et/ou déplacer le système optique, et éventuellement le deuxième capteur d'image, pour l'amener face à l'échantillon, dans la deuxième modalité.

Un autre objet de l'invention est un procédé d'observation d'un échantillon comportant les étapes suivantes :

a) illumination de l'échantillon à l'aide d'une première source de lumière;

b) acquisition d'une image de l'échantillon, dite première image, à l'aide d'un premier capteur d'image, le capteur d'image étant exposé à une onde lumineuse dite d'exposition, l'échantillon étant maintenu entre la première source de lumière et le premier capteur d'image, aucune optique de grossissement n'étant disposée entre le premier capteur d'image et l'échantillon;

c) sélection d'une région d'intérêt de l'échantillon à partir de la première image. Selon un mode de réalisation, le procédé comporte également les étapes suivantes :

d) déplacement relatif de l'échantillon par rapport à un système optique, notamment un objectif, ayant un grossissement supérieur à 1, le système optique étant optiquement couplé à un deuxième capteur d'image, le déplacement étant effectué automatiquement par un mécanisme de déplacement, de telle sorte que la région d'intérêt de l'échantillon soit située dans un champ d'observation, dit deuxième champ d'observation, du deuxième capteur d'image;

e) illumination de l'échantillon à l'aide d'une deuxième source de lumière et acquisition d'une image de la région d'intérêt de l'échantillon, dite deuxième image, à l'aide du deuxième capteur d'image.

La deuxième source de lumière peut être confondue avec la première source de lumière. Le premier capteur d'image peut s'étendre selon un plan de détection. Le déplacement relatif de l'échantillon peut notamment permettre de passer automatiquement entre :

une première modalité, selon laquelle l'échantillon est disposé dans un champ d'observation du premier capteur d'image, dit premier champ d'observation, de façon à acquérir la première image;

une deuxième modalité, selon laquelle l'échantillon est disposé dans le champ d'observation du deuxième capteur d'image, de façon à acquérir la deuxième image.

Selon un mode de réalisation, lors de l'étape c), la région d'intérêt est sélectionnée sur la première image, à l'aide d'un sélecteur manuel, par exemple une souris d'ordinateur ou un clavier, ou par une analyse effectuée à partir de la première image, l'analyse étant basée sur un critère de sélection préalablement défini, et mise en œuvre par un processeur.

Selon un mode de réalisation, l'étape c) comporte les sous étapes suivantes:

ci) application d'un opérateur de propagation à partir de la première image, de façon à calculer une expression complexe de l'onde lumineuse d'exposition selon une surface de reconstruction, s'étendant face au plan de détection, définissant une image complexe ; cii) à partir de l'image complexe calculée, formation d'une image, dite image reconstruite, en fonction du module et/ou de la phase de l'expression complexe ;

ciii) sélection de la zone d'intérêt à partir de l'image reconstruite.

Par "à partir de la première image" on entend à partir de la première image, ou par une image obtenue à partir de la première image, par exemple après une troncature ou une normalisation ou l'application d'un filtre.

Lors de la sous-étape ciii), la région d'intérêt peut être déterminée sur l'image reconstruite, à l'aide d'un sélecteur manuel ou par une analyse de l'image reconstruite, l'analyse étant basée sur un critère de sélection préalablement défini, et mise en œuvre par un processeur.

Lors de la sous-étape ci), la surface de reconstruction peut être un plan ; il peut en particulier s'agir d'un plan de l'échantillon, selon lequel s'étend l'échantillon.

Selon un mode de réalisation, lors de l'étape ci), l'opérateur de propagation est appliqué à une image dite intermédiaire, obtenue en appliquant un opérateur à la première image de façon à couvrir un champ d'observation similaire à la première image, et à comporter un nombre de pixels inférieur au nombre de pixels de la première image. Le procédé peut alors comporter les étapes suivantes :

civ) application d'un opérateur de propagation à partir de la première image, dans la région d'intérêt sélectionnée dans la sous-étape ciii), de façon à calculer une expression complexe de l'onde lumineuse d'exposition selon une surface de reconstruction, s'étendant face au plan de détection, et notamment selon le plan de l'échantillon, définissant une image complexe d'intérêt ;

cv) à partir de l'image complexe d'intérêt calculée, formation d'une image, dite image reconstruite d'intérêt, en fonction du module et/ou de la phase de l'expression complexe ;

cvi) affichage de l'image reconstruite d'intérêt.

Le nombre de pixels de l'image intermédiaire peut être au moins 2 fois, voire au moins 10 fois inférieur au nombre de pixels de la première image.

Selon un mode de réalisation, le procédé comporte, préalablement à l'étape c), une étape de calibration d'une position de l'échantillon par rapport au plan de détection, l'étape de calibration comprenant les sous-étapes suivantes :

i) sélection d'une pluralité de points de calibration sur la première image acquise;

ii) détermination d'une zone élémentaire de calibration autour de chaque point de calibration sélectionné ; iii) mise en œuvre, par un processeur, d'un algorithme de focalisation numérique, de façon à estimer une distance, dite distance de calibration, entre l'échantillon et le plan de détection, au niveau de chaque zone élémentaire de calibration;

iv) partition de la première image acquise en différentes images élémentaires, et association, à chaque image élémentaire, d'une distance entre l'échantillon et le plan de détection, en fonction de la distance de calibration déterminée pour chaque zone élémentaire de calibration,

de telle sorte que

la sous-étape ci) comporte une application d'un opérateur de propagation à chaque image élémentaire, selon la distance associée à ladite image élémentaire, de façon à calculer, pour chaque image élémentaire, une expression complexe de l'onde lumineuse d'exposition selon un plan de reconstruction élémentaire ;

l'étape cii) comporte la formation d'une image reconstruite élémentaire à partir du module ou de la phase de l'expression complexe calculée lors de la sous-étape ci), selon chaque plan de reconstruction élémentaire, l'image reconstruite étant obtenue par concaténation de chaque image reconstruite élémentaire.

L'image reconstruite peut être utilisée pour sélectionner une région d'intérêt de l'échantillon.

Selon ce mode de réalisation, l'algorithme de focalisation numérique peut comporter les étapes suivantes :

- une application d'un opérateur de propagation numérique à chaque zone élémentaire de calibration afin d'obtenir, pour chacune d'entre elles, une image complexe, dite de calibration, de l'onde lumineuse d'exposition selon différents plans de reconstruction respectivement espacés de différentes distances, du plan de détection;

pour chaque zone élémentaire de calibration, une détermination, pour chaque plan de reconstruction, d'un indicateur de netteté d'une image de reconstruction obtenue en fonction de la phase ou du module de l'expression complexe de calibration calculée dans ledit plan de reconstruction;

une détermination d'une distance de calibration entre l'échantillon et le plan de détection au niveau de chaque zone élémentaire de calibration, en fonction des indicateurs de netteté calculés.

Selon un mode de réalisation, le procédé peut comporter, suite à l'étape c), ou au cours de l'étape d), les sous-étapes suivantes : di) mise en œuvre, par un processeur, d'un algorithme de focalisation numérique, de façon à estimer une distance entre l'échantillon et un plan de détection selon lequel s'étend le capteur d'image, au niveau de la région d'intérêt sélectionnée lors de l'étape c) ; dii) déplacement relatif de l'échantillon par rapport au système optique, en prenant en compte la distance ainsi estimée, de telle sorte que l'échantillon soit disposé dans un plan focal du système optique.

L'algorithme de focalisation numérique peut comporter :

l'application d'un opérateur de propagation numérique à partir de la première image, de façon à calculer une expression complexe de l'onde lumineuse d'exposition selon une pluralité de plans de reconstruction respectivement situés à différentes distances de reconstruction du plan de détection;

l'obtention d'une image de reconstruction à chaque distance de reconstruction, à partir de la phase ou de l'amplitude de l'expression complexe déterminée selon chaque plan de reconstruction;

- la détermination d'un indicateur de netteté à chaque image de reconstruction ;

la détermination de la distance entre l'échantillon et le plan de détection, au niveau de la région d'intérêt, en fonction de l'indicateur de netteté déterminé sur chaque image de reconstruction.

Le procédé peut être mis en œuvre avec un dispositif tel que décrit dans cette description. Un objet de l'invention est également un procédé d'observation d'un échantillon comportant les étapes suivantes :

1) illumination de l'échantillon à l'aide d'une première source de lumière;

2) acquisition d'une image de l'échantillon, dite première image, à l'aide d'un premier capteur d'image, l'échantillon étant maintenu entre la première source de lumière et le premier capteur d'image, aucune optique de grossissement n'étant disposée entre le premier capteur d'image et l'échantillon ;

3) obtention d'une image, dite image reconstruite, de l'échantillon, l'étape c) comportant les sous-étapes suivantes :

application d'un opérateur de propagation à partir de la première image, de façon à calculer une expression complexe de l'onde lumineuse d'exposition selon une surface de reconstruction, s'étendant face au plan de détection, définissant une image complexe ; à partir de l'image complexe calculée, formation de l'image reconstruite, en fonction du module et/ou de la phase de l'expression complexe, notamment à partir de l'image complexe préala blement obtenue.

Selon un mode de réalisation, le procédé comporte, préala blement à l'éta pe 3), une étape de calibration d'une position de l'échantillon par rapport au plan de détection, l'étape de calibration comprenant les sous-étapes suivantes :

i) sélection d'u ne pluralité de points de calibration sur la première image acquise;

ii) détermination d'une zone élémentaire de calibration autour de chaque point de calibration sélectionné ;

iii) mise en œuvre, par un processeur, d 'un algorithme de focalisation numérique, de façon à estimer une distance, dite distance de calibration, entre l'échantillon et le plan de détection, au niveau de chaque zone élémentaire de calibration;

iv) partition de la première image en différentes images élémentaires, et association, à chaque image élémentaire, d'une distance entre l'échantillon et le plan de détection, en fonction de la distance de calibration déterminée pour chaque zone élémentaire de calibration,

de telle sorte que

l'étape 3) comporte une application d'un opérateur de propagation à chaque image élémentaire, selon la dista nce associée à ladite image élémentaire, de façon à calculer, pour chaque image élémentaire, une expression complexe de l'onde lumineuse d'exposition selon un plan de reconstruction élémentaire ;

l'étape 3) comporte également une formation d 'une image reconstruite élémentaire à partir du module ou de la phase de l'expression complexe ainsi calculés selon chaque plan de reconstruction élémentaire, l'image reconstruite étant obtenue par une com binaison, par exemple une concaténation, de chaque image reconstruite élémentaire.

L'algorithme de focalisation numérique peut être tel que décrit dans cette description.

D'autres avantages et caractéristiques ressortiront plus clairement de la description qui va su ivre de modes particuliers de réalisation de l'invention, donnés à titre d'exemples non limitatifs, et représentés sur les figures listées ci-dessous.

FIGURES

La figure 1A représente un mode de réalisation d'un dispositif selon l'invention, configuré selon une première modalité d'observation d'un échantillon. La figure 1B représente le dispositif de la figure 1A configuré selon une deuxième modalité d'observation de l'échantillon. La figure 1C montre un exemple d'une première source de lumière, apte à équiper un dispositif selon l'invention. La figure 1D montre un autre mode de réalisation d'un dispositif selon l'invention. La figure 1E montre une platine mobile en rotation d'un dispositif selon l'invention.

La figure 2A représente les principales étapes d'un procédé d'observation d'un échantillon selon un premier mode de réalisation. La figure 2B représente les principales étapes d'un procédé d'observation d'un échantillon selon un deuxième mode de réalisation. La figure 2C montre les principales étapes composant l'étape 120 décrite en lien avec la figure 2B. La figure 2D est une image d'un échantillon, comportant des cellules, obtenue selon la première modalité d'observation. Les figures 2E et 2F sont des images, obtenues selon la deuxième modalité d'observation, de régions d'intérêt sélectionnées dans l'image de la figure 2D. La figure 2G est une image d'un échantillon, comportant une lame de tissu, obtenue selon la première modalité d'observation. La figure 2H est une image obtenue selon la deuxième modalité d'observation, d'une région d'intérêt sélectionnée dans l'image de la figure 2G.

La figure 3A est une image d'un échantillon, dite image de reconstruction, obtenue selon une variante de la première modalité d'observation. Les figures 3B et 3C sont des images, obtenues selon la variante de la première modalité d'observation, de régions d'intérêt sélectionnées dans l'image de la figure 3A. La figure 3D schématise les principales étapes de la variante mise en œuvre pour obtenir les images 3A à 3C.

La figure 4A est une image, dite image reconstruite, d'un échantillon comportant des cellules se divisant, ces dernières faisant l'objet d'une région d'intérêt, matérialisée par un cadre clair. La figure 4B est une image, dite image reconstruite, d'un échantillon comportant des globules blancs, ces derniers faisant l'objet d'une région d'intérêt, matérialisée par un cadre sombre. La figure 4C est une image, dite image reconstruite, d'un échantillon comportant des cellules infectées ces dernières faisant l'objet d'une région d'intérêt, matérialisée par un cadre sombre. La figure 5 représente les étapes d'un mode de réalisation.

La figure 6A représente un échantillon incliné par rapport à un capteur d'image. La figure 6B montre les principales étapes d'un procédé permettant de prendre en compte l'inclinaison schématisée sur la figure 6A, de façon à obtenir des images, dites reconstruites, corrigées de cette inclinaison. Les figures 6C et 6D illustrent des étapes représentées sur la figure 6B.

La figure 7A est une image de l'échantillon obtenue selon la première modalité, l'échantillon étant incliné par rapport à un capteur d'image. Les images 7B, 7C et 7D sont des images reconstruites sur la base de la figure 7A, sans prise en compte de l'inclinaison. Les figures 7E, 7F et 7G sont des images reconstruites sur la base de la figure 7A, avec prise en compte de l'inclinaison.

La figure 8 représente une vue d'un écran d 'un dispositif selon l'invention.

EXPOSE DE MODES DE REALISATION PARTICULIERS

Les figures 1A et 1B représentent un exemple de dispositif de microscopie bimodal selon l'invention. La figure 1A représente le dispositif selon un mode d'imagerie sans lentille, tandis que la figure 1B montre le dispositif selon un mode de microscopie classique. Le dispositif comporte une première source de lumière 11, apte à émettre une première onde lumineuse 12 se propageant vers un échantillon 10, selon un axe de propagation Z, selon une bande spectrale d 'émission Δλ.

L'échantillon 10 est d isposé sur un support d'échantillon 10s. L'échantillon peut être un milieu, par exemple un milieu liquide, dans lequel baignent des particules, ou à la surface duquel sont disposées des particules. Il peut par exemple s'agir d'un liquide biologique ou corporel. Par particule, on entend par exemple des objets dont le diamètre est inférieur à 1 mm, voire 100 μιη, ou des objets inscrits dans un cercle d'un tel diamètre. Les particules peuvent être des cellules, des microorganismes, par exemple des bactéries, des spores, des microbilles. Le milieu peut également être une gélose, propice au développement de colonies bactériennes, ou un solide. L'échantillon 10 peut également être une lame de tissu destinée à une analyse histologique, ou lame d'anatomopathologie, comportant une fine épaisseur de tissu déposée sur une lame transparente. Par fine épaisseur, on entend une épaisseur de préférence inférieure à 100 μιη, et de préférence inférieure à 10 μιη, typiquement quelques micromètres. Une telle lame de tissu peut être obtenue selon des procédés de préparation connus, à partir d'un échantillon tissulaire prélevé par biopsie ou frottis, puis préparé de façon à se présenter sous la forme d'une fine épaisseur déposée sur une lame transparente, cette dernière servant de support. De tels procédés sont connus dans le domaine de l'histologie. Ils comportent par exemple une découpe d'un tissu congelé, ou une inclusion d'un tissu prélevé dans une matrice de paraffine. Le tissu peut alors faire l'objet d 'une coloration, par exemple en utilisant un agent colorant de type HES (Hématoxyline-Eosine-Safran).

D'une façon générale, l'épaisseur de l'échantillon 10, selon l'axe de propagation Z, est de préférence comprise entre 20 μιη et 500 μιη. L'échantillon s'étend selon au moins un plan P 10 , dit plan de l'échantillon, de préférence perpendiculaire à l'axe de propagation Z. Il est maintenu sur le support 10s à une distance d d 'un premier capteur d 'image 16. De préférence, le trajet optique parcouru par la première onde lumineuse 12 avant d'atteindre l'échantillon 10 est supérieur à 5 cm. Avantageusement, la source de lumière, vue par l'échantillon, est considérée comme ponctuelle. Cela signifie que son diamètre (ou sa diagonale) est préférentiellement inférieur au dixième, mieux au centième du trajet optique entre l'échantillon et la source de lumière. La source de lumière 11 peut être, par exemple, une diode électroluminescente ou une source laser, par exemple une source laser. Elle peut être associée à diaphragme 18, ou filtre spatial. L'ouverture du diaphragme 18 est typiquement comprise entre 5 μιη et 1 mm, de préférence entre 50 μιη et 500 μιη. Dans cet exemple, le diaphragme est fourni par Thorlabs sous la référence P150S et son diamètre est de 150 μιη. Le diaphragme peut être remplacé par une fibre optique, dont une première extrémité est placée face à première la source de lumière 11 et dont une deuxième extrémité est placée en regard de l'échantillon 10.

Le dispositif peut comporter un diffuseur 17, disposé entre la source de lumière 11 et le diaphragme 18. L'usage d'un tel diffuseur permet de s'affranchir de contraintes de centrage de la source de lumière 11 par rapport à l'ouverture du diaphragme 18. La fonction d'un tel diffuseur est de répartir le faisceau lumineux, produit par la source de lumière selon un cône d'angle a. De préférence, l'angle de diffusion a varie entre 10° et 80°. La présence d'un tel diffuseur permet de rendre le dispositif plus tolérant à l'égard d'un décentrage de la source de lumière par rapport au diaphragme. Le diaphragme n'est pas nécessaire, en particulier lorsque la source de lumière est suffisamment ponctuelle, notamment lorsqu'il s'agit d'une source laser.

De préférence, la bande spectrale d'émission Δλ de l'onde lumineuse incidente 12 a une largeur inférieure à 100 nm. Par largeur de bande spectrale, on entend une largeur à mi-hauteur de ladite bande spectrale.

Le dispositif, tel que représenté sur la figure 1A, comporte un prisme 15, apte à réfléchir la première onde lumineuse incidente 12 vers l'échantillon 10. Le recours à un tel prisme permet de maintenir les sources de lumière immobiles par rapport à l'échantillon. Un tel prisme est facultatif.

Le premier capteur d'image 16 est apte à former une première image l x selon un plan de détection P 0 . Dans l'exemple représenté, il s'agit d'un capteur d'image comportant une matrice de pixels, de type CCD ou un CMOS, et dont la surface est généralement supérieure à 10 mm 2 . La surface de la matrice des pixels, dite surface de détection, dépend du nombre de pixels et de leur taille. Elle est généralement comprise entre 10 mm 2 et 50 mm 2 . Le plan de détection P 0 s'étend de préférence perpendiculairement à l'axe de propagation Z de l'onde lumineuse incidente 12. La distance d entre l'échantillon 10 et la matrice de pixels du capteur d'image 16 est préférentiellement comprise entre 50 μιη et 2 cm, de préférence comprise entre 100 μιη et 2 mm. On remarque l'absence d'optique de grossissement entre le premier capteur d'image 16 et l'échantillon 10. Cela n'empêche pas la présence éventuelle de microlentilles de focalisation au niveau de chaque pixel du premier capteur d'image 16, ces dernières n'ayant pas de fonction de grandissement de l'image acquise par le premier capteur d'image.

Du fait de la proximité entre le premier capteur d'image 16 et l'échantillon 10, la première image I est acquise selon un premier champ d'observation Ω. légèrement inférieur à l'aire du capteur d'image, c'est-à-dire typiquement compris entre 10 mm 2 et 50 mm 2 . Il s'agit d'un champ d'observation élevé si on le compare au champ d'observation conféré par un objectif de microscope à fort grandissement, par exemple un objectif de grandissement supérieur à 10. Ainsi, la première image l x permet d'obtenir une information exploitable de l'échantillon selon un premier champ d'observation £l x élevé. Un élément important de l'invention est de profiter de ce champ d'observation élevé afin de sélectionner une zone d'intérêt ROI de l'échantillon sur ou à partir de la première image l x , puis d'analyser la zone d'intérêt sélectionnée par un objectif de microscope classique 25 disposant d'un grandissement supérieur à 1, voire supérieur à 10. Sous l'effet de la première onde lumineuse incidente 12, l'échantillon peut engendrer une onde diffractée 13, susceptible de produire, au niveau du plan de détection P 0 , des interférences avec une partie de la première onde lumineuse incidente 12 transmise par l'échantillon. Ainsi, l'onde lumineuse 14, dite onde lumineuse d'exposition, transmise par l'échantillon 10 et à laquelle est exposé le premier capteur d'image 16, peut comprendre :

- une composante 13 résultant de la diffraction de la première onde lumineuse incidente

12 par l'échantillon ;

une composante 12', transmise par l'échantillon, et résultant de l'absorption de la première onde lumineuse incidente 12 par l'échantillon.

Ces composantes forment des interférences dans le plan de détection. Aussi, la première image l x acquise par le capteur d'image comporte des figures d'interférences (ou figures de diffraction), chaque figure d'interférence étant générée par l'échantillon. Par exemple, lorsque l'échantillon comporte des particules, on peut associer, à chaque particule, une figure d'interférence. La première image l x permet alors de localiser les particules, de les dénombrer ou encore d'identifier une particule en se basant sur la morphologie de la figure de diffraction qui lui est associée, comme décrit par exemple dans WO2008090330. On peut alors sélectionner une région d'intérêt sur la première image I lt puis effectuer une analyse plus approfondie de la région d'intérêt à l'aide de la deuxième modalité décrite ci-après, en lien avec la figure 1B.

Un processeur 40, par exemple un microprocesseur, est configuré pour traiter chaque image l x acquise par le capteur d'image 16, et permettre par exemple la sélection de la région d'intérêt ROI ainsi que les éventuelles opérations de reconstruction holographique ou de traitement d'image décrites dans cette demande. En particulier, le processeur est un microprocesseur relié à une mémoire programmable 42 dans laquelle est stockée une séquence d'instructions pour effectuer les opérations de traitement d'images et de calculs décrites dans cette description. Le processeur peut être couplé à un écran 44 permettant l'affichage d'images acquises par le capteur d'image 16 ou calculées par le processeur 40.

Comme précédemment décrit, la première image I x peut suffire à localiser une région d'intérêt ROI, qu'il semble judicieux d'analyser de façon plus approfondie. C'est par exemple le cas lorsque l'échantillon 10 comporte des particules, ces dernières pouvant faire l'objet d'une analyse plus détaillée en mettant en œuvre la deuxième modalité décrite ci-après.

Le dispositif représenté sur la figure 1A comporte une deuxième source de lumière 21, ainsi qu'un système optique 25, doté d'un grandissement supérieur à 1. La deuxième source de lumière 21 émet une deuxième onde lumineuse incidente 22 se propageant jusqu'à l'échantillon. Un deuxième capteur d'image 26 est couplé au système optique 25, le deuxième capteur 26 étant disposé dans le plan focal image du système optique de grandissement 25. Le deuxième capteur 26 permet d'obtenir une information détaillée de la région d'intérêt ROI de l'échantillon sélectionnée, selon un deuxième champ d'observation Ω 2 réduit par rapport au premier champ d'observation D. . La première source de lumière 11 et la deuxième source de lumière 21 peuvent être disposées face à l'échantillon 10, auquel cas le prisme 15 n'est pas utile.

L'échantillon peut être déplacé relativement par rapport au premier capteur d'image 16 et au système optique 25, de façon à être disposé :

soit selon une première modalité d'observation en grand champ, à l'aide du premier capteur d'image 16, comme précédemment décrit, cette première modalité étant montrée sur la figure 1A ; soit selon une deuxième modalité d'observation en grandissement, à l'aide du deuxième capteur d'image 26. Dans cette deuxième modalité, l'échantillon est disposé dans le pla n focal objet du système optique 25. Autrement dit, dans la deuxième modalité, l'échantillon est disposé, par rapport au deuxième capteur d'image 26, de façon à ce que ce dernier puisse acquérir une deuxième image I 2 de l'échantillon 10, nette, à travers le système optique 25. La deuxième modalité est représentée sur la figure 1B.

De préférence, l'échantillon 10 est maintenu immobile, tandis que le capteur d'image 16 et le système optique 25 sont déplacés par rapport à l'échantillon, entre les deux modalités d'observation. On a représenté, sur les figures 1A et 1B, une platine mobile 30, supportant le premier capteur d'image 16 et le système optique 25, et permettant leur déplacement par rapport à l'échantillon 10. De façon alternative, l'échantillon est monté sur un support 10s mobile, permettant de le déplacer soit face au premier capteur d'image 16, soit face au système optique 25. Comme illustré sur la figure 1B, la platine mobile peut être apte à permettre un déplacement parallèlement à l'axe de propagation de la lumière Z, ou dans un plan XY perpendiculaire à cet axe. Le processeur 40 peut commander la platine mobile 30, de façon à déterminer, dans chaque modalité, une position relative de l'échantillon 10 par rapport au premier capteur d'image 16 ou par rapport au système optique 25.

Le système optique 25 est en particulier un objectif de microscope, dont le grandissement est de préférence supérieu r ou égal à 5 voire à 10. Le dispositif peut comprendre plusieurs systèmes optiques 25, 25', dotés de grandissements différents. Dans la deuxième modalité, l'échantillon est illuminé par la deuxième source de lumière 21, par exemple une source de lumière blanche. La deuxième source de lumière 21 n'est pas nécessairement différente de la première source de lumière 11. La deuxième image I 2 , acquise par le deuxième capteur d'image, à travers l'objectif 25, permet d'obtenir une représentation détaillée de la région d'intérêt ROI identifiée sur la première image I .

De préférence, le déplacement relatif du premier capteur d'image 16 et du système optique 25 est calculé automatiquement par le processeur 40, en fonction de la région d'intérêt ROI de l'échantillon sélectionnée par un opérateur à partir de la première image I . Par exemple, la première image I x peut être affichée sur l'écran 44. L'opérateur effectue alors une sélection de la région d'intérêt ROI à l'aide d'un sélecteur 41, ce dernier étant notamment un accessoire périphérique du processeur 40, de type souris d'ordinateur ou un clavier. La sélection de la région d'intérêt entraîne un actionnement de la platine 30 pou r placer l'échantillon selon la deuxième modalité d'analyse, c'est-à-dire face à l'objectif 25. Le sélecteur permet une sélection manuelle de la région d'intérêt ROI de l'échantillon, mais une sélection automatique peut être réalisée par un processeur, par exemple le processeur 40, comme décrit ultérieurement, en lien avec les figures 4A à 4C. On comprend que la combinaison de ces deux modalités permet un gain de temps lors de l'analyse de l'échantillon, en concentrant l'analyse fine, obtenue par l'objectif 25, sur un nombre limité de régions d'intérêt, ces dernières étant déterminées par l'image I grand champ acquise par la première modalité. On évite alors un balayage inutile et coûteux en temps de la totalité de la surface d'un échantillon à l'aide d'un objectif de microscope. La figure 1C représente un mode de réalisation selon lequel la première source de lumière 11 comporte trois sources de lumière élémentaires lli, II 2 et II 3 , émettant respectivement dans une première bande spectrale Δλι = 450nm - 465 nm, une deuxième bande spectrale Δλ 2 = 520nm - 535 nm et une troisième bande spectrale Δλ3 = 620nm - 630 nm. Ces trois sources de lumière élémentaires sont ici des diodes électroluminescentes. Dans cet exemple, la source de lumière est une diode électroluminescente fournie par CREE sous la référence Xlamp MCE. Les trois diodes électroluminescentes élémentaires lli, 11 2 et 11 3 la composant sont activées simultanément. De façon alternative, ces diodes électroluminescentes peuvent être activées successivement. Avec une telle source de lumière, le diffuseur 17 est particulièrement utile, car il autorise un certain décentrage d'une ou plusieurs sources de lumière élémentaires. Le premier capteur d'image 16 peut comporter un filtre de Bayer, de telle sorte que chaque pixel est sensible à une bande spectrale choisie parmi le bleu, le rouge ou le vert. Ainsi, lorsque l'échantillon 10 est exposé à une telle première source de lumière 11, le premier capteur d'image 16 acquiert une première image I pouvant être décomposée en :

une première image dans la première bande spectrale Δλι d'émission de la première diode électroluminescente lli, cette image étant formée à partir des pixels exposés à une longueur d'onde transmise par le filtre bleu du filtre de Bayer;

une première image 7 1 (ΔΛ 2 ) dans la deuxième bande spectrale Αλ 2 d'émission de la deuxième diode électroluminescente II 2 , cette image étant formée à partir des pixels exposés à une longueur d'onde transmise par le filtre vert du filtre de Bayer;

- une première image Ι (Αλ 3 ) dans la troisième bande spectrale Αλ 3 d'émission de la troisième diode électroluminescente II 3 , cette image étant formée à partir des pixels exposés à une longueur d'onde transmise par le filtre rouge du filtre de Bayer. D'une façon générale, selon ce mode de réalisation, le premier capteur d'image 16 permet l'acquisition de premières im de l'échantillon 10 dans différentes bandes spectrales Δ l j . Chaque première image présentative d'une onde lumineuse 14,, à laquelle est exposé le premier capteur d'image 16, dans chaque bande spectrale Δ l j . De préférence, il n'y a pas de recouvrement entre les différentes bandes spectrales ; un recouvrement négligeable, par exemple concernant moins de 25%, mieux moins de 10% de l'intensité lumineuse émise, est toutefois envisageable.

D'autres configurations sont possibles, par exemple l'utilisation d'un capteur d'image monochrome, acquérant une première image Ι^Αλι) de l'échantillon lorsque ce dernier est successivement illuminé par une onde incidente 12,, et cela dans différentes bandes spectrales Δ lj. Chaque onde incidente 12, peut être émise par une source de lumière 11, émettant dans une desdites bandes spectrales, ou par une source de lumière blanche filtrée par un filtre optique dont la bande passante correspond à ladite bande spectrale Δ lj.

La figure 1D représente un mode de réalisation dans lequel la première source 11 est une source laser, par exemple une diode laser. Dans une telle configuration, le diffuseur 17 et le filtre spatial 18 ne sont pas nécessaires.

La figure 1E représente un mode de réalisation dans lequel la platine 30 prend la forme d'une tourelle, sur laquelle sont fixés un premier capteur d'image 16, supporté par un support de capteur 16s, ainsi que deux objectifs 25, 25' ayant des grandissements différents. La tourelle est apte à tourner de façon à placer le premier capteur 16 ou l'un des objectifs face à l'échantillon 10.

La figure 2A représente les principales étapes d'un procédé d'observation d'un échantillon tel que précédemment décrit. Ces étapes sont :

Etape 100 : illumination de l'échantillon 10 à l'aide de la première source de lumière 11, l'échantillon étant disposé face au premier capteur d'image 16.

Etape 110 : acquisition d'une première image I de l'échantillon 10 à l'aide du premier capteur d'image 16.

Etape 130 : sélection, manuelle ou automatique, d'une zone d'intérêt ROI sur la première image h- Etape 140 : déplacement relatif de l'échantillon 10 par rapport à l'objectif 25, de façon à disposer la zone d'intérêt ROI l'échantillon 10 face à cet objectif. Etape 150 : illumination de l'échantillon 10 à l'aide de la deuxième source de lumière 21.

Etape 160 : acquisition d'une deuxième image I 2 représentant la zone d'intérêt ROI à l'aide du deuxième capteur d'image 26, à travers l'objectif 25.

Etape 170 : sortie d'algorithme ou déplacement relatif de l'échantillon par rapport au premier capteur d'image 16, de façon à disposer l'échantillon face au premier capteur d'image 16.

Lorsque le nombre d'éléments diffractants de l'échantillon augmente, la première image l x acquise par le premier capteur d'image 16 peut ne pas permettre une sélection fiable de la région d'intérêt. Cela peut être le cas lorsque l'échantillon comporte des particules et que la concentration des particules est élevée. C'est également le cas lorsque l'échantillon est une fine lame de tissu telle que précédemment décrite. Dans ce cas, la région d'intérêt n'est pas sélectionnée sur la première image I , mais sur une image I z dite reconstruite à partir de la première image. Un tel mode de réalisation est représenté sur la figure 2B. Les étapes 100, 110, 140, 150, 160 et 170 sont identiques à celles décrites en lien avec la figure 2A. Le procédé comporte les étapes suivantes : Etape 120 : détermination d'une image I z , dite reconstruite, représentative de l'échantillon. Cette image est obtenue par l'application d'un opérateur de propagation holographique h, tel que décrit ci-dessous, à la première image I x , de façon à calculer une image complexe A z représentant l'amplitude complexe de l'onde lumineuse d'exposition 14 selon une surface s'étendant sensiblement parallèlement au plan de détection P 0 , à une distance z, dite distance de reconstruction, de ce dernier. L'image reconstruite I z est obtenue à partir du module et/ou de la phase de l'amplitude complexe A z ainsi calculée. Par sensiblement parallèlement, on entend parallèlement, une tolérance angulaire de plus ou moins 10° ou 20° étant admise.

Etape 130 : sélection, manuelle ou automatique, d'une zone d'intérêt ROI sur l'image reconstruite I z . Dans cette description, le terme image reconstruite désigne une image I z formée à partir du module ou de la phase de l'onde lumineuse d'exposition 14 selon une surface de reconstruction parallèle au plan de détection. L'image reconstruite est déterminée à partir du module ou de la phase de l'image complexe A z . Cette surface peut être un plan P z , situé à une distance de reconstruction z du plan de détection P 0 . Il peut également s'agir de plusieurs plans, parallèles au plan de détection, et situés à différentes distances z w du plan de détection, de façon à prendre en compte une inclinaison du plan P 10 selon lequel s'étend l'échantillon 10 par rapport au plan de détection P 0 .

L'image reconstruite I z est obtenue en appliquant un opérateur de propagation holographique h à partir de la première image l x acquise par le premier capteur d'image 16. Un tel procédé, désigné par le terme reconstruction holographique, permet notamment de reconstruire une image du module ou de la phase de l'onde lumineuse d'exposition 14 dans un plan de reconstruction P z parallèle au plan de détection P 0 , et notamment dans le plan P 10 selon lequel s'étend l'échantillon. Pour cela, on effectue un produit de convolution de la première image I par un opérateur de propagation h. Il est alors possible de reconstruire une expression complexe A de l'onde lumineuse 14 en tout point de coordonnées (x, y, z) de l'espace, et en particulier dans un plan de reconstruction P z situé à une distance de reconstruction | z | du capteur d'image 16, dite distance de reconstruction, ce plan de reconstruction étant de préférence le plan de l'échantillon P 10 , avec : A (x, y, z) = I (x, y, z) * h * désignant l'opérateur produit de convolution. Dans la suite de cette description, les coordonnées (x, y) désignent une position radiale dans un plan perpendiculaire à l'axe de propagation Z. La coordonnée z désigne une coordonnée selon l'axe de propagation Z. L'expression complexe A est une grandeur complexe dont l'argument et le module sont respectivement représentatifs de la phase et de l'intensité de l'onde lumineuse 14 d'exposition. Le produit de convolution de la première image l x par l'opérateur de propagation h permet d'obtenir une image complexe A z représentant une distribution spatiale de l'expression complexe A dans un plan de reconstruction P z , s'étendant à une coordonnée z du plan de détection P 0 . Dans cet exemple, le plan de détection P 0 a pour équation z = 0. L'image complexe A z correspond à une image complexe de l'onde d'exposition 14 dans le plan de reconstruction P z . Elle représente également une distribution spatiale bidimensionnelle des propriétés optiques de l'onde d'exposition 14.

L'opérateur de propagation h a pour fonction de décrire la propagation de la lumière entre le capteur d'image 16 et un point de coordonnées x, y, z), situé à une distance \ z \ du premier capteur d'image. Il est alors possible de déterminer le module M x, y, z) et/ou la phase φ [x, y, z) l'onde lumineuse 14, à cette distance | z | , dite distance de reconstruction, avec :

M(x, y, z) = abs [A(x, y, z)] ;

- φ(χ, y, z) = arg [A (x, y, z)];

Les opérateurs abs et arg désignent respectivement le module et l'argument.

L'opérateur de propagation est par exemple la fonction de Fresnel-Helmholtz, telle que :

/2 x 2 +y \

h(x, y, z) = —e J λ β χρ(]π—?-). Autrement dit, l'expression complexe A de l'onde lumineuse 14, en tout point de coordonnées (x, y, z) de l'espace, est telle que : A(x, y, z) = M(x, y, z)e^ x,y,z Il est possible de former des images, dites images reconstruites, M z et φ ζ représentant respectivement le module ou la phase de l'expression complexe A dans un plan P z situé à une distance \ z \ du plan de détection P 0 , avec M z = mod. (A z ) et <p z = arg(^4 z ).

Cependant, une simple application de l'opérateur de propagation h sur la première image conduit généralement à l'obtention d'une image complexe A z affectée d'un bruit de reconstruction important. Cela provient du fait que la première image l x , acquise par le capteur d'image 16, ne comporte pas d'information quant à la phase de l'onde lumineuse d'exposition 14. On peut alors mettre en œuvre des algorithmes itératifs, de façon à estimer progressivement la phase de l'onde lumineuse d'exposition 14 dans le plan de détection P 0 , ce qui permet ensuite d'obtenir une image complexe A z de l'onde lumineuse 14 plus exacte dans un plan de reconstruction P z .

Les inventeurs ont développé un algorithme itératif, décrit dans la publication S. N. A. Morel, A. Delon, P. Blandin, T. Bordy, O. Cioni, L. Hervé, C. Fromentin, J. Dinten, and C. Allier, "Wide-Field Lensfree Imaging of Tissue Slides," in Advanced Microscopy Techniques IV; and Neurophotonics II, E. Beaurepaire, P. So, F. Pavone, and E. Hillman, eds., Vol. 9536 of SPIE Proceedings (Optical Society of America, 2015) ainsi que dans la demande de brevet F 1554811 déposée le 28 mai 2015, et plus précisément dans les étapes 100 à 500 décrites dans cette demande. Selon cet algorithme, l'échantillon est illuminé successivement ou simultanément dans différentes bandes spectrales AA it à l'aide d'une source de lumière 11 telle que décrite sur la figure 1C. On acquiert, dans le plan de détection P 0 , une première image ^ (Δ l j ) dans chaque bande spectrale. L'algorithme permet d'obtenir une image complexe Α ζ (Δλ ) de l'onde lumineuse 14, dans un plan de reconstruction P z , dans chaque bande spectrale Δ l j . Les images complexes 4 z (A l j )ainsi obtenues, dans chaque bande spectrale AA it peuvent être combinées, par exemple en effectuant une moyenne, en chaque pixel, de leur module et de leur phase, ce qui permet de former une image complexe A z . Alternativement, l'image reconstruite A z est obtenue à partir du module ou de la phase d'une image complexe Α ζ Αλ ) dans une des bandes spectrales Δ lj. Les principales étapes de cet algorithme sont représentées sur la figure 2C. Etape 121 : initialisation, à partir de la première image Ι^Αλι) acquise par le capteur d'image 16 dans chaque bande spectrale Δ lj. Cela correspond à l'étape 100 décrite dans la demande de brevet FR1554811 précédemment évoquée. Cette initialisation permet d'obtenir une image complexe Α 0 Αλι) initiale, représentative de l'onde lumineuse d'exposition 14 dans le plan de détection P 0 , dans chaque bande spectrale Δ l j .

Etape 122 : propagation de chaque première image dans un plan de reconstruction P z , situé à la distance de reconstruction z du plan de détection P 0 . Cela correspond à l'étape 200 décrite dans la demande de brevet F 1554811. On obtient alors une image complexe Α ζ Αλι) représentant l'onde d'exposition 14, dans le plan de reconstruction P z , et dans chaque bande spectrale Δ lj. Le plan de reconstruction est de préférence le plan de l'échantillon P 10 .

Etape 123 : combinaison de chaque image complexe Α ζ Αλι) de façon à obtenir une fonction de pondération dans le plan de reconstruction P z . Cela correspond à l'étape 300 décrite dans la demande de brevet FR1554811. La fonction de pondération peut être une somme pondérée de chaque image complexe Α ζ (Αλι~).

Etape 124 : propagation de la fonction de pondération dans le plan de détection P 0 , en appliquant l'opérateur de propagation h à la fonction de pondération. Cela correspond à l'étape 400 décrite dans la demande de brevet FR1554811. Etape 125 : mise à jour de l'image complexe Α 0 Αλι), représentative de l'onde lumineuse d'exposition 14 dans le plan de détection P 0 , dans chaque bande spectrale A t . Cette mise à jour est effectuée à partir de la fonction de pondération propagée dans le plan de détection P 0 lors de la précédente étape. La phase de l'image complexe ^ 0 (ΔΑ £ ), dans chaque bande spectrale, A t est mise à jour en étant remplacée par la phase de la fonction de pondération propagée dans le plan de détection P 0 . Cela correspond à l'étape 500 décrite dans la demande de brevet FR1554811.

Chaque image complexe, dans le plan de détection, ainsi mise à jour, est ensuite propagée dans le plan de reconstruction, selon l'étape 122. Les étapes 122 à 125 sont mises en œuvre de façon itérative jusqu'à ce que la phase de l'image complexe dans le plan de détection P 0 ou dans le plan de l'échantillon P 10 soit considérée comme correctement estimée.

A partir de l'image complexe Α ζ (Αλι~) obtenue, dans le plan de reconstruction P z , dans chaque bande spectrale AA it on peut obtenir une image reconstruite I z , par exemple :

en réalisant une moyenne du module ou de la phase de l'image complexe Α ζ Αλι) dans chaque bande spectrale Αλι : l'image reconstruite I z est alors une image en niveaux de gris ; en combinant le module et/ou la phase de l'image complexe Α ζ Αλι) dans chaque bande spectrale AA it ce qui permet d'obtenir une image reconstruite I z en couleur représentant le module ou la phase.

D'autres algorithmes sont utilisables pour obtenir une image complexe représentant l'onde d'exposition 14, dans une surface de reconstruction P z faisant face au premier capteur d'image 16. De tels algorithmes sont par exemple décrits dans la demande de brevet F 1652500 déposée le 23 mars 2016. De tels algorithmes peuvent être mis en œuvre à partir d'une première source de lumière 11 émettant une première onde lumineuse 12 dans une seule bande spectrale, sans sortir du cadre de l'invention. La figure 2D représente une image reconstruite en mettant en œuvre l'algorithme décrit en lien avec la figure 2C. Elle représente une distribution spatiale du module d'un échantillon composé de cellules Jurkat flottantes dans un tampon liquide PBS, acronyme de Phosphate Buffer Saline, signifiant tampon phosphate salin. Une tâche d'encre a été réalisée, de façon à former un repère visuel. On notera que cette image reconstruite permet d'observer l'échantillon selon un champ d'observation élevé et une précision acceptable. Elle permet une sélection aisée d'une zone d'intérêt ROI dans l'échantillon. Les figures 2E et 2F représentent des observations de chaque zone d'intérêt à l'aide d'un objectif de grandissement 25, selon la deuxième modalité d'observation.

Les conditions expérimentales de cet essai sont les suivantes :

- source de lumière 11: CREE référence Xlamp MCE ;

premier capteur d'image : IDS MT9J003 monochrome, 3840 * 2748 pixels, chaque pixel mesurant 1.67 mm de côté, soit une surface de détection de 6.4 * 4.6 mm (29.4 mm 2 ) ; distance d entre l'échantillon 10 et le premier capteur d'image 16 : 1.5 mm ;

filtre spatial : ouverture 150 μιη ;

- objectif 25 : Olympus - grandissement 20 ;

deuxième capteur d'image 26 : Mightex SE-C050-U - capteur couleur comprenant 2560

* 1920 pixels.

Selon un mode de réalisation, la région d'intérêt ROI sélectionnée à partir de la première image I x fait l'objet d'une reconstruction, de manière à obtenir une image reconstruite, représentative de l'onde lumineuse 14, uniquement à partir de la région d'intérêt.

La figure 2G une image représentant une lame de tissu obtenu sur une souris et coloré selon une coloration HES. L'image de la figure 2G est une image reconstruite I z représentant le module d'une amplitude complexe reconstruite, selon l'algorithme décrit en lien avec la figure 2C, dans le plan de la lame de tissu (plan de l'échantillon). La figure 2H représente une région d'intérêt de cette lame, identifiée sur l'image reconstruite I Z et représentée par un contour noir sur l'image 2G, et observée à l'aide d'un objectif de grandissement x20. Selon une variante, on obtient une image reconstruite I Z à partir d'une première image dite intermédiaire l , obtenue en appliquant un bining à la première image l x . Le fait d'effectuer une reconstruction sur l'image intermédiaire I permet de réduire le temps de calcul, et d'obtenir une image reconstruite I Z plus rapidement. A partir de cette image reconstruite, une région d'intérêt ROI est sélectionnée. Il est alors possible d'obtenir une image reconstruite d'intérêt I Z R0I , limitée à la région d'intérêt préalablement sélectionnée. Cette image reconstruite d'intérêt est obtenue en appliquant des algorithmes de reconstruction holographique, tels que précédemment décrits ou cités, non pas sur la totalité de la première image I , mais uniquement sur la partie de la première image I liRO i correspondant à la région d'intérêt sélectionnée. Les figures 3A, 3B et 3C correspondent à un tel mode de réalisation. Sur la figure 3A, on a représenté une image reconstruite en considérant une image intermédiaire I obtenue en appliquant un bining 4*4 à l'image acquise l x par le premier capteur d'image 16. On obtient alors une image reconstruite l z de qualité moindre que celle représentée sur la figure 2D, mais suffisante pour permettre la sélection de régions d'intérêt ROI. Lorsque l'opérateur sélectionne une région d'intérêt ROI, la région d'intérêt sélectionnée fait l'objet d'une reconstruction en ne se basant que la partie de l'image acquise I X délimitée par la région d'intérêt. On aboutit ainsi à une image reconstruite d'intérêt I ZIRO I plus précise, la dimension réduite de la région d'intérêt ROI autorisant le recours à une reconstruction basée sur une partie ,Roi de la première image I X de résolution spatiale élevée. Les figures 3B et 3C représentent des images reconstruites d'intérêt correspondant aux régions d'intérêt matérialisées sur la figure 3 A.

La figure 3D illustre les principales étapes de cette variante. L'étape 110 correspond à l'acquisition de la première image I par le premier capteur d'image. L'étape 119 est l'application d'un opérateur, par exemple un bining, de façon à obtenir une image intermédiaire I couvrant un champ d'observation similaire à la première image, mais comportant un nombre de pixels inférieur au nombre de pixels de la première image I . De préférence, l'image intermédiaire I comporte au plus deux fois moins de pixels que la première image I X , voire au moins 4 fois ou 10 fois moins de pixels que la première image I X . L'étape 120 correspond à la reconstruction de l'expression complexe de l'onde lumineuse d'exposition 14, selon un plan de reconstruction P z , non pas à partir de la première image I x , mais à partir de l'image intermédiaire I . On obtient ainsi une image complexe A z , de laquelle on extrait l'image reconstruite I z , dans le plan de reconstruction P z , à partir du module et/ou de la phase de l'image complexe A z .

L'étape 130 est la sélection d'une région d'intérêt ROI, sur l'image reconstruite I z .

L'étape 132 correspond à sélection d'une partie I liRO i de la première image correspondant à la région d'intérêt ROI sélectionnée lors de l'étape précédente.

L'étape 134 est une reconstruction de l'expression complexe de l'onde lumineuse d'exposition 14, selon un plan de reconstruction P z , à partir de la partie I 1 RO i de la première image I x correspondant à la région d'intérêt ROI sélectionnée lors de l'étape 130. On obtient ainsi une image d'intérêt reconstruite I z R0I dans le plan de reconstruction P z , à partir du module et/ou de la phase de l'image complexe, dite image complexe d'intérêt A z R0I reconstruite dans la région d'intérêt. Les étapes 140 à 170, telles que précédemment décrites, peuvent être ensuite mises en œuvre, de façon à obtenir une image de la région d'intérêt sélectionnée lors de l'étape 130 à travers l'objectif 25, à l'aide du deuxième capteur d'image 26. Cependant, dans certains cas, l'image d'intérêt reconstruite peut être suffisante pour obtenir une représentation correcte de l'échantillon 10. Selon un mode de réalisation, la région d'intérêt ROI de l'échantillon n'est pas sélectionnée manuellement, à l'aide d'un sélecteur 41 de type souris ou clavier, mais automatiquement, en mettant en œuvre un algorithme de traitement d'image, à l'aide d'un processeur, par exemple le processeur 40. La sélection de la région d'intérêt est réalisée en fonction d'un critère de sélection préalablement déterminé. Ce critère est par exemple un critère morphologique, auquel cas une région d'intérêt est automatiquement détectée en cas de correspondance avec le critère morphologique. On a représenté, sur la figure 4A, une image I z reconstruite dite de phase, représentant la phase de l'amplitude complexe de l'onde lumineuse d'exposition selon un plan de reconstruction, ce dernier coïncidant avec le plan de l'échantillon. L'échantillon est, dans cet exemple, constitué de cellules dont certaines se divisent. Les inventeurs ont observé que la division cellulaire peut être tracée par une brusque augmentation de la phase. Il est alors possible de détecter automatiquement, dans l'image reconstruite I z , les pixels franchissant un certain seuil d'intensité, et de définir une région d'intérêt autour de tels pixels. Un simple seuillage en intensité de l'image de phase suffit à localiser a utomatiquement les régions d 'intérêt. Chaque région d'intérêt peut alors être successivement observée de façon plus fine, notamment à l'aide de la deuxième modalité. Sur la figure 4A, les régions d'intérêt sont matérialisées par un contour blanc. On a représenté, sur la figure 4B, une image d'un frottis sanguin coloré en Giesma, dans lequel on recherche des globules blancs. Il s'agit d'une image reconstruite I z représente la phase de l'amplitude complexe de l'onde lumineuse d'exposition 14, selon le plan de l'échantillon. Dans une telle situation, on recherche des régions d'intérêt contenant une particule d'intérêt, en l'occurrence un globule blanc. L'identification des régions d'intérêt est réalisée selon une analyse morphologique basée sur un critère de taille et de nivea u de gris, les globules blancs apparaissant sous la forme de taches de niveau de gris homogène et som bre, d'une taille prédéterminée. Selon un tel critère d'intérêt, les régions d'intérêt peuvent être automatiquement détectées, ces dernières étant matérialisées par un contour noir en pointillés.

On a représenté, sur la figure 4C, des cellules infectées d'un tissu. On a préala blement appliqué un agent de coloration immunohistochimique, spécifique au virus d'Epstein Bar (ou EBV). Les cellules infectées par l'EBV se présentent sous la forme de taches som bres sur l'image de la figure 4C. Il s'agit d'une image reconstruite I z représente le module de l'amplitude complexe de l'onde lumineuse d'exposition, selon le pla n de l'échantillon. Sur une telle image, les cellules infectées se présentent sous la forme de taches sombres, qu'il est simple d'identifier par un seuillage. Selon un tel critère d'intérêt, les régions d 'intérêt peuvent être automatiquement détectées, ces dernières étant matérialisées par un contour noir en pointillés.

Par ailleurs, comme décrit en lien avec l'art antérieur, la première image I , ou l'image I z reconstruite avec la première image, peut être utilisée pour effectuer un suivi de la position, ou tracking, de particules mobiles. A chaque particule peut être associée une région d'intérêt, cette dernière pouvant être analysée périodiquement à l'aide de la deuxième modalité.

Selon un mode de réalisation, décrit sur la figure 5, la première image I est également utilisée pour déterminer la distance entre l'échantillon 10 et le premier capteur d'image 16 (ou le plan de détection P 0 ), au niveau de la région d'intérêt ROI. Pour cela, un processeur, par exemple le processeur 40, met en œuvre un algorithme de focalisation numérique. Un tel algorithme est connu de l'homme du métier. Les principales étapes sont décrites en lien avec la figure 5.

Etape 136 : La première image I x , ou une partie de la première image correspondant à la région d'intérêt ROI, est propagée par un opérateur de propagation numérique h, tel que précédemment décrit, selon une plusieurs plans de reconstruction P z , chaque plan de reconstruction s'étendant à une distance z différente du plan de détection P 10 . On obtient alors une expression complexe de l'onde lumineuse 14 selon ces différents plans de reconstruction P z , formant ainsi autant d'images complexes A z . Une pile d'images complexes est ainsi obtenue. A partir de chaque image complexe A z , on établit une image de reconstruction A' z représentant le module et/ou de la phase de l'expression complexe dans chaque plan de reconstruction P z considéré.

Etape 137 : Un indicateur de netteté q z est affecté à chaque image de reconstruction A' z . L'indicateur de netteté q z peut être un indicateur quantifiant une dispersion de chaque image A' z , par exemple un écart type ou une variance. Il peut également être défini en convoluant chaque image de reconstruction par un opérateur de Sobel. Par exemple on peut définir un opérateur de Sobel S x selon l'axe X et un opérateur de Sobel S y selon l'axe Y. Si (x, y) désignent les pixels de l'image de reconstruction A' z , l'indicateur de netteté q z associé à chaque image de reconstruction A' z peut alors être tel que

On peut prendre : S x =

Etape 138 : L'évolution de l'indicateur de netteté q z en fonction de la profondeur permet d'identifier la distance correspondant effectivement à la distance z R0I entre le plan de détection P 0 et l'échantillon, au niveau de la région d'intérêt ROI. En fonction de l'indicateur de netteté retenu, la distance z R0I correspond généralement à un minimum ou un maximum, selon l'axe Z, de la valeur de l'indicateur de netteté. La distance z R0I est alors utilisée, lors de l'étape 140, de façon à disposer automatiquement la région d'intérêt ROI de l'échantillon selon le plan focal de l'objectif 25. On évite alors, ou on limite, un réglage manuel de la focalisation de l'objectif 25 avant l'acquisition de la deuxième image I 2 . Les images complexes A z formant la pile d'images complexes peuvent être obtenues à partir d'une image complexe, dite initiale, A z=d formée à une distance d établie a priori entre le premier capteur d'image 16 et l'échantillon. Cette image complexe initiale est obtenue en mettant en œuvre un algorithme de reconstruction itératif, comme précédemment décrit. Elle est ensuite propagée dans les différents plans de reconstruction P z par une simple convolution par un opérateur de propagation h. Par exemple, une image complexe A z , dans le plan de reconstruction P z , s'obtient simplement par l'opération : A Z , = A z=d * h d zl où h d zl représente un opérateur de propagation représentant la propagation de la lumière entre le plan P z=d etle plan P Z=Z! . La distance entre deux plans de propagation adjacents est déterminée en fonction de la précision avec laquelle on souhaite déterminer la distance z R0I entre le plan de détection P 0 et la région d'intérêt ROI de l'échantillon. L'un des intérêts de la première modalité réside dans le premier champ observé, ce dernier étant étendu par rapport au champ observé par un objectif de microscope. Cependant, dans un tel champ, l'échantillon peut ne pas être rigoureusement parallèle au capteur d'image 16, comme représenté sur la figure 6A. Aussi, lors de l'application de l'algorithme de reconstruction, faisant l'objet de l'étape 120, une distance de reconstruction z peut être optimale pour une partie de l'échantillon, mais pas pour une autre partie. Cela peut conduire à une dégradation de la résolution spatiale de l'image reconstruite I z . Les inventeurs ont en effet constaté qu'il était optimal que le plan de reconstruction P z soit le plan P 10 selon lequel s'étend l'échantillon 10. Aussi, si la distance de reconstruction z ne correspond pas à la distance entre le plan de détection et le plan de l'échantillon, la qualité de la reconstruction est dégradée. Afin de résoudre ce problème, il est proposé de mettre en œuvre l'étape 120 en considérant non pas une seule distance de propagation z, correspondant à la distance entre le plan de l'échantillon P 10 et le plan de détection P 0 , mais de tenir compte d'une éventuelle variation de la distance entre l'échantillon et le plan de détection. Pour cela, préalablement à l'étape 120, l'image l x , acquise par le premier capteur d'image 16, peut être partitionnée en différentes parties élémentaires / l w , à chaque partie élémentaire correspondant une distance de reconstruction z w , représentative de la distance entre l'échantillon et le premier capteur d'image 16 au niveau de la partie élémentaire. L'étape 120 est alors mise en œuvre séparément à partir de chaque partie élémentaire de façon à effectuer une reconstruction de l'onde lumineuse d'exposition 14 atteignant le capteur d'image 10 au niveau de ladite partie élémentaire, selon la distance de reconstruction z w associée à la partie élémentaire / l w . Autrement dit, à chaque partie élémentaire I l w , on attribue une distance de reconstruction z w correspondant à une estimation, dans ladite partie élémentaire, de la distance entre le plan de l'échantillon P 10 et le plan de détection P 0 .

Cependant, la position de l'échantillon par rapport au premier capteur d'image 16 n'est généralement pas connue a priori. Une phase de calibration, comportant les étapes représentées sur la figure 6B, est mise en œuvre, de façon à estimer une évolution de la distance entre l'échantillon 10 et le capteur d'image 16. Ces étapes sont les suivantes : Etape 111 : sélection d'une pluralité de points de calibration U n sur la première image acquise I . Il s'agit de déterminer au moins deux points, et de préférence au moins trois points sur la première image ^acquis, au cours de l'étape 100, par le premier capteur d'image. Ces points sont de préférence aussi espacés que possible les uns des autres. Il peut par exemple s'agir de quatre points situés au niveau des coins de la première image l x , auxquels on peut éventuellement ajouter un ou deux points au niveau du centre de l'image. Le nombre de points de calibration doit être suffisamment faible pour que la calibration soit réalisée rapidement. Il peut être compris entre 2 et 10. Sur la figure 6C, on a représenté 4 points de calibration situés au niveau des coins de la première image I . Etape 112 : détermination d'une zone de calibration V n autour de chaque point de calibration. Typiquement, une zone de calibration s'étend sur au moins 10 pixels autour d'un point de calibration U n . Une zone de calibration peut ainsi comprendre 10 x 10 pixels, voire 20 x 20 pixels, ou davantage, par exemple 50 x 50 pixels

Les étapes 113 à 115 visent à mettre en œuvre un algorithme de focalisation numérique, tel que précédemment décrit, sur chaque zone de calibration V n , de manière à estimer une distance z n entre l'échantillon 10 et le plan de détection P 0 au niveau de chaque zone de calibration V n .

Etape 113 : application d'un opérateur de propagation h à chaque zone élémentaire de calibration V n afin d'obtenir, pour chacune d'entre elle, une image complexe A n z dite de calibration, de l'onde lumineuse d'exposition 14 n atteignant le plan de détection P 0 au niveau de ladite zone élémentaire de calibration V n , selon différents plans de reconstruction P z respectivement espacés de différentes distances z, du plan de détection. Les plans de reconstruction P z sont par exemple espacés de quelques microns, par exemple 10 μιη, dans une plage de distances susceptible de contenir l'échantillon 10. On obtient ainsi une image complexe A n z de l'onde lumineuse 14 n auquel est exposé le premier capteur d'image 16, dans la zone élémentaire de calibration V n , selon les différents plans de reconstruction P z .

Etape 114 : pour chaque zone élémentaire de calibration V n , association, à chaque plan de reconstruction P z , d'un indicateur de dispersion q n z d'une image dite de reconstruction A' n z obtenue à partir de la phase et/ou du module de l'expression complexe de l'onde lumineuse d'exposition 14, à partir de l'image complexe de calibration A n z reconstruite lors de l'étape 113. L'indicateur de dispersion q n z peut être un écart type du module ou de la phase de l'expression complexe reconstruite sur chaque plan de reconstruction. Etape 115 : sur chaque zone élémentaire de calibration V n , détermination d'une distance de calibration z n , en fonction des différents indicateurs de netteté q n z . La distance de calibration z n est la distance entre l'échantillon 10 et le plan de détection P 0 , au niveau de chaque zone élémentaire de calibration V n . D'une façon générale, cette étape revient à appliquer un autofocus numérique de façon à déterminer le plan de reconstruction P z dans lequel une image de la phase ou du module de l'image complexe A n z sont les plus nets, ce plan de reconstruction étant alors considéré comme situé au niveau de l'échantillon 10. L'indicateur de netteté q n z peut être un de ceux décrits en lien avec la figure 5. La distance de calibration z n correspond généralement à une valeur particulière de l'indicateur de netteté, par exemple une valeur minimale ou une valeur maximale en fonction de l'indicateur de netteté retenu.

Etape 116 : partition de la première image acquise l x en différentes parties élémentaires et association, à chaque partie élémentaire, d'une distance z w séparant l'échantillon 10 du plan de détection P 0 . Chacune de ces distances est déterminée en fonction des distances de calibration z n établies pour chaque zone élémentaire de calibration V n , par exemple par une interpolation bidimensionnelle. L'interpolation peut être une interpolation linéaire. Le nombre W de parties élémentaires / l w peut être déterminé a priori, ou en fonction de la différence entre différentes distances de calibration. Plus l'échantillon est incliné, plus le nombre de parties élémentaires peut être élevé.

L'étape 120 comporte alors une reconstruction de l'amplitude complexe de l'onde lumineuse d'exposition 14 en considérant indépendamment chaque partie élémentaire I l w de la première image I . Ainsi, chaque partie élémentaire de la première image est propagée selon la distance z w qui lui a été attribuée lors de l'étape 116. On effectue alors autant de reconstructions qu'il y a de parties élémentaires / l w , ces reconstructions étant effectuées simultanément ou successivement, mais indépendamment les unes des autres. On obtient alors des images complexes A z w de l'onde lumineuse d'exposition 14 selon différents plans de reconstruction élémentaires P z w , chaque plan de reconstruction élémentaire s'étendant à la distance z w plan de détection - échantillon déterminée au niveau de la partie élémentaire

On peut alors former une image reconstruite I z w , dite image reconstruite élémentaire, à partir du module ou de la phase de l'image complexe A z w , selon les différents plans de reconstruction élémentaires P z w . La figure 6D représente une coupe montrant différents plans de reconstruction élémentaires P z w adjacents les uns des autres. Les images reconstruites / z w peuvent être concaténées pour former une image reconstruite I z . Ce mode de réalisation peut être utilisé pour une simple observation de l'échantillon, grâce à l'image reconstruite I z . Par ailleurs, lorsqu'une zone d'intérêt est sélectionnée puis observée par un deuxième capteur d'image, à travers un objectif 25, les distances z w peuvent être utilisées pour positionner automatiquement la région d'intérêt sélectionnée dans le plan focal de l'objectif 25. On tire alors profit de la bonne connaissance de la position de l'échantillon par rapport au plan de détection.

La figure 7A représente une image reconstruite I z d'une lame de tissu humain. On a représenté différentes régions d'intérêt sur l'image de la figure 7A. Les figures 7B, 7C et 7D représentent ces régions d'intérêt en ne considérant qu'une seule distance de reconstruction. Les figures 7E, 7F et 7G montrent respectivement les régions d'intérêt représentées sur les figures 7B, 7C et 7D, en mettant en œuvre le mode de réalisation représenté sur la figure 6B. Chaque région d'intérêt a été obtenue en prenant en compte une inclinaison de l'échantillon par rapport au plan de détection. On constate que cela améliore la résolution spatiale, notamment en comparant les images 7B et 7E, ou 7C et 7F. La figure 8 montre un exemple d'affichage que l'on peut obtenir sur l'écran 44. Sur la partie gauche de l'écran (1), on a représenté une image I z reconstruite à partir d'un échantillon formé par une lame de tissu biologique, en considérant le module d'une expression complexe reconstruite dans le plan de l'échantillon. Sur la partie droite de l'écran (2), on a représenté une région d'intérêt ROI sélectionnée à partir de l'image reconstruite, obtenue avec un objectif de microscope.

L'invention pourra être appliquée dans le domaine de la santé, ou dans d'autres domaines dans lesquels il est nécessaire de disposer d'une vue d'ensemble d'un échantillon, tout en permettant une analyse aisée de régions d'intérêt sélectionnées dans ce dernier. Ainsi, l'invention aura des applications dans le domaine du contrôle de l'environnement, de l'agroalimentaire, les biotechnologies ou dans le suivi de procédés industriels.