Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
MULTI-VIEW FUNDUS CAMERA
Document Type and Number:
WIPO Patent Application WO/2013/057352
Kind Code:
A1
Abstract:
The invention relates to a fundus camera that incorporates an integral image system for capturing an integral photograph of the fundus. This integral photograph allows projection of a three-dimensional image and generation of topographical maps of the fundus. The fundus camera can function plenoptically and thus zoom onto a two-dimensional image generated by the integral photograph. The equipment proposed is composed of an optical system for illuminating the fundus and an optical system that forms the integral image-capture system. This capture system includes an ophthalmoscopic lens, a microlens matrix and a sensor and allows recording, in a single shot, of multiple views of the fundus. To improve the resolution of the integral photograph, the capture system has a device that allows displacement of the microlens matrix by a few microns.

Inventors:
MARTINEZ CORRAL MANUEL (ES)
PONS MARTI AMPARO (ES)
SAAVEDRA TORTOSA GENARO (ES)
NAVARRO FRUCTUOSO HECTOR (ES)
MARTINEZ CUENCA RAUL (ES)
TOLOSA RUIZ ANGEL (ES)
ALCON NATIVIDAD (ES)
Application Number:
PCT/ES2012/070726
Publication Date:
April 25, 2013
Filing Date:
October 18, 2012
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
IND DE OPTICA COLOR E IMAGEN AIDO ASOC (ES)
UNIV VALENCIA (ES)
International Classes:
A61B3/12
Foreign References:
US7290880B12007-11-06
US20030038921A12003-02-27
US5995759A1999-11-30
JP2006087793A2006-04-06
US7798642B22010-09-21
US7290880B12007-11-06
Other References:
MARTINEZ-CUENCA R. ET AL: "Progresses in 3D imaging and display by integral imaging", THREE-DIMENSIONAL IMAGING, VISUALIZATION AND DISPLAY 2009, PROC. OF SPIE, vol. 7329, 2009, pages 73290P-1 - 73290P-7, XP003031133
NAVARRO, H. ET AL.: "Optical slicing of large scenes by synthetic aperture integral imaging", THREE-DIMENSIONAL IMAGING, VISUALIZATION AND DISPLAY 2010. PROC. OF SPIE, vol. 7690, 2010, pages 76900M-1 - 76900M-7, XP003031136
See also references of EP 2769666A4
H. NAVARRO; R. MARTINEZ-CUENCA; G. SAAVEDRA; M. MARTINEZ-CORRAL; B. JAVIDI: "3D integral imaging display by smart pseudoscopic-to-orthoscopic conversion", OPT. EXPRESS, vol. 25, 2010, pages 25573 - 25583
WEBB ET AL.: "Confocal scanning laser ophthalmoscope", APPL. OPT., vol. 26, 1987, pages 1492 - 1499, XP000579927, DOI: doi:10.1364/AO.26.001492
HUANG ET AL.: "Optical coherence tomography", SCIENCE, vol. 254, 1991, pages 1178 - 1181
Attorney, Agent or Firm:
CARVAJAL Y URQUIJO, Isabel et al. (ES)
Download PDF:
Claims:
Reivindicaciones

1 . - Cámara de fondo de ojo multi-perspectiva que comprende:

- una lente oftalmoscópica (2) configurada para enfocar un plano de interés del fondo de ojo (13) cuando se ilumina con una fuente de luz (3);

- un sensor matricial (7) que comprende una matriz 2D de pixeles configurados para registrar la intensidad y la frecuencia de la luz reflejada por el fondo de ojo (13), con dicho sensor matricial (7) acoplado con unos medios de procesamiento de imágenes (1 1 ) configurados para tratar una pluralidad de imágenes elementales formadas en los pixeles (14) de dicho sensor matricial (7);

caracterizada por que comprende además:

- una matriz de microlentes (6), cuyas microlentes (17) están dispuestas formando un plano transversal al eje óptico y situadas entre la lente oftalmoscópica (2) y el sensor matricial (7) paralelamente a ambos (2,7), con cada microlente (17) configurada para formar una imagen elemental con una perspectiva del fondo de ojo sobre un conjunto de pixeles (14) del sensor matricial (7) asociado con dicha microlente (17); donde la lente oftalmoscópica (2) y la matriz de microlentes (6) están dispuestas de tal manera que la imagen de un plano arbitrario del fondo de ojo (13) se forma sobre la matriz de microlentes (6) y a su vez dicha matriz de microlentes (6) está dispuesta para, en conjunción con el sistema óptico ocular exterior del paciente y la lente oftalmoscópica (2), formar una imagen de la pupila del ojo sobre el sensor matricial (7).

2. - Cámara según reivindicación 1 , caracterizada por que comprende además unos medios de desplazamiento (8) configurados para desplazar transversalmente al eje óptico la matriz de microlentes (6) en coordinación con los medios de procesamiento de imágenes (1 1 ) para adquirir un conjunto de imágenes elementales formadas en los pixeles (14) en cada desplazamiento transversal.

3. - Cámara según reivindicación 2, caracterizada por que los medios de desplazamiento (8) comprenden un mecanismo piezoeléctrico.

4. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que comprende además un modulador lineal de fase (18) acoplado a la matriz de microlentes (6) cuyas características moduladoras de fase son seleccionabas entre electro-ópticas y acusto-ópticas.

5. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que la fuente de luz (3) comprende un deflector de haz (4) y una lente colectora (5), tal que la lente colectora (5) conjuntamente con la lente oftalmoscópica (2) proyectan sobre el plano (1 ) de la pupila del ojo (13) la imagen de la fuente de luz (3).

6. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que el número de microlentes (17) de la matriz (6) es substancialmente igual al número de píxeles (14) por microlente (17).

7. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que la geometría de las microlentes (17) se selecciona entre: circular, hexagonal o cuadrada.

8. Cámara según una cualquiera de las reivindicaciones anteriores, caracterizada por que los medios de procesamiento (1 1 ) están configurados para reconstruir un mapa topográfico del fondo de ojo (13) a partir de la información correspondiente a una pluralidad de perspectivas recogidas por la matriz de microlentes (7).

9. Cámara según la reivindicación 8, caracterizada por que comprende además unos medios de proyección de imagen (10, 1 1 ).

10. Cámara según una cualquiera de las reivindicaciones anteriores 1 a 9, caracterizada por que la fuente de luz (3) emite en el rango de las radiaciones visibles, entre 380 nm y 780 nm.

1 1 . Cámara según una cualquiera de las reivindicaciones anteriores 1 a 9, caracteriada por que la fuente de luz (3) emite radiación infrarroja comprendida entre los 780 nm y los 3.000 nm.

Description:
CÁMARA DE FONDO DE OJO MULTI-PERSPECTIVA

Sector de la Técnica

La presente invención pertenece al campo de la óptica y la oftalmología. Se refiere concretamente a una cámara de fondo de ojo que captura una fotografía integral del fondo de ojo. A partir de esta fotografía integral es posible proyectar imágenes tridimensionales del fondo de ojo, generar mapas topográficos de él y realizar un seccionado óptico sobre la imagen que se obtiene.

Antecedentes

Fondo de ojo es un término utilizado para referirse al polo posterior del globo ocular. Esta parte comprende, principalmente, la retina, la mácula y el nervio óptico, y su examen es habitual para detectar enfermedades oculares, siendo posible también detectar enfermedades no ligadas directamente al ojo, como la diabetes o la hipertensión.

Los dispositivos más comunes para el examen no invasivo del fondo retiniano son el oftalmoscopio y la cámara de fondo de ojo. Estos dispositivos son muy útiles para un primer diagnóstico y para el monitorizado de patologías retinianas. Para mejorar las prestaciones de estos equipos, la cámara de fondo de ojo que se propone es capaz de generar imágenes tridimensionales (3D) del polo posterior. La principal diferencia con respecto a los oftalmoscopios y cámaras de fondo de ojo convencionales, incluidos las cámaras de fondo y los oftalmoscopios estereoscópicos, radica en que la cámara propuesta registra un gran número de perspectivas, con paralaje horizontal y vertical, que permiten la reconstrucción real de la imagen 3D del fondo retiniano.

Para la proyección de una imagen integral capturada con la cámara preparada para tal fin, otro trabajo relacionado con la presente invención es el algoritmo SPOC, de smart pseudoscopic-to-orthoscopy conversión, propuesto por H. Navarro, R. Martínez-Cuenca, G. Saavedra, M. Martínez-Corral, and B. Javidi en "3D integral imaging display by smart pseudoscopic-to-orthoscopic conversión," Opt. Express 25, 25573-25583 (2010), que permite adaptar las imágenes elementales de la fotografía integral original capturada a las características necesarias para su proyección desde un monitor o pantalla de imagen integral y un correcto visionado en 3D.

En lo que sigue, se hará un repaso de otros dispositivos existentes para la obtención de imágenes de fondo de ojo.

La cámara de fondo de ojo, como por ejemplo la que se describe en la patente estadounidense US 7.798.642 B2, incorpora sistema de iluminación para iluminar el polo posterior del ojo, un microscopio de poco aumento y una cámara acoplada a este, lo que le permite obtener fotografías del fondo de ojo. Este dispositivo proporciona imágenes planas sin posibilidad alguna de hacer reconstrucciones topográficas del fondo retiniano ni proyecciones 3D.

En US 7,290,880 B1 se describe una cámara de fondo de ojo estereoscópica. Estas cámaras permiten la captura de dos fotografías del polo posterior del ojo con perspectiva horizontal diferente. Estas imágenes estereoscópicas son útiles para el cálculo de topografía retiniana, y también para su proyección en monitores estereoscópicos. Sin embargo, al solo disponerse de dos vistas, las reconstrucciones topográficas carecen de segmentado óptico; es decir, no es posible seleccionar en la reconstrucción de la imagen distintos planos en profundidad de la escena. Por otra parte, y dado que la observación estereoscópica es muy sensible a los efectos inherentes al conflicto convergencia-acomodación, la proyección de esta imagen estereoscópica desde un monitor, da lugar a una gran fatiga visual cuando su observación es prolongada.

El oftalmoscopio confocal de barrido, basado en el concepto de la microscopía confocal, fue propuesto por Webb y colaboradores en en su artículo "Confocal scanning láser ophthalmoscope", Appl. Opt. 26, 1492-1499 en 1987. Este aparato, de uso no muy extendido debido a su alto coste, se basa en la proyección sobre la retina de un punto láser focalizado por la óptica ocular, y la posterior detección de los rayos reflejados por la retina tras atravesar un pequeño orificio, o estenope, que limita la entrada en el detector de los rayos más difusos reflejados por la retina.. La principal característica de este tipo de oftalmoscopio es su alta capacidad de seccionado óptico, que permite reconstrucciones topográficas de alta resolución y contraste. Su desventaja es la necesidad del uso de iluminación láser, y la necesidad de realizar un barrido punto a punto por toda el área de la retina que se desea observar hasta obtener la imagen tridimensional final. Mientras que la iluminación láser da a las imágenes un aspecto monocromático, lejos de la cromaticidad de las imágenes obtenidas con la cámara de fondo retiniano, la necesidad de barrido delimita el número de píxeles de la imagen final y requiere de un tiempo hasta haber escaneado toda la región de interés. Además, el campo visual (área) que se puede registrar es menor que el que se puede registrar con una cámara de fondo de ojo, siendo mayor la resolución.

El tomógrafo de coherencia óptica (OCT) propuesto por Huang y colaboradores en 1991 en su artículo "Optical coherence tomography," Science 254, 1 178-1 181 , emplea una técnica interferométrica para obtener imágenes tomográficas de tejidos biológicos con alta resolución, especialmente axial. Este instrumento se basa en un concepto de barrido punto a punto similar al del oftalmoscopio confocal, pero aquí la imagen se obtiene mediante seccionado óptico a partir de interferencias de baja coherencia entre la luz reflejada por las distintas capas del tejido retiniano y la luz con la que se ilumina dicho tejido. La imagen se genera entonces a partir de sucesivas medidas axiales realizando un barrido transversal, y se presenta como una imagen topográfica bidimensional. Mientras que la resolución axial es mejor que la del oftalmoscopio, la resolución transversal es peor. Al igual que en le caso anterior, la principal ventaja del OCT es su capacidad de seccionado óptico, que le permite la obtención de mapas tomográficos retiñíanos 3D de alta resolución. Sus desventajas son su altocoste, la monocromaticidad de las imágenes y el limitado número de píxeles.

Descripción breve de la invención

En esta invención se describe una cámara de fondo de ojo que es capaz de generar imágenes tridimensionales en color del polo posterior del ojo. Y aunque el fondo de ojo comprende la retina, la mácula y el nervio óptico, en adelante no referiremos indistintamente a esta zona del globo ocular con los términos de polo posterior, fondo de ojo o retina.

Para poder generar las imágenes 3D del fondo de ojo, se ha de insertar un matriz de microlentes entre la retina y el sensor de la cámara que se utiliza para fotografiarla, constituyendo así un sistema de imagen integral. Esta técnica de imagen permite la obtención de fotografías tridimensionales del polo posterior con luz policromática, con alta resolución y con paralaje completo. Estas imágenes se pueden proyectar desde un monitor de imagen integral, o utilizar para calcular, con alta capacidad de segmentado, un mapa topográfico del fondo de ojo. La invención combina ventajosamente las características de la cámara de fondo de ojo convencional y de la técnica de imagen integral para generar imágenes 3D con las que se solventa la principal desventaja de los oftalmoscopios y cámaras de fondo de ojo estereoscópicos: la fatiga visual debido al conflicto convergencia- acomodación.

La presente invención emplea la tecnología de imagen integral para generar las imágenes en tres dimensiones del fondo de ojo. La técnica de imagen integral se basa en la grabación, a través de una matriz de microlentes, de una matriz de imágenes elementales 2D de una escena 3D. Cada una de estas imágenes elementales recoge una perspectiva diferente de la escena 3D, y se graban tantas perspectivas (imágenes elementales) como microlentes hay en la matriz. Una de las ventajas de la técnica de imagen integral frente a la técnica de la estereoscopia es precisamente el número de perspectivas que se registran. En el caso de la imagen integral son tantas, en horizontal y en vertical, como microlentes posea la matriz en cada una de estas direcciones, mientras que en estereoscopia tan solo se recogen dos perspectivas en horizontal, tratando de simular la perspectiva que se percibe con sendos ojos en visión binocular

Las imágenes elementales, a las que conjuntamente denominamos fotografía integral, almacenan información discreta del mapa de rayos (también llamado «light field») emitidos por la escena 3D. A partir del mapa de rayos es posible realizar una reconstrucción topográfica del fondo de ojo o de cualquier elemento que forma parte de éste. Es posible también a partir de un correcto procesado del mapa de rayos, obtener una imagen bidimensional de una escena 3D sobre la que es posible hacer zums hacia planos de la escena que aparezcan desenfocados, así como establecer aperturas sintéticas sobre la imagen capturada para centrarnos en la región de interés. Es lo que se conoce como técnica plenoptica, y la imagen bidimensional generada fotografía plenoptica. Y también es posible preparar una imagen integral para su proyección multiperspectiva, con paralaje total, en un monitor de imagen integral. Esta imagen multiperspectiva proyectada es autoestereoscópica, tiene profundidad, y a diferencia de la proyección de pares estereoscópicos, paralaje, y no es necesario el uso de gafas especiales para su visión en 3D.

La presente invención resulta muy útil para el diagnóstico de alteraciones retinianas, como puede ser el glaucoma, la retinopatía diabética, la degeneración macular, y cualquier otra patología que pueda ser diagnosticada a partir de un examen del polo posterior, en especial aquellas que conlleven alteraciones de la topografía de la superficie del fondo de ojo.

Figuras

La figura 1 muestra un esquema simplificado de la invención con los componentes más importantes. Se representa una lente oftalmoscopica (2) (como equivalente óptico), un mecanismo de iluminación (3,5,4), una matriz de microlentes (6) y un sensor matricial (7) conectado con una unidad de proceso (1 1 ) para el procesamiento de imagen y con unos medios de proyección de imagen, que incluyen un monitor convencional (9) y un monitor de imagen integral (10). Se representan otros elementos opcionales para aumentar la resolución, a saber: un modulador de fase (18) y un elemento de desplazamiento (8).

La figura 2 muestra cómo realiza el muestreo la matriz de microlentes. Cada uno de los rayos que parten reflejados en distintas direcciones desde cualquier punto (16) iluminado del fondo de ojo (13) atraviesa su correspondiente microlente (17) de la matriz (6). De este modo, un determinado píxel (14) recoge la intensidad del rayo que lleva la inclinación adecuada.

Descripción detallada de la invención

A continuación, se describe con referencia a las figuras una realización de la invención que no debe ser considerada con carácter limitativo.

La aplicación del concepto de imagen integral a la fotografía retiniana permite que en una sola fotografía (fotografía integral) se graben un gran número de perspectivas del fondo de ojo (13). Como se observa en la figura 1 , una fuente de luz (3) es proyectada sobre el fondo de ojo (13) a través de un sistema óptico (5), (4) y (2) que considera también el del ojo (1 ). La luz reflejada por el fondo pasa a través de las microlentes que componen la matriz (6) incidiendo sobre el sensor (7).

Para aumentar la resolución del sistema de imagen integral se puede emplear un dispositivo electromecánico de desplazamiento (8), por ejemplo un piezoeléctrico, que desplace transversalmente la matriz de microlentes (6), aumentando así el número de microlentes efectivas.

Como alternativa a este dispositivo electromecánico (8), o conjuntamente con éste, se puede emplear un modulador lineal de fase sintonizable electrónicamente (18), también conocido como cuña de fase o deflector electro-óptico, (p.e., una pantalla de cristal líquido) o un modulador de fase acusto-óptico que, colocado en el eje óptico antes de las microlentes, desvíe los rayos reflejados por la retina un determinado ángulo. Con el cambio de dirección de la trayectoria de los rayos el efecto que se consigue sobre la resolución de la imagen integral es equivalente al que se puede conseguir con el desplazamiento transversal de las microlentes.

Una vez grabada la imagen integral captada por el sensor matricial (7) se puede procesar con la asistencia de una unidad de proceso (1 1 ) y proyectar la imagen 3D de la retina desde un monitor de imagen integral (10). La unidad de proceso (1 1 ) puede también realizar una reconstrucción topográfica del fondo de ojo (13), o de cualquiera de sus elementos por separado, que puede ser presentada en forma de mapa topográfico o en forma de secciones de distintos planos de la escena 3D en un monitor o pantalla convencional (9).

Como se ha dicho, a partir de la fotografía integral se puede calcular (procesar) una reconstrucción topográfica, sección a sección, del fondo de ojo (13). La resolución de las secciones topográficas es igual a la resolución de la imagen integral. El número de secciones segmentadas es igual al número de perspectivas de la fotografía integral sintética.

A partir de la fotografía integral capturada se puede calcular una imagen integral nueva, que llamamos imagen integral sintética, preparada para su proyección desde un monitor de imagen integral (10). Este monitor (10) proporciona al observador una reconstrucción real, en tres dimensiones, del fondo de ojo (13). La imagen 3D proyectada es autoestereoscópica, con paralaje y profundidad, por lo que no es necesario el uso de filtros adicionales para su observación.

Mediante acción coordinada de los mecanismos de acomodación y convergencia del ojo, el observador puede enfocar, al mirar hacia el monitor, a diferentes profundidades de la imagen 3D. Al ser autoestereoscópica, en esta observación no se produce conflicto convergencia-acomodación, lo que permite una observación prolongada de la escena sin que aparezca la fatiga visual.

Tal y como se muestra en la Figura 1 , donde se ve un esquema de la invención, la cámara posee al menos una lente oftalmoscópica (2) que, en con el sistema óptico ocular (1 ), proporciona una imagen aumentada de la retina sobre el plano de la matriz de las microlentes (6).

El sensor matricial (7) se ajusta de forma que su conjugado a través de cada una de las microlentes (7), todas ellas con la mismas distancias focales, de la lente oftalmoscópica (2) y de la parte anterior del sistema óptico ocular (formado por la córnea y el humor acuoso) coincida con el plano de la pupila (1 ) (que constituye el diafragma de abertura del sistema).

Una fuente de luz (3) permite iluminar la región retiniana de interés (13). Para esto se puede emplear un deflector de haz (4) y una lente colectora (5). La lente colectora (5) conjuntamente con la lente oftalmoscópica (2), proyectan sobre el plano de la pupila la imagen de la fuente de luz (3), para constituir así un sistema de iluminación retiniana del tipo Kóhler. Este tipo de iluminación regula el cono de rayos de luz que ilumina la escena, cubriendo exacta y homogéneamente el diámetro frontal de la pupila en su apertura numérica específica, para de esta manera poder aprovechar la mayor cantidad de la luz emitida por la fuente emisora. Este sistema de iluminación permite capturar toda una serie de imágenes elementales del fondo de ojo (13) que, como veremos a continuación, contienen información precisa de los rayos de luz emitidos por la retina cuando está convenientemente iluminada.

Tal y como vemos en la Figura 2, el sistema de imagen integral compuesto fundamentalmente por las microlentes (6) y el sensor (7), funciona capturando un muestreo del conjunto de rayos emitidos por la muestra 3D (13). De este modo, un determinado píxel (14) recoge la intensidad del rayo que, entrando por el centro de su correspondiente microlente (17), lleva la inclinación adecuada para quedar registrado en el sensor en el área correspondiente (12) a esa microlente. La información capturada por el sensor matricial (la fotografía integral) puede ser representada en el espacio de rayos. En este espacio el sensor matricial (7) realiza un muestreo discreto del continuo de rayos emitido por la muestra. Cuanto mayor sea el número de microlentes (17), y el de píxeles (14) por microlente, mejor será el muestreo, y más fielmente se reproducirá en una fase posterior la imagen 3D. Nótese que, de acuerdo con lo establecido por la técnica de imagen integral, los rayos que entren por una microlente (17) han de quedar confinados (mediante una barrera óptica) en el área (12) para su correcto procesado.

El número de puntos en que se muestrea el espacio de rayos es igual al número de píxeles útiles del sensor. Para realizar un muestreo óptimo, que permita tanto una reconstrucción precisa del espacio de rayos, como en una fase posterior una reproducción fiel de la escena 3D, es conveniente que el número de microlentes sea igual (o aproximadamente igual) al número de píxeles por microlente.

Dado que la resolución del sistema depende del número microlentes (17) que hay por unidad de superficie en la matriz (6), y esto está limitado por los procesos de fabricación de éstas y el tamaño que puede tener cada microlente (aquí hay que considerar los límites que impone la difracción de la luz), para aumentar el número de píxeles efectivos (y con él, el número efectivo de microlentes) se propone añadir un dispositivo de desplazamiento transversal (8), paso a paso, de la matriz de microlentes (6). Para cada paso de este barrido transversal se captura con el sensor (7) una fotografía integral. Estos desplazamientos tienen una longitud £ = p / N , siendo p el espaciado entre microlentes (distancia entre centros de microlentes consecutivas) y N el número de pasos en cada dirección cartesiana x- y. Esto permite incrementar en un factor Ν la frecuencia de muestreo del espacio de rayos. Este aumento en la resolución también se puede lograr por medios ópticos como, por ejemplo, con una cuña de fase (18).

Tal y como muestra la Figura 1 , mediante la CPU (1 1 ) se produce la necesaria coordinación entre los procesos de barrido de las microlentes, captura y grabación de las fotografías integrales, procesado de las mismas para componer la fotografía integral sintética (que no es estrictamente necesario), y finalmente grabación de la fotografía integral sintética. La fotografía integral, ya sea la original o la sintética, se puede utilizar para tres propósitos:

a) Reconstrucción topográfica del fondo de ojo. Al disponer de múltiples perspectivas, y haciendo uso de algoritmos de reconstrucción topográfica convencionales, es posible generar un mapa topográfico del fondo de ojo, tipo CAD por ejemplo, que puede ser visto en una pantalla convencional. Al contener información multiperspectiva, este mapa puede ser rotado para visualizar la perspectiva de interés del elemento del fondo de ojo que se desea examinar con más detenimiento.

b) Reconstrucción topográfica del fondo de ojo sección a sección. A partir de la función plenóptica es posible realizar un seccionado óptico sobre una fotografía 2D obtenida del procesado de la fotografía integral. La resolución de las secciones topográficas viene determinada por el número de microlentes activas. El número de planos en que se puede segmentar la imagen 3D es igual al número de píxeles por imagen elemental. Por ello, el uso de la técnica de barrido de las microlentes permite incrementar en un factorVN tanto la resolución como la capacidad de segmentado de la topografía retiniana.

c) Proyección de imágenes 3D en un monitor de imagen integral. Mediante el uso del algoritmo SPOC, es posible calcular a partir de la fotografía integral una nueva fotografía integral sintética con el conjunto de imágenes elementales preparadas para su proyección en un monitor de imagen integral. Dado que el funcionamiento del sistema de proyección de imagen integral se fundamenta en el principio de reversibilidad de los rayos, y dado que la configuración del sistema de captura no tiene porqué ser el mismo que el de proyección— por ejemplo que el tamaño de las microlentes empleadas para la captura sean más pequeñas que las que se empleen en la proyección, o que no tengan la misma geometría, o que la distancia entre el sensor y las microlentes durante la captura no sea la misma que entre el monitor y la matriz de microlentes— , con este algoritmo se resuelven las diferencias estructurales entre el sistema de captura y el sistema de proyección, ofreciendo en este caso imágenes tridimensionales que pueden ser vistas una vez proyectadas directamente sin la necesidad de emplear gafas especiales. Concretamente, este algoritmo de muestreo de píxeles permite seleccionar sintéticamente los parámetros de la matriz de microlentes (7), como la distancia focal, el tamaño, la distancia entre las microlentes (17); también la posición de esta respecto del monitor y el tamaño de la imágenes reconstruidas, incluso la geometría de las microlentes (circulares, hexagonales, cuadradas...), simulando que ha sido capturada de la misma manera que como se va a proyectar. De esta manera, si se el sistema de proyección no es el mismo que el de captura, se ajusta la fotografía integral para que parezca que fue grabada con un sistema de idénticas características al que sirve para proyectarla.

El algoritmo es el resultado de la aplicación en cascada de tres procesos: la simulación del monitor, la captura virtual y el escalado homogéneo.

En primer lugar, la simulación del monitor: la matriz de imágenes elementales capturadas con las microlentes se usa como entrada del algoritmo.

En un segundo paso, la captura virtual: la imagen se transforma para simular que ha sido capturada mediante una matriz de estenopes. La posición de esta matriz, el periodo espacial entre sus elementos, la distancia entre la matriz y el sensor, y el número de píxeles se asignan arbitrariamente para que coincidan con las características del monitor que servirá de proyector.

Por último un escalado homogéneo: se adapta el tamaño de las imágenes elementales sintéticas a las características del monitor de imagen integral.

Es conveniente, aunque no necesario, que el número de píxeles efectivos de la fotografía integral sintética obtenida después del barrido de las microlentes sea del mismo orden que el número de píxeles del monitor. La aplicación de SPOC permitirá la obtención de una imagen integral en la que el número de imágenes elementales deberá ser sensiblemente mayor que el número de píxeles por imagen elemental. Mientras que el número de imágenes elementales determina la resolución del monitor, el número de píxeles por imagen elemental determina el número de perspectivas. Un número de perspectivas entre 12 y 16 se considera suficiente, y es conveniente que la resolución del monitor sea mucho mayor.