Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
SYSTEM FOR INTEGRALLY MEASURING CLINICAL PARAMETERS OF VISUAL FUNCTION
Document Type and Number:
WIPO Patent Application WO/2018/087408
Kind Code:
A1
Abstract:
System for integrally measuring clinical parameters of visual function, including: a display unit (20) for representing a scene with a 3D object having variable characteristics, such as the virtual position and virtual volume of the 3D object within the scene; movement sensors (60) for detecting the position of the user's head and distance from the display unit (20); tracking sensors (10) for detecting the position of the user's pupils and pupillary distance; an interface (30) for interaction between the user and the scene; and processing means (42, 44) for analysing the user response, based on the data from the sensors (60, 10) and the interface (30), with the variation in the characteristics of the 3D object, and based on the estimation of a plurality of clinical parameters of visual function related to binocularity, accommodation, ocular motility and visual perception.

Inventors:
GARCÍA RAMOS EVA (ES)
Application Number:
PCT/ES2017/070721
Publication Date:
May 17, 2018
Filing Date:
October 27, 2017
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
E HEALTH TECHNICAL SOLUTIONS S L (ES)
International Classes:
A61B3/00; A61B3/024; A61B3/028; A61B3/06; A61B3/08; A61B3/09; A61B3/113
Domestic Patent References:
WO2016139662A12016-09-09
Foreign References:
US20160262608A12016-09-15
US20130095924A12013-04-18
Other References:
None
Attorney, Agent or Firm:
CARVAJAL Y URQUIJO, Isabel et al. (ES)
Download PDF:
Claims:
REIVINDICACIONES

1. Sistema para medición integral de parámetros clínicos de la función visual caracterizado por que comprende:

- una unidad de visualización (20) configurada para representar una escena donde al menos un objeto 3D tiene características variables para infundir una respuesta visual en el usuario, donde dichas características variables incluyen al menos la posición virtual (x0,y0,z0) y el volumen virtual (V0) del objeto 3D dentro de la escena;

- una pluralidad de sensores de movimiento (60) configurados para detectar la posición (XC,YC) de la cabeza del usuario y distancia (Dc) a la unidad de visualización (20);

- una pluralidad de sensores de seguimiento (10) configurados para detectar la posición de las pupilas del usuario (xp,yp,Zp) y diámetro pupila (dp);

- una interfaz (30) configurada para permitir la interacción del usuario sobre la escena;

- unos medios de procesamiento (42,44) configurados para analizar la respuesta del usuario en función de:

la asociación de los datos procedentes de los sensores (60,10) y de la interfaz (30) con la variación de las características del objeto 3D representado en la unidad de visualización;

la estimación de una pluralidad de parámetros clínicos de la función visual del usuario.

2. Sistema según la reivindicación 1 , donde las características son variables en función del tiempo según una programación prefijada.

3. Sistema según la reivindicación 1 o 2, donde las características variables incluyen además el color del objeto 3D.

4. Sistema según una cualquiera de las reivindicaciones anteriores, donde las características son variables en función de la interacción del usuario a través de la interfaz (30).

5. Sistema según la reivindicación 4, donde la interfaz (30) comprende al menos uno de los siguientes un lápiz digital, un guante, un mando o equivalente

6. Sistema según una cualquiera de las reivindicaciones anteriores, donde la unidad de visualización (20) comprende una pantalla 3D.

7. Sistema según una cualquiera de las reivindicaciones anteriores, donde la unidad de visualización (20) comprende unas gafas de realidad virtual.

8. Sistema según una cualquiera de las reivindicaciones anteriores, donde la unidad de visualización (20) comprende un sistema disociador.

9. Sistema según una cualquiera de las reivindicaciones anteriores, donde los medios de procesamiento (42,44) están configurados además para comparar los parámetros clínicos de la función visual estimados con unos rangos de valores de referencia almacenados y para establecer una posible disfunción visual en función de la comparación.

10. Sistema según la reivindicación 8 o 9, donde la comparación con rangos de valores de referencia se realiza en función del perfil del usuario que incluye al menos información sobre su edad

11. Sistema según una cualquiera de las reivindicaciones anteriores, donde los medios de procesamiento comprenden un terminal cliente (44) y un servidor (42), donde el terminal cliente (44) está configurado para recibir y procesar los datos medidos por los sensores (10,60) y para enviarlos al servidor (42).

12. Sistema según la reivindicación 1 1 , donde el servidor (42) está configurado para comparar los valores con una base de datos con valores de referencia.

13. Sistema según una cualquiera de las reivindicaciones anteriores, donde la función visual de los parámetros clínicos se refiere a al menos una de las siguientes: binocularidad, acomodación, motilidad ocular o visuopercepcion.

Description:
SISTEMA PARA MEDICIÓN INTEGRAL DE PARÁMETROS CLÍNICOS DE LA

FUNCIÓN VISUAL

DESCRIPCIÓN

Campo técnico de la invención

La invención pertenece al campo de los sistemas y métodos para medir clínicos de la función visual. Más concretamente, se relaciona con técnicas que emplean la realidad virtual de forma inmersiva para medir este tipo de parámetros.

Estado de la Técnica

Actualmente para medir este tipo de parámetros clínicos de la función visual es preciso un especialista clínico que lleva a cabo durante una sesión con una serie de pruebas y optotipos sobre el paciente. Es habitual que la componente personal y manual de las mediciones proporcione resultados subjetivos, poco reproducibles y meramente cualitativos.

De otra parte, las medidas realizadas se llevan a cabo de forma independiente según la función visual que se desea valorar. Ello provoca que los resultados no sean en ocasiones válidos debido a que se desprecia la influencia que tienen otros factores. Por ejemplo, es sabido que los pacientes suelen compensar alguna anomalía o deficiencia particular en su función visual supliéndola con el funcionamiento integral del resto.

En suma, en la actualidad la capacidad de adaptación del paciente no es considerada y con ello las actuaciones destinadas a corregir una anomalía concreta pueden resultar en la práctica en un empeoramiento global de la visión del paciente. Además, las medidas y pruebas sobre el paciente están afectadas por la subjetividad del especialista que las lleva a cabo con lo que limita significativamente la reproducibilidad y concordancia de los resultados experimentales obtenidos.

Breve descripción de la invención

La presente invención se refiere a un sistema de medición integral de parámetros oculares, oculomotores y de la función visual, preferentemente, en tiempo real y de generación de terapia y entrenamiento para la mejora de la función visual. Para lograr esta finalidad se emplean unos sensores de seguimiento que detectan la posición de las pupilas del usuario, una unidad de visualización en tres dimensiones (3D) que reproduce para el usuario ciertas escenas con objetos 3D con unas propiedades predeterminadas de tamaño, forma, color, velocidad, etc., que han sido seleccionadas de acuerdo con el tipo de prueba que se va a realizar como parte de la sesión. Unos sensores de movimiento captan movimientos realizados por el usuario para que la unidad de visualización pueda adaptar la escena y dotarle de carácter inmersivo.

El sistema incluye también una interfaz con la que el usuario puede interactuar. En particular, la interfaz recibe órdenes del usuario para interactuar con el sistema de visualización. Estas órdenes pueden recogerse de muy diversa índole (con botones de control, comandos de voz, guantes, etc.).

El sistema implementa además unos medios de procesamiento que gestionan la unidad de visualización, el sensor y la interfaz de forma coordinada. Así las respuestas del usuario frente a estímulos visuales generados en la unidad de visualización son detectadas por el sensor y transmitidas a los medios de procesamiento para la medición de parámetros clínicos.

Un punto importante en la presente propuesta radica en la tecnología basada en la Realidad Virtual que permite la generación de entornos de interacción con el usuario. En concreto, se busca la capacidad de inmersión en el entorno virtual. Esto es especialmente interesante para crear unas condiciones similares a las reales para el usuario y permitir recrearlas más veces si se desea. Para ello, se precisa que la unidad de visualización esté acoplada con los sensores de movimiento portados por el usuario. En algunas realizaciones pueden ser unas gafas de realidad virtual, en otras, una pantalla 3D y unas gafas polarizadas. En cualquier caso, el acoplamiento de los sensores de movimiento y la unidad de visualización permite que la imagen 3D se muestre adaptada al movimiento o a la posición de la persona, consiguiendo que el usuario tenga la sensación de moverse por ese entorno virtual que está visualizando, es decir, que esté inmerso en él, preferentemente con un campo visual mínimo de 60° para poder realizar adecuadamente la evaluación, terapia y entrenamiento de la función visual. Para lograr lo anterior, es importante la precisa coordinación entre los elementos que intervienen durante una sesión. Así primero se presenta al usuario un entorno 3D de Realidad Virtual y para que el usuario se sumerja en él. En dicho entorno 3D, se visualizarán unos objetos 3D a modo de "optotipos" que van a ser los estímulos sobre los que el usuario debe centrar la mirada y que tienen que ver con la prueba que se le va a practicar.

Breve descripción de las figuras

La FIG. 1 muestra un diagrama de bloques simplificado según una posible realización de la invención.

Las FIGs. 2A, 2B muestran un ejemplo de medición para un usuario sano que mira una escena con un objeto 3D en movimiento.

Las FIGs. 3A, 3B muestran un ejemplo de medición para un usuario con disfunción que mira una escena con un objeto 3D en movimiento.

La FIG. 4 muestra un diagrama resumen con los pasos generales implementados en una realización.

Descripción detallada de la invención

Con referencia a las figuras anteriores, se explica en mayor detalle un ejemplo de realización sin carácter limitativo.

La FIG. 1 ilustra un sistema de medición integral de parámetros clínicos de la función visual en tiempo real que incluye diversos componentes. Hay un sensor de seguimiento 10 que se emplea para detectar de forma periódica la posición de las pupilas del usuario. Con ello se pueden medir no solo los cambios de dirección sino también la velocidad. Generalmente, el sensor de seguimiento 10 permite medir múltiples parámetros según la prueba concreta de la sesión. Las FIGs. 2 y 3 ilustran con mayor detalle este aspecto de la invención. Por ejemplo, el sensor de seguimiento 10 puede tomar valores para la posición del ojo derecho e izquierdo, para la posición del objeto al que mira el usuario (mediante ambos ojos y por separado), la distancia ojo-sensor, el tamaño de la pupila, la distancia interpupilar, la velocidad del movimiento de los ojos, etc. Generalmente, para la toma de las medidas, el sensor de seguimiento 10 incluye una pareja de cámaras para enfocar a los ojos del usuario y capturar su movimiento y posición. Esto precisa una frecuencia de muestreo suficientemente alta para capturar movimientos rápidos de los ojos. Debe además calcular la posición dentro entorno virtual generado hacia donde el usuario está mirando. El sensor de seguimiento 10 resulta vital para una correcta medición optométrica. Buena parte de las disfunciones se detectan por movimientos anómalos de los ojos antes diversos estímulos. Por claridad, en las FIGs. 2 y 3 se dan ejemplos sobre cómo las medidas tomadas por los sensores 10, 60 se asocian con una condición visual del usuario con y sin posible disfunción, respectivamente.

Una unidad de visualización 20 con capacidad inmersiva en 3D reproduce o proyecta para el usuario escenas en profundidad con objetos 3D con unas propiedades predeterminadas de tamaño, forma, color, posición en el escenario, distancia al usuario, en reposo o movimiento, etc. Estas escenas con objetos 3D funcionan como optotipos y pueden ser seleccionadas en el sistema de acuerdo con el tipo de prueba que se va a realizar, que permiten provocar determinados estímulos visuales en el usuario. Así, se pueden diseñar para el usuario multitud de escenas con diversos retos y estímulos visuales ya sea para la evaluación, la terapia o el entrenamiento de la función visual.

El sistema incluye también una interfaz 30 para que el usuario interactúe. En particular, la interfaz recibe órdenes del usuario para controlar la unidad de visualización 20 y otros elementos del sistema. La interfaz 30 puede a su vez transmitir instrucciones al usuario para la prueba. El sistema puede así medir la respuesta a acciones que el usuario realice (movimiento, posición en el entorno 3D, pulsaciones de botones, etc.).

El sistema incluye además unos medios de procesamiento 40 implementados preferiblemente como un servidor 42 y un terminal 44 que se reparten coordinadamente la gestión de la unidad de visualización 20, el control del sensor 10 y de la interfaz 30, de forma que las respuestas visuales del usuario pueden ser detectadas por el sensor 10 y transmitidas al servidor 42 para la medición de parámetros clínicos de la función visual. Incluso, la unidad de visualización 20 permite la adaptación de la imagen 3D representada según el movimiento del usuario. La unidad de visualización 20 puede incluir un sistema disociador (tipo gafas polarizadas o similar).

El inicio de la prueba se hace preferentemente a través de la interfaz 30. Durante la visualización de una escena concreta, los estímulos visuales del usuario que han sido detectados por el sensor 10 en un determinado momento se asocian con los objetos 3D representados en ese momento en la unidad de visualización 20. Estos cambios de posición de las pupilas del usuario son detectados y combinados con los movimientos realizados con la cabeza del usuario que son detectados por un sensor de movimiento 60. El acoplamiento de los sensores de movimiento 60 y la unidad de visualización 20 permite que la imagen 3D se muestre adaptada al movimiento o a la posición de la persona, consiguiendo que el usuario tenga la sensación de moverse por ese entorno virtual que está visualizando, es decir que esté inmerso en él.

Se procesan los datos y se asocian las propiedades del objeto 3D con los estímulos provocados detectados por los sensores 10, 60. Esto permite medir parámetros clínicos de la función visual en unas condiciones reproducibles y controlables. Así, mediante el procesamiento adecuado de los datos obtenidos, se puede conocer el comportamiento visual del usuario, desplazamiento de los ojos, la convergencia... etc. También pueden compararse los parámetros clínicos de la función visual con rangos esperados para estimar si existe algún problema.

Como se ha indicado, simultáneamente con la visualización de objetos 3D en la unidad de visualización 20, el sensor de seguimiento 10 rastrea la mirada del usuario en dicho entorno de Realidad Virtual. El sensor de seguimiento 10 registra:

- Posición de los ojos (izquierdo y derecho).

- Posición a la que mira cada ojo (por separado).

- Posición a la que mira el usuario con la combinación de ambos ojos en el entorno 3D. También a la par, se pueden mostrar instrucciones para guiar al usuario explicando lo que debe hacer en cada momento. Estas instrucciones se pueden ser en forma de texto o mediante audio a través de una interfaz 30. Dicha interfaz 30 también permite al usuario interactuar con objetos 3D de la escena representada por la unidad de visualización 20. En ese momento, comienza la interacción con el usuario y se deben recoger las respuestas que dé ante los estímulos que se vayan mostrando, es decir las mediciones. Estas respuestas del usuario pueden ser, por ejemplo, entre otras en forma de:

- Movimiento del dispositivo (en cualquier dirección en el espacio).

- Posición del dispositivo dentro del entorno de realidad virtual.

- Pulsaciones de botones del dispositivo.

- Comandos de voz.

En la situación descrita arriba, para las tareas anteriores el procesamiento se lleva a cabo preferiblemente en un terminal de cliente 44 aunque se hayan proporcionado (descargado) desde un servidor 42 externo. Un entorno distribuido permite reducir los requisitos técnicos del terminal 44, un control centralizado de las pruebas realizadas en diferentes usuarios, acceso a datos estadísticos, etc. Por ejemplo, las operaciones y cálculos más pesados pueden llevarse a cabo en el servidor 42 liberando al terminal 44 de carga de proceso. Asimismo, desde el servidor 42 pueden definirse las características que pueden establecerse para una prueba:

- El entorno de Realidad Virtual a utilizar. - Los objetos 3D y sus características (tamaño, distancia, colores, movimiento, ...).

- Qué instrucciones dar al usuario.

- Cuándo capturar información con el sensor de seguimiento 10.

- Cuándo capturar información con la interfaz de usuario 30.

- Qué datos recoger y devolver como resultado de ejecución.

Respecto de los datos a recoger, hay datos procedentes de los sensores 10, 60 y también a través de la interacción del usuario con la interfaz 30.

Una vez finalizado todo el tratamiento local de los datos, se agrupan y se envían al servidor 42 para su almacenamiento y análisis posterior. Con ello, se pueden elaborar estadísticas, nuevas pruebas, recomendaciones, terapias, etc.

Por ejemplo, se puede comprobar si los valores obtenidos para unos parámetros están dentro de los límites de tolerancia de acuerdo con estudios científicos almacenados en el servidor 42. De otra parte, como recomendaciones se puede diseñar una nueva escena que sirva de terapia o entrenamiento para mejorar alguna de las funcionalidades en las que la prueba dio peor resultado.

Las FIGs. 2A y 2B ilustran esquemáticamente un ejemplo en el que un usuario interactúa con el sistema en dos instantes de tiempo. En un instante inicial t=t¡, el sistema representa en la unidad de visualización 30 un modelo 3D que corresponde con un tren desplazándose por una vía.

El usuario porta un sensor de movimiento 60 para registrar en ambos instantes de tiempo los movimientos realizados con la cabeza (X¡c,Y¡c), (Xfc.Yfc) y la distancia D¡c, Dfc con la unidad de visualización 20. De forma similar, un sensor de seguimiento 10 registra los movimientos de las pupilas del usuario en ambos instantes de tiempo proporcionando información de la posición de ambas pupilas. Derecha: (x¡i ,y¡i ,z¡i ), (xn ,yfi ,zfi ); izquierda: (x¡2,y¡2,z¡2), (xf2,yf2,zf2).

De otra parte, la unidad de visualización 20 representa al objeto 3D en dos posiciones virtuales diferentes (x¡o,y¡o,z¡o), (xfo,yfo,zfo) y con dos volúmenes diferentes en cada instante de tiempo Vio, Vfo. Otras propiedades como el color del objeto 3D pueden cambiar en función de la prueba a realizar en la sesión.

Cuando se realiza un procesamiento de los valores anteriores, se comprueba que los ojos del usuario están coordinados adecuadamente con el movimiento del objeto 3D en la escena. El comportamiento visual corresponde con un individuo sano.

Las FIGs. 3A y 3B ilustran esquemáticamente el caso al anterior donde el comportamiento visual del usuario no responde adecuadamente a los estímulos. Como se puede ver, en la FIG. 3A, el usuario no alinea correctamente el eje visual de su ojo izquierdo (x¡2,y¡2,z¡2) sobre el objeto de interés (V¡ 0 ), poniendo de manifiesto una limitación de su visión binocular (estrabismo). En este caso, el ángulo de desviación (FIG. 3B) se mantiene constante al desplazarse el objeto de interés (V f0 ), indicando una condición comitante, es decir, presenta el mismo ángulo de desviación en diferentes posiciones de mirada. Esta información es clave para determinar la severidad de la condición así como la del tipo de recomendación de terapia visual para reestablecer la binocularidad del sujeto.

Claramente la escena escogida es solo un ejemplo. Otros podrían ser, un acuario con peces con diferentes formas, colores y tamaños que van apareciendo y desapareciendo; una carretera con un coche que se va acercando al usuario; unos agujeros con topos que van surgiendo aleatoriamente, etc. En estas escenas se pueden medir parámetros objetivamente y además de forma conjunta (sin infravalorar la influencia existente entre unos y otros).

La FIG. 4 ilustra brevemente una posible secuencia de acciones durante el funcionamiento del sistema para una prueba. En un primer paso 50 se registra información personal relevante del usuario. Preferiblemente se introduce: sexo, edad, hábitos, etc., para ello se puede emplear la interfaz 30. El usuario mediante el terminal 44 hace una solicitud como cliente al servidor 42 y se instala la aplicación asociada al tipo de prueba seleccionada.

El usuario se coloca en frente de la unidad de visualización 20, a través de la interfaz 30 o la unidad de visualización 20 se dan instrucciones al usuario para colocarse correctamente el sensor de seguimiento 10 o para sentarse en la posición adecuada respecto de la unidad de visualización según el sensor de movimiento 60.

Seguidamente, en el paso 51 se representa una escena asociada a la prueba seleccionada con uno o varios objetos 3D cuyas propiedades cambian con el tiempo o con la interacción del usuario.

A través de la interfaz 30, en el paso 52 interactúan usuario y unidad de visualización. En general, durante la realización de la prueba, se pueden dar instrucciones tanto gráficas como vía audio al usuario. Por ejemplo, la interfaz 30 puede incorporar cualquier elemento para facilitar la interacción del usuario con objetos 3D de la escena representada en la unidad de visualización 20.

Los sensores 10, 60 detectan los valores en el paso 53 durante la reproducción de la escena. Estos datos deben enviarse con una latencia mínima al terminal 44.

El terminal 44 recibe los datos captados y los preprocesa y se los pasa al servidor 42 para obtener unos valores de parámetros clínicos de la función visual en el paso 54. Una vez finalizada la prueba o bien la sesión con sus varias pruebas, el terminal 44 envía los datos obtenidos al servidor 42 para su almacenamiento y un procesamiento adicional. En particular, compara los parámetros con rangos esperables para el perfil del usuario en el paso 55.

Cuando el servidor 42 ha procesado los datos obtenidos los relaciona con una posible disfunción en el paso 56.

Finalmente, el servidor realiza posibles recomendaciones para mejorar la disfunción en el paso 57 y los transmite al terminal 44 para mostrarlos al usuario junto con los resultados obtenidos.

Gracias a la tecnología empleada, las pruebas se realizan de forma objetiva e integral a la vez que personalizada y permiten identificar distintas disfunciones visuales. Especialmente, aquellas que limitan las capacidades de alinear los ojos sobre el objeto de interés (insuficiencia de convergencia, exceso de divergencia, insuficiencia de divergencia, exceso de convergencia, inflexibilidad de vergencias) o capacidad de enfoque (insuficiencia de acomodación, exceso de acomodación, inflexibilidad de acomodación) o limitación en la realización de saltos de mirada de un objeto a otro (movimientos sacádicos) o seguimiento de un objeto (movimientos de seguimiento) o las habilidades visuoperceptivas necesarias para identificar y gestionar la información de nuestro entorno. Todas ellas pueden ser evaluadas y entrenadas de forma personalizada (no solo en función del estado de cuando se hizo la evaluación sino en el desarrollo de cada una de las sesiones de trabajo). Por otro lado, se puede ofertar una gran variedad de visualizaciones para un mismo ejercicio, lo que permite una mejor adaptación a las demandas visuales diarias y mantener el interés y atención en la realización de los ejercicios.

Remarcar que no solo es útil la presente invención para identificar disfuncionalidades sino también para entrenar a las habilidades físicas y técnicas de usuarios sanos mediante estímulos y retos visuales. Esto es de aplicación directa en deportistas y niños, y ampliable a todas las demandas visuales específicas profesionales (conductores, pilotos, ...) como de ocio (habilidades en la manipulación de miniaturas, juegos de entretenimiento, ...).

Mencionar una de las ventajas que tiene la presente propuesta es que basta un reducido espacio para alojar los dispositivos necesarios. Por ejemplo, para una realización que use una pantalla configurada como unidad de visualización 20, todo se puede colocar sobre una mesa a una distancia con el usuario, preferiblemente sentado, de entre 50cm y 1 m, junto con un ordenador como elemento que forma parte de los medios de procesamiento 40. Los demás elementos los porta el propio usuario en cabeza y manos (mandos, guantes, ...). Incluso menos, en el caso de una realización en la que la unidad de visualización 20 se haga con unas gafas VR.