Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND SYSTEM FOR SPATIAL LOCALISATION USING LUMINOUS MARKERS FOR ANY ENVIRONMENT
Document Type and Number:
WIPO Patent Application WO/2016/102721
Kind Code:
A1
Abstract:
The invention relates to a method and system for spatial localisation of an object (10) in a three-dimensional environment (11), comprising at least one luminous marker, comprising a stereo camera (12) for capturing a first image frame in a current moment and a second image frame in a previous moment, an angle-measuring device (13) for obtaining an angle of rotation of the object (10), a signal processor (14) with access to a memory (15) that stores, inter alia, a radius of the at least one marker detected in a real-time moment and in a previous moment n-1, said signal processor being configured to calculate coordinates (x-., y) of the object (10) in a moment in time i as follows: if the angle of rotation in the real-time moment and in the previous moment are different, (Xn, Yn )=(Xn-1, Yn-1 ); if the two image frames are the same, (Xn, Yn )=(Xn-1, Yn-1 ); in another case: if the radii are the same and there are a number of markers, (Xn, Yn) are calculated by means of triangulation using both image frames; if the radii are different and there are a number of markers, (Xn, Yn ) are calculated by means of triangulation using a single image frame; if the radii are different and there is a single marker, (Xn, Yn) are calculated by means of stereo geometry; if the radii are the same and there is a single marker, (Xn, Yn) are calculated using image coordinates of the marker in the current moment and in the previous moment.

Inventors:
VILLAR BONEL EUGENIO (ES)
MARTINEZ MEDIAVILLA PATRICIA Mª (ES)
ALCALÁ GALÁN FRANCISCO JOSÉ (ES)
SÁNCHEZ ESPESO PABLO PEDRO (ES)
FERNÁNDEZ SOLORZANO VICTOR (ES)
Application Number:
ES2015/000182
Publication Date:
June 30, 2016
Filing Date:
December 16, 2015
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
UNIV CANTABRIA (ES)
International Classes:
G06T7/00
Foreign References:
US7231063B22007-06-12
US8761439B12014-06-24
EP1501051A22005-01-26
US20100045701A12010-02-25
Other References:
YOU S ET AL.: "Fusion of vision and gyro tracking for robust augmented reality registration.", PROCEEDINGS IEEE 2001 VIRTUAL REALITY. (VR), 1 January 2001 (2001-01-01), YOKOHAMA, JAPAN, pages 71 - 78, ISBN: 978-0-7695-0948-8
ABABSA F ET AL.: "A robust circular fiducial detection technique and real-time 3D camera tracking.", JOURNAL OF MULTIMEDIA, vol. 3, no. 4, 30 September 2008 (2008-09-30), pages 34 - 41, ISSN: 1796-2048
VOGT S ET AL.: "Single camera tracking of marker clusters: multiparameter cluster optimization and experimental verification.", PROCEEDINGS OF THE IEEE AND ACM INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY 2002 IEEE COMPUT., 30 November 2001 (2001-11-30), pages 127 - 136, ISBN: 0-7695-1781-1
Download PDF:
Claims:
REIVINDICACIONES

1. Método para la localización espacial de un objetivo (10) usando ai menos un marcador (20) luminoso identificable en el entorno de utilización de referencia, que en un instante de tiempo í calcula unas coordenadas (x¡( y,) del objetivo ( 10), caracterizado por que comprende:

- capturar mediante una cámara estéreo ( 12) una primera trama de imagen en un instante de tiempo actual y una segunda trama de imagen en un instante de tiempo anterior, detectando en la primera y segunda trama de imagen al menos un marcador (20);

- obtener un radio en un instante de tiempo actual y un radio en el instante de tiempo anterior del, al menos un, marcador (20) detectado en la primera trama de imagen y segunda trama de imagen;

- obtener un ángulo de giro del objetivo (10) mediante un dispositivo de medida de ángulos ( 13) en el instante de tiempo actual y en el instante de tiempo anterior;

- si el ángulo de giro en el instante de tiempo actual y el ángulo de giro en el instante de tiempo anterior son distintos, calcular las coordenadas (xn, yv,) del objetivo ( 10) en ei instante actual igualándolas a las coordenadas (xn.¾, yR.< ) del objetivo (10) en el instante anterior;

- sí la primera trama de imagen y la segunda trama de imagen son iguales, calcular las coordenadas (x.- . y-) del objetivo (10) en el instante actual Igualándolas a las coordenadas { ::· - . y,vi } del objetivo (10) en el instante anterior;

- si no, comparar ios radios en ei instante de tiempo actual y en el instante de tiempo anterior del, al menos un, marcador (20) detectado y:

- si ios radíos son iguales y hay más de un marcador (20, 20', 20") detectado, las coordenadas (x,-. y„) deí objetivo (10) en el instante actual se obtienen mediante triangulación usando ia primera trama de imagen y la segunda trama de imagen;

- si ios radios son distintos y hay más de un marcador (20, 20', 20") detectado, las coordenadas ( , . yn) deí objetivo (10) en el instante actual se obtienen mediante triangulación usando una sola trama de imagen que es la primera trama de imagen;

- si los radios son distintos y hay un único marcador (20) detectado, las coordenadas (x,.. y,-,) del objetivo ( 10) en el instante actual se obtienen mediante geometría estéreo;

si los radios son iguales y hay un único marcador (20) detectado, las coordenadas (Xn, y-) objetivo (10) en el instante actual se obtienen calculando unas coordenadas de imagen del marcador (20) en ei instante de tiempo actual en la primera trama de imagen y unas coordenadas de imagen del marcador (20) obtenidas en el instante de tiempo anterior en la segunda trama de imagen.

2. Método de localización espacial, de acuerdo con ia reivindicación 1 , caracterizado por que usa un marcador (20) luminoso que comprende una íueníe de luz (21 ) y una superficie de conírasíe (22).

3. Método de localización espacial, de acuerdo con ia reivindicación 2, caracterizado por que usa un marcador (20) luminoso que comprende una fuente de luz (21 ) que es un diodo LED.

4. Método de localización espacial , de acuerdo con la reivindicación 1 , caracterizada por que, si los radios son iguales y hay más de un marcador (20, 2Q\ 20") detectado, obtener las coordenadas (xfl! y„) del objetivo ( 10) en e! instante actual comprende:

- para cada marcador (20, 20'. 20"), obtener en ia primera trama de imagen unas coordenadas horizontales un de imagen en el instante de tiempo actual y en la segunda trama da imagen obtener unas coordenadas horizontales un-i de imagen en el instante de tiempo anterior:

~ medir un desplazam expresión:

donde p es un número de pixeles en el instante actual n y q es un número de p ixeles en el instante anterior n-1 , m es un numero totai de marcadores, d/m es una distancia real entre marcadores (20, 20', 20") y 5 es el ángulo de giro del objetivo (10) obtenido;

- calcular las coordenadas (xn, yv.) del objetivo ( 10) en el instante actual mediante ia ecuación:

Sí Us i^ ¾·;

5. Método de localización espacial, de acuerdo con la reivindicación 1 , earaeferáade por que, si los radios son iguales y hay un único marcador (20) detectado, obtener las coordenadas (A, , y-.) del objetivo ( 10) en el instante actual comprende: - para e! marcador (20) obtener en la primera trama de imagen unas coordenadas horizontales un de imagen en el instante de tiempo actual y en la segunda trama de imagen obtener unas coordenadas horizontales un-i de imagen en el instante de tiempo anterior; ■■ medir un desplazamiento D sión:

donde ia cámara (12) tiene una distancia focal focal iength y LmareadoriVi es una distancia entre ei marcador (20) y ei objetivo (10) medida en ei instante de tiempo anterior, ~ calcular las coordenadas {x«. yrt) del objetivo (10) en el instante actual mediante la ecuación:

6. Método de localización espacial, de acuerdo con la reivindicación 1 , caracterizado por que, si los radios, que son ei radio en el instante actual r(n) y ei radio en el instante anterior r{n-1 ), son distintos y hay más de un marcador {20, 20r, 20") detectado, obtener las coordenadas (xr, yn) del objetivo (10) en el instante actual comprende:

~ obtener en la primera trama de imagen unas primeras coordenadas horizontales u¡ de imagen de un primor marcador (20. 20', 20") y unas segundas coordenadas horizontales uj de imagen de un segunde marcador (20' )

- medir en el instante de tiempo actual una distancia Lmarcador* entre el objetivo ( 10) y ei primer marcador (20)

donde la cámara (12) tiene un ángulo de apertura 2φ, AxB es un numero de pixeies de imagen bidimensíona! en el instante actual, m es un número totai de marcadores, d/m es una distanda real entre ios marcadores (20, 20') y ñ es el ánguio de giro dei objetivo (10) obtenido; - obtener una distancia Lmarcadasv; medida en el instante de ttiiempo anterior entre el objetivo ( 10) y ei primer marcador (20);

- calcular las coordenadas (x.- , yn) del objetivo ( 10) en el instante actual rrt ecuación:

Si r(n-1 ) < r(n) ¾ ^ SK x - sm(S) * v ...; -t osí^Ó^ *

Si r(n-1 ) > r(n) ¾ ■:: :< v: ··· ¾|¾|íl:i * <5 £· ^ i

- v .. ; - cos(<¾

7. Método de localización espacial, de acuerdo con la reivindicación 1 , caracterizado por que, si ios radios, que son el radio en ei instante actual r{n) y el radio en el instante anterior r(n-1 ), son distintos y hay un único marcador (20) detectado, obtener las coordenadas (x„, yn) del objetivo (10) en el instante actual comprende:

obtener unas coordenadas del marcador (20) rectificadas y SJR respectivamente en una componente de imagen izquierda (41 ) y una componente de imagen derecha (42) captadas por la cámara estéreo ( 12), una disparidad binocular

- medir en eí instante de tiempo actual una distancia Lmarcador,, entre ei objetivo ( 10) y ei marcador (20) mediante la expre

donde la cámara estéreo (12) tiene una disparidad binocular igual a ui. - u , una distancia de referencia B y una distancia focal f;

■■ obtener una distancia medida en ei instante de tiempo anterior entre ei objetivo ( 10) y el marcador (20);

- calcular las coordenadas (x,-,, y(1) del objetivo (10) en el instante actual mediante la ecuación, donde 5 es el ángulo de giro dei objetivo (10) obtenido en el instante actual:

8.~ Sistema de localización espacial de un objetivo ( 10) en un entorno (1 1 ) tridimensional que comprende al menos un marcador (20) luminoso de referencia y yn procesador digital de señales (14) para calcular unas coordenadas (x¡, y,} del objetivo (10) en un instante de tiempo i, caracterizado por que comprende:

- una cámara estéreo (12) para capturar una primera trama de imagen en un instante de tiempo actual y una segunda trama de imagen en un instante de tiempo anterior;

- un dispositivo de medida de ángulos ( 1 3) para obtener un ángulo de giro del objetivo ( 10) en el instante de tiempo actual y en el instante de tiempo anterior;

- el procesador de señales (14) con acceso a una memoria {15) que almacena un radio en un instante de tiempo actual y en un radie en ei instante de tiempo anterior del, al menos un, marcador (20) detectado en la primera trama de imagen y segunda trama de imagen; ei procesador de seriales ( 14) configurado para:

- si ei ángulo de giro en el instante de tiempo actual y ei ángulo de giro en el instante de tiempo anterior son distintos, calcular las coordenadas (x, yf;) del objetivo (10) en el instante actual Igualándolas a las coordenadas (xn-i , r-i ) del objetivo (10) en el instante anterior;

- si la primera trama de imagen y ia segunda trama de imagen son iguales, calcular las coordenadas yn) del objetivo ( 1 0) en ei instante actual igualándolas a las coordenadas (xf;-i , yv : ) del objetivo ( 10) en el instante anterior;

- si no, comparar los radios en el instante de tiempo actual y en ei instante de tiempo anterior del , al menos un, marcador (20) detectado y:

- si los radios son iguales y hay más de un marcador (20, 2G\ 20") detectado, calcular las coordenadas (χ.·. yn) del objetivo ( 10) en el instante actual mediante triangulación usando la primera trama de imagen y la segunda trama de imagen;

- si ios radios son distintos y hay más de un marcador (20, 20', 20") deteclado, calcular las coordenadas { n, yn) del objetivo (10) en el instante actual mediante triangulación usando una sola trama de imagen que es ia primera trama de imagen; - si ios radios son distintos y hay un único marcador (20) detectado, calcular las coordenadas (xn, yn) del objetivo (10) en ei instante actual mediante geometría estéreo;

- si los radios son iguales y hay un Cínico marcador {20} detectado, calcular las coordenadas (χΠι yn) del objetivo (10) en ei instante actual usando unas coordenadas de imagen del marcador (20) en ei instante de tiempo actuai en la primera trama de imagen y unas coordenadas de imagen deí marcador (20) obtenidas en e! instante de tiempo anterior en !a segunda trama de imagen.

9. - Sistema de localización espacial de acuerdo con la reivindicación 8, caracteri ado par qi¡® el marcador (20) luminoso comprende una fuente de luz (21 ) que es un diodo LED

10, - Sistema de localización espacial de acuerdo con cualquiera de las reivindicaciones 8-9, caracterizado por quB el marcador (20) luminoso que incluye una superficie de contraste (22)

1 1 - Sistema de localización espacial de acuerdo con cualquiera de las reivindicaciones 8- 10, caracterizado par que el entorno ( 1 ) es interior.

12.- Sistema de localización espacial de acuerdo con cualquiera de ias reivindicaciones 8- 10, caracterizado por que ei entorno (1 1 ) es exterior.

Description:
Méto o w Sistema ds Localización espacial mediante Marc dores Lümiriosos para Cis lgguier ambiente

OBJETO DE LA iNVENDO

La presente invención pertenece a ios campos de ia electrónica y las telecomunicaciones. Concretamente, la presente invención se aplica al área industria! que recoge ías técnicas de detección de puntos de referencia para la localización y posicionamiento de un objetivo (una persona, animal o un objeto) en entornos controlados.

Más particularmente, la presente invención se refiere a un método y sistema para obtener, a partir del uso de marcadores luminosos, la posición y orientación de un objeto o sujeto, aplicable a cualquier tipo de ambiente, interior o exterior.

ANTECEDENTES DE LA INVENCIÓN

En los últimos años, está habiendo un creciente interés en aquellos sistemas o productos relacionados con la localización de objetos en tres dimensiones (3D). Los sectores que cubren esta tecnología son muy amplios, como rebotica, medicina o videoluegos, entre otros.

Concretamente, el seguimiento de objetos está estrechamente relacionado con la realidad aumentada, donde el conocimiento de la posición del individuo es fundamental. Esta tecnología mezcla elementos virtuales con imágenes reales, permitiendo al usuario ampliar su información del mundo real o Interactuar con él. La realidad virtual sin embargo, sustituye ía realidad física con datos informáticos. Los sistemas de realidad aumentada pueden utilizar como dispositivos de vísuaiizadón ('displays' en inglés) una pantalla óptica transparente (por ejemplo, Google Glass) o una pantalla de mezcla de imágenes (por ejemplo, ía de un teléfono móvil inteligente, ' smartphcne ' en inglés). Además para poder conocer la posición del Individuo con precisión, pueden basarse en el uso de cámaras, sensores ópticos, acelerómeíros, giroscopios, GPS, etc. En el caso de que se empleen sistemas de visión, es necesario realizar un preprocesado de ia región de ínteres donde se sitúa el individuo, utilizando algoritmos de imagen que permiten detectar esquinas, bordes o marcadores de referencia; para después, con estos datos obtener las coordenadas 3D reales del entorno. Estos sistemas requieren el uso de una CPU y memoria RAM con suficiente capacidad de cómputo, para poder procesar las ¡mágenes de las cámaras a tiempo rea! y con la menor latericia posible.

Cuando únicamente se pueda visualizar un marcador de referencia, se tiene que recurrir al uso de cámaras estéreo y geometría epípoiar. La caracterización de un punto en el espacio tridimensional requiere el conocimiento de sus coordenadas (y, y, z) dentro del entorno donde éste se encuentre, respecto a una posicián de referencia. La técnica más común está basada en el uso de dos o más cámaras calibradas, que proporcionan una imagen izquierda y derecha de la misma escena. Para obtener las coordenadas 3D del punto y objeto a caracterizar, se aplica correspondencias estéreo (buscar un mismo punto en ambas imágenes) y se calcula !a geometría proyectiva o epipolar (describe la relación existente entre los planos de la imagen de las cámaras y ei punto).

En ei caso de tener más de un marcador o patrón disponible, se pueden aplicar otras técnicas para localizar eí objeto en el escenario. A través de triangulación, conociendo la distancia real entre marcadores, es posible con sólo dos marcadores y una sola cámara obtener ios parámetros para conseguir ia profundidad al objetivo y posicionarlo en ei entorno. Esta práctica simplifica ei coste computacional, al no tener que analizar dos imágenes y sus correspondencias; pero requiere mayor precisión a la hora de detectar los marcadores. A pesar de eso, aígunos autores ("Optica! tracking using projective invariant marker pattern propierties", . van Liere et al., Proceedings of the IEEE Virtual Roality Conference 2003, 2003) consideran que, para poder realizar un mejor seguimiento del objeto, es necesario que el objeto tenga cuatro o más marcadores y que además se utilice visión estéreo; para conseguir un sistema más preciso pero más íento.

Uno de los problemas que se han encontrado en otros estudios (US 7,231 ,063 32, "Fudicial Detection System", L. Waimark et ai.) a la hora de utilizar marcadores, es la luminosidad que tiene el ambiente donde van a ser temadas las imágenes. Los puntos a detectar pueden perderse en la escena por falta de luz. Esto limita las aplicaciones que usan este sistema en ambientes interiores o con luminosidad controlada. Además, se hace necesario el uso de algoritmos de realce de contraste y/o ei uso de marcadores específicos guardados en una base de datos, lo que incrementa susíancíalmente el tiempo de cómputo de estos sistemas. Además de limitar considerablemente la distancia entre los marcadores impresos y e! usuario del sistema, a no ser que su tamaño sea lo suficientemente grande para que lo capte ei sensor de imagen. En algunos casos (VVO 201 3/120041 A1 , " ethod and apparatus fctr 3D spatiai lecalizaiion and tracking of objects using active óptica! íilumination and sensing") se han propuesto este tipo de fuentes de luz con íuminancia variable o luz pulsada, So que puede ocasionar fallos de sincronización. Aun así, el uso de marcadores luminosos puede plantear problemas, concretamente en ambientes donde hay fuentes de iuz con una Iuminancia mucho mayor que el propio marcador (en el peor caso, luz solar) o fuentes que emiten radiación en la misma dirección; en esas situaciones, el sensor de imagen no es capaz de diferenciar una fuente de luz de otra, por lo que obligará tal y corno ocurría anteriormente, a utilizar esta tecnología en entornos luminosos sin grandes fuentes de luz en él.

La idea de detectar y pcsicionar los marcadores sirve para caracterizar ios objetos o individuos que hay en éi. de esa forma se localizan en el espacio. En el artículo "Wide área optical tracking ín unconsfrained indoor environments" (de A. Mossei et ai. , 23rd Snternacionai Conference on Artificial ealíty and Teiexistence (iCAT), 2013) se propone incorporar marcadores luminosos infrarrojos en una cinta situada en la cabeza del usuario. Para ello, coiocan en ei escenario dos cámaras independientes, que requieren un proceso de Sincronización para realicen ei disparo simuitaneameníe, situadas a una distancia igual a la longitud de la pared de la habitación donde se va a probar. Ei algoritmo empleado, para hacer una estimación de la posición, se bese en la búsqueda de correspondencias estéreo. Uno de ios inconvenientes que presenta es que no se puede ímplementar para sistemas de realdad aumentada o simulada, porque las cámaras no muestran lo que ve ei usuario, además de estar restringido a ambientes interiores con dimensiones limitadas.

Otros estudios como "Tracking of user posiíion and orientation by stereo measurement of infrared markers and orientation sensing" (de M. Maeda, et al. , Proceeding of t e 8th. International Symposlum on Wearable Computers ÍJS C 4), 2004) plantean el uso da marcadores infrarrojos situados en la pared de una habitación, para localizar al usuario. Concretamente, proponen el uso de dos tipos de marcadores: activos y pasivos. Los marcadores activos están formados por un conjunto de tres LEDs infrarrojos y un emisor de señales, que envía datos de su posición real a un decodifícador de señales que porta el usuario, por lo que una vez que los detecta conocen su posición absoluta. Los marcadores pasivos son únicamente una fuente de luz infrarroja, a partir de ios cuales obtienen la posición relativa del usuario. Además de basarse en ia recepción de señales de los marcadores activos, calculan la distancia relativa ai marcador a partir de visión estéreo. El uso de esta técnica, aÍ igua! que ocurría en los casos explicados anteriormente, está limitado a espacios interiores.

Existen otros métodos, que no requieren ia visión directa de una o más cámaras con los marcadores de referencia, para sistemas de localización y seguimiento dei usuario, Las técnicas de radiofrecuencia consisten en medir distancias, de objetos estáticos o móviles, a partir de ia emisión de pulsos electromagnéticos que son reflejados en un receptor. Estas ondas electromagnéticas se reflejarán cuando haya cambios significativos en la densidad atómica entre el entorno y el objeto, por lo que funcionan particularmente bien en los casos de materiales conductores (metales). Son capaces de detectar objetos a mayor distancia que otros sistemas basados en luz o sonido, sin embargo son bastante sensibles a interferencias o ruido. Además es complicado medir objetos que se encuentren entre sí a diferentes distancias al emisor, debido a que la frecuencia del pulso variará (más lento cuanto más lejos y viceversa). Aun así, hay estudios experimentales corno "RADAR: an in- building RF-based user location and tracking system" (de P. Bahl et al., Proceedings of IEEE INFOCOM 2000, Tel -Aviv, 2000) que demuestran su uso para estimar ia localización del usuario con un alto nivel de precisión. Esta técnica no resulta apropiada en aplicaciones de realidad aumentada.

Otro ejemplo de soluciones existentes son los sistemas LIDAR, que calculan ia distancia a través del tiempo que tarda un pulso luminoso en reflejarse en un objeto o superficie, utilizando un dispositivo con un láser pulsado como emisor de luz y un fotodetector como receptor de ia señal reflejada. La ventaja de estos sistemas es la precisión que logran a largas distancias (utilizando láseres con longitud de onda >1000 nm) y la posibilidad de mapear grandes extensiones, mediante barridos de pulsos luminosos. Sus inconvenientes son la necesidad de efectuar el análisis y procesado de cada punto, así como ia dificultad de reconstruir automáticamente imágenes tridimensionales.

El problema técnico objetivo que se presenta es pues proporcionar un sistema para ia detección de la posición y de la orientación de un individuo u objeto en cualquier tipo de ambiente, interior o exterior, con cualesquiera que sean sus condiciones de iluminación. DESCRIPCIÓN DE LA ÉNVENCÜÓN

La presente invención sirve para solucionar los probiemas mencionados anteriormente, resolviendo ios inconvenientes que presentan las soluciones comentadas en el estado de la técnica, proporcionando un sistema que, a partir de; uso de uno o más marcadores luminosos de referencia y una única cámara estéreo, permite localizar espacialrneníe objetos o individuos en un escenario bajo cualquier condición ambiental y con distancias mayores entre eS usuaria y el marcador. El sistema se basa principalmente en el uso de marcadores luminosos para calcular posiciones relativas de! objeto/individuo, una cámara estéreo para visualizar esos marcadores en la imagen del escenario y un dispositivo electrónico de medida de ángulos, tai como puede ser un giroscopio o brújula electrónica, para proporcionar ángulos de giro del usuario objetivo (objeto, persona o animal).

La presente invención permite detectar marcadores luminosos de referencia en cualquier tipo de ambientes, independientemente de las fuentes de luz que determinan las condiciones ambientales.

Un aspecto de ia invención se refiere a un método para posicionar o localizar un objetivo mediante el uso de marcadores de referencia en cualquier entorno 3D que, a partir de una primera trama de imagen en un instante de tiempo actual y una segunda trama rie imagen en un instante de tiempo anterior capturadas mediante una cámara estéreo, imágenes en las que se detecta al menos un marcador, obtiene las coordenadas (χ Λ , y n ) del objetivo en el instante de tiempo actual n, para lo que realiza los siguientes pasos:

- obtener un ángulo de giro del objetivo en el instante de tiempo actual y en eí instante de tiempo anterior;

- si el ángulo de giro en el instante de tiempo actual y el ánguio de giro en e! instante de tiempo anterior son distintos, calcular las coordenadas (x y n ) del objetivo en ei instante actual n igualándolas a las coordenadas {x r .~ yn-i) del objetivo en el instante anterior n-1

- Si la primera trama de imagen y la segunda trama de imagen son iguales, calcular las coordenadas (x n> yr.) de! objetivo en el instante actúa! igualándolas a las coordenadas ( χ , ΐ , ν,..· ; del objetivo en el instante anterior;- si no, en otro caso, obtiene las coordenadas de imagen de, al menos un marcador detectado, y su radio, para comparar ios radios en el instante de tiempo actual n y en el Instante de tiempo anterior n-1 y: - si ios radios son ¡guales y hay una pluralidad de marcadores, las coordenadas (x n . y n ) del objetivo en ei instante actual se obtienen mediante triangulación usando la primera trama de imagen y la segunda trama de imagen;

- si ios radios son distintos y hay también más de un marcador, las coordenadas (x n , y f ,) del objetivo en ei instante actual se obtienen mediante triangulación pero usando una soia trama de imagen, la captada en el instante actual;

si ios radios son distintos y hay un único marcador detectado, las coordenadas {x r „ y n ) del objetivo en ei instante actual se obtienen mediante el algoritmo de geometría estéreo conocido en ei estado de la técnica;

- si los radios son iguales y hay un ünico marcador detectado, las coordenadas (x r , y n ) del objetivo en el instante actual se obtienen medíante un algoritmo que recuerda al de geometría estéreo pero usando las coordenadas de imagen del marcador en e! instante de tiempo actúa! y en ei instante de tiempo anterior, en vez de una imagen izquierda y derecha de mismo instante de tiempo

Otro aspecto de la invención se refiere a un sistema para localizar un objetivo, que puede ser un objeto o un individuo, a partir de al menos un marcador de referencia en un espacio o entorno 3D, que comprende ios siguientes medios;

una cámara estéreo para captar tramas de imagen en las que se detectan uno o más marcadores;

- un dispositivo medidor de ángulos para obtener el ángulo de giro del objetivo en cada instante de tiempo;

- un procesador de señales, con acceso a un dispositivo de almacenamiento (una memoria), configurado para realizar los pasos dei método anteriormente descrito para obtener a su salida las coordenadas (x < y r ) del objetivo calculadas en ei instante de tiempo actual, usando, según cada caso arriba indicado, los datos obtenidos en ei instante de tiempo anterior almacenados en la memoria.

Como marcador de reterencia se utiliza una fuente luminosa, identificable en el entorno de utilización.

En un posible campo de aplicación, ia invención que se describe puede emplearse para aplicaciones de Realidad Simulada. Para ello, se incorpora al sistema unas gafas de Realidad Virtual. Tanto la cámara estéreo corno las gafas pueden formar parte de un casco o equipo de sujeción que va colocado en la cabeza del usuario y conexionando la cámara con las gafas. El sistema puede incorporar de forma adicional un aceierómetro, que mide el desplazamiento realizado en un tiempo finito, lo que reduciría ios errores acumulativos.

La presente invención posee una serie de características diferenciadoras con respecto a las soluciones existentes comentadas en eí estado de la técnica anterior que presentan ventajas técnicas corno las que siguen:

- Con respecto a US 7,231 ,083 62. la presente invención resuelve el problema del tiempo de computo de sistemas existentes como el descrito en US 7,231 ,063 B2 < debido a que se requieren algoritmos de realce de contraste y/o de marcadores específicos guardados en una base de dafos s porque en la presente invención se utilizan marcadores luminosos que trabajan en el espectro visible o infrarrojo, como pueden ser los diodos emisores de luz (LEDs

- Con respecto a WO 2013/120041 A1 , una de ¡as diferencias de la presente invención es que utiliza fuentes luminosas fijas y viene a resolver el problema que se da en ambientes donde hay fuentes tíe luz con una íurnlnancia mucho mayor que el propio marcador. Para solucionar este problema, la presente invención usa un elemento que evita que las condiciones lumínicas de un entorno afecten de forma significativa como es el uso de un fondo tras la fuente de iuz.

BREVE DESCRIPCIÓN DE LAS FIGURAS

A continuación se pasa a describir de manera muy breve una sene de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta.

FIGURA 1 .- Muestra un diagrama de bloques esquemático del sistema de localización espacial de individuos u objetos, según una realización preferente de la invención.

FIGURA 2. » Muestra una representación simplificada de un tipo de marcador luminoso, que puede usar el sistema de la Figura 1 . FIGURA 3.- Muestra un entorno de uso de ios marcadores de ¡a Figura 2 y en el que es aplicable el sistema de la Figura 1 , según una posible realización.

FIGURAS 4Ά-4Β.- Muestran un esquema de ios marcadores y parámetros que usa el sistema para localizar en eí entorno individuos u objetos que se desplazan verticalmente y cuando soio se detecta un único marcador.

FIGURAS 5A- 5B - Muestran un esquema de los marcadores y parámetros que usa el sistema para localizar en el entorno individuos u objetos que se desplazan verticalmente y cuando se detecta más de un marcador.

FIGURA 6A.- Muestra un esquema de los marcadores y parámetros que usa el sistema para localizar en el entorno individuos u objetos que se desplazan orizontalmente y cuando sólo se detecta un único marcador.

FIGURA 8B - Muestra un esquema de ios marcadores y parámetros que usa eí sistema para localizar en el entorno individuos u objetos que se desplazan horizontalmente y cuando se detecta más de un marcador.

FIGURA 7.- Muestra un esquema del funcionamiento del método, es meramente un ejemplo de flujo de datos.

REALIZACIÓN PREFERENTE DE LA INVENCIÓN

A continuación, se proponen posibles modos de realización del sistema de obtención, a partir dei uso de uno o varios marcadores luminosos, de !a posición y orientación de un usuario, en diferentes posibles ambientes, que pueden ser en interior o exterior, dentro de un escenario controlado.

La Figura 1 muestra un diagrama esquemático de ía arquitectura de bloques del sistema para localizar en e! espacio ios objetos o individuos que constituyen un objetivo ( 10) en un entorno tridimensional ( 1 1 ) bajo cualquier condición ambientaí definida por un numero m¾1 de fuentes de luz (f , fLg, ft : ¾ fL™), disponiendo de uno o más marcadores luminosos (20) como tos mostrados en ias Figuras 2-3, 4A-4B, 5A-5B y 6A-8B E! sistema comprende una cámara estéreo {12} para detectar ¡os marcadores luminosos (20) y un dispositivo electrónico de medida de ángulos (13), por ejemplo, un giroscopio o brújula electrónica, con el que se obtienen los ángulos de giro del objetivo (10). Además, el sistema comprende un procesador digital de señales (14) que calcula las coordenadas de posición en el espacio de cada marcador luminoso (20) en ei tiempo y las almacena en una memoria o dispositivo de almacenamiento (15). E! procesador digital de señales ( 14) utiliza las coordenadas almacenadas y los parámetros de salida que obtiene de la cámara estéreo (12) y del dispositivo medidor de ángulos ( 13) para determinar a su salida (18) la posición del usuario objetivo ( 10).

En la Figura 2 se muestra un tipo de marcador de referencia (20) de los utilizados, que es un marcador luminoso y comprende dos elementos principales: una fuente de luz (21 ) y una superficie de contraste (22). La fuente de luz (21 ) preferente es un diodo LED que emite en e! rango visible: 400-700 nm. Este tipo de fuente es una fuente de luz puntual que logra alcances mayores a 50 m para potencias mayores de 1 W. Además, un diodo LED se puede considerar como un producto no peligroso debido las potencias ópticas en las que trabaja y a que en el peor de los casos el tiempo de exposición es muy bajo (tiempo de reacción de aversión^ -250 ms). Aun así, el sistema puede usar marcadores (20) luminosos con otro tipo de fuentes de luz (21 ), debido a que ei dispositivo que detecta el marcador luminoso (20), es decir, la cámara estéreo (12) que se usa como receptor de la luz. detecta tanto fuentes de luz {21 } que trabajan en el espectro visible como infrarrojo. El sensor de imagen de la cámara estéreo ( 12) tiene una curva espectral que, para la longitud de onda del LED que se usa, indica una respuesta espectral con un valor superior a 0.005 A/VV. Las bombillas de filamento son otro ejemplo de fuentes de luz (21 ), aunque son fuentes difusas con potencias ópticas emitidas inferiores a ias alcanzares con un diodo LED. Otra posible fuente de luz (21 ) puede ser un diodo láser, aunque se trata de una fuente colimada capaz de focalizar la luz sobre un punto muy pequeño y, para la mayoría de los casos, todas aquellas potencias ópticas superiores a 1 mW pueden ser peligrosas, El último tipo de fuente de luz (21 ) que puede emplearse es un diodo LED infrarrojo, aunque debido al alcance que presenta, el Inconveniente es que el usuario no es capaz de percibirlo y podría ocasionarle daños oculares. Por otra parte, la superficie de contraste (22) es de un color -por ejemplo, negra- y dimensiones que permiten distinguir entre el marcador luminoso (20) y cualquier fuente de luz externa. La pantalla o superficie de contraste (22) permite aplicar el método aquí propuesto en ambientes con poca o mucha luminosidad, y a grandes distancias . La forma de ia superficie de contraste (22) puede ser cualquiera, por ejemplo, cuadrada como en la Figura 2. Las dimensiones de la superficie de contraste (22) dependen de ías condiciones lumínicas del entorno (1 1 ), dei flujo luminoso de ia fuente de luz (21 ) y de ia distancia máxima que vaya a haber entre el objetivo (10) y los marcadores luminosos (20). La plantilla o superficie de contraste (22) se sitúa en la parte externa de ía fuente de luz (21 ), concretamente en ia posterior, quedando la fuente de luz (21 ) a ia vista del usuario. En el caso que ei ambiente o el fondo que haya detrás de la fuente de luz (21 ) sea lo suficientemente oscuro, no es necesario añadir la superficie de contraste (22). El sistema admite el uso de otro tipo de marcadores luminosos (20), como pueden ser marcadores impresos blancos con un reborde negro, aunque éstos no pueden emplearse en cualquier tipo de ambiente.

La Figura 3 muestra un posible escenario de aplicación del sistema, en el que ia distribución de ios marcadores (20). Sin embargo, Los marcadores (20) pueden situarse a diferentes distancias los unos de los otros, que ei sistema ha de conocer de antemano. La altura entre cada marcador luminoso (20) y el suelo no está prefijada, pero es recomendable que sea aquella que permite visión directa entre ia cámara estéreo (12) y las fuentes luminosas ífl. : , fLa, fL&..,. ; fLm} de los marcadores (20) luminosas. En ei caso de ambientes exteriores, los marcadores (20) se sitúan en soportes verticales para conseguir la altura necesaria. En el caso de ambientes interiores, ios marcadores luminosos (20) pueden ir también en soportes verticales o sujetos en las paredes u objetos del entorno. La relación que hay entre el número rn de marcadores (20) y la distancia entre ellos (di, c ) depende del ángulo de apertura (2φ) de la cámara estéreo ( 12), del ángulo de emisión (2Θ) de la fuente de luz (21 ), por ejemplo el LED, del marcador (20) luminoso y de ia distancia mínima (L) que tiene que haber entre el objetivo ( 10), usuario del sistema, y las fuentes luminosas (fL-¡ , ft.. 2l fL.3...... fl. f r}, í.e. , los LEDs, para que puedan visualizarse como mínimo una pareja de fuentes; según queda reflejado en ía siguiente en la ecuación m d

El escenario donde se aplica el método no presenta ninguna característica predefinida con respecto a distribución, planta, obstáculos, de forma que el sistema se adapta a el. El tipo de ambiente, como se ha explicado anteriormente, puede ser interior o exterior. La única restricción que tiene es las dimensiones máximas de este entorno, estando limitadas por ei alcance de las fuentes luminosas (fL ; , fL 2 , fL¾ fLm) elegidas. Dicho alcance, se mide en función de 3a intensidad y flujo luminoso de las fuentes de luz (fLi , fL 2l fL R „) y de ia sensibilidad del sensor de imagen de ia cámara estéreo (12).

A partir de las imágenes capturadas por ¡a cámara estéreo (12) y de las coordenadas de imagen de ios marcadores luminosos (20) calculadas en una captura anterior, como más adelante se describe, por el procesador digital de señales ( 14) del sistema, este sistema permite ioealizar en ia imagen unos puntos de referencia específicos mediante un algoritmo de detección de marcadores luminosos (20), como eS que se describe seguidamente. El método que se va a describir no es único, pueden usarse otras va iantes, devolviendo como parámetros de salida ¡as coordenadas de imagen (u.v) y el diámetro de los marcadores luminosos (20) detectados. En las coordenadas de imagen (u,v) en 2 dimensiones, la primera coordenada u denota ia coordenada según un eje horizontal y ia segunda coordenada v denota la coordenada según un eje vertical, en el piano 2D de ia imagen donde se detectan los movimientos. La detección de marcadores luminosos (20) se divide en los siguientes pasos:

Conversión de imagen a escala de grises para reducir considerablemente el tamaño de la imagen, ya que así se pasa de tener tres canales, rojo, verde y azul, a sólo uno blanco y negro. Es decir, cada pixel de la imagen reduce su valor de 3 bytes a 1 byte.

Filtrado de eliminación de ruido para eiimínar los píxeles erróneos y ruido de las imágenes captadas por las cámaras. El tipo de filtro depende de lo n ítidas que se deseen las imágenes y del tiempo de retraso que se pueda introducir en el sistema.

Localización de pixeles vecinos con fuertes contrastes, analizando ía imagen por ventanas y buscando aquellas regiones donde ios contrastes entre píxeles vecinos son mayores, Este algoritmo tiene sentido porque las fuentes de luz (21 ) tienen vaíores de pixel en ia imagen en torno a 255 y la plantilla (22) negra tiene valores en torno a Q.

Obtención de las coordenadas de los marcadores Suminosos (20), una vez localizadas las regiones que pueden corresponder a fuentes de luz (21 ), verificando que realmente lo sean. Lo primero que se comprueba es la forma de la fuentes de luz (21 ), que se aproxime a una circunferencia o elipse, y se obtienen las coordenadas imagen (u s v), de su punto central así como su radio. Además se han de contrastar dichas regiones entre sí, verificando que todas se encuentran en filas de píxeies muy similares y que tienen valores de intensidad similares, ya que se asume que ícdas son fuentes de uz (21 ) con la misma íumínancia.

- Verificación final, comparando las coordenadas de los marcadores luminosos (20} calculadas con las obtenidas es una captura anterior. Una vez obtenidas las regiones que se han comprobado corresponden a marcadores luminosos (20), se procede a una última comprobación. En este caso, cotejando ias posiciones de ios marcadores actuales con los de un instante anterior; teniendo en cuenta que ai ser momentos consecutivos, las coordenadas no cambian de forma muy significativa de un sitio a otro.

Para localizar en la Imagen de un entorno ( 1 1 ) los puntos de referencia que dan la localización del usuario objetivo ( 10), es necesario conocer la siguiente información:

a) las coordenadas de imagen (u, v) y radio de cada marcador (20) detectado por el algoritmo de obtención de marcadores anteriormente descrito a partir de la imagen capturada por la cámara estéreo ( 12);

b) el valor en grados δ , del giro del usuario objetivo, devuelto por el dispositivo de mediría de ángulos (1 3), en el momento de la captura por la cámara estéreo ( 12) de cada imagen; y c) los datos guardados en la memoria ( 5) como son: posición anterior distancia real entre marcadores, distancia focal de las cámaras, ángulo de apertura de la cámara, distancia entre cámaras {'baseline', en inglés), trama de imagen (trame', en inglés) anterior, radio anterior de los marcadores, vectores de posición anteriores de los marcadores y ángulo de giro anterior.

Considerando el caso particular de un entorno ( 1 1 ) continuo, sin obstáculos y de forma cuadrada, por ejemplo, como el escenario representado en la Figura 3, la posición del usuario objetivo ( 10) depende de los giros y el tipo de movimientos que realice - vertical: arriba o abajo, horizontal: izquierda o derecha-; o de si no realiza ningún movimiento.

Los métodos para el cálculo de la posición que se describen a continuación se resumen en la Figura 7, se smplemenfan de diferentes maneras, ilustradas en las Figuras 4A-4B, 5A-5B y 6A-6B, dependiendo de la clase de desplazamiento que se haya registrado y del número de marcadores detectados, siendo válidos para cualquier tipo de marcador, tanto luminoso como impreso. Como muestra ia Figura 7, lo primero es comprobar e! valor, en grados, devuelto por eí dispositivo de medida de ángulos (13) para determinar si existe un giro significativo, ío cual ocurre en caso de ser el ángulo obtenido en eí instante actuai δ (η) distinto al del instante anterior 5 (n-1 ); sin embargo, si δ ( η ) - δ (η~1 ) indica que el usuario objetivo ( 10) no ha girado. Si hay giro, las coordenadas de usuario son las mismas a pesar de que las imágenes capturadas por ia cámara estéreo (12) cambien. Cuando el ángulo de giro, obtenido por el dispositivo de medida de ángulos {13), es constante en el tiempo, se compara la trama imagen capturada en ei instante actual, frarne n), con la inmediatamente anterior frame (n~ 1 ) y si coinciden se interpreta como que no ha habido ningún movimiento dei usuario. En el caso de que no haya desplazamiento, el método devuelve las mismas coordenadas de usuario que en el momento anterior (x„-i, y-, ); en caso contrario, se calcula ia posición con toda ia información, a)-c), mencionada anteriormente. De este modo, se evitan operaciones redundantes e innecesarias. Cuando se detecta cambio de posición, se aplica el algoritmo de detección de marcadores. Conociendo los valores de ios radios de ios marcadores detectados en el instante actual, r(n) y los del instante anterior r(n~1 ), se puede identificar el tipo de desplazamiento de! usuario objetivo (10):

* Si esos radios son distintos, r(n~1 )≠ r n), el desplazamiento es hacia arriba o abajo. Para conocer ia posición del objetivo (10) es necesario saber ia distancia entre él y los marcadores, es decir, conocer el desplazamiento realizado verticaimente.

~ Si esos radios son Iguales, r(n-1 ) ~ r{n), desplazamiento es a derecha o izquierda. Para conocer la posición del objetivo ( 10) es necesario saber cuánto se ha movido horlzontalrnente.

Una vez identificado ei tipo de movimiento realizado por el objetivo (10), se le puede localizar en el entorno ( 1 1 ) según los siguientes métodos, que dependen dei tipo de movimiento y del número m de marcadores (20) detectados.

Las Figuras A-48 muestran el caso en que se ha determinado que existe un movimiento vertical del objetivo (10) y cuando sólo se detecta un único marcador (20) en ia imagen (40) binocular captada por la cámara estéreo (12), En este caso, no se puede usar un algoritmo de triangulación, debido a que no se puede relacionar ios píxeies con una distancia real; por ello se tiene que recurrir a la técnica de visión estéreo y se necesitan ios siguientes parámetros:

la disparidad binocular {'disparity : , en inglés} de ia visión estéreo dada por las coordenadas UL y Ü , rectificadas y sin distorsión respectivamente, dei marcador (2Q) obtenido de las dos componentes de imagen, izquierda (41 ) y derecha (42), captadas por la cámara estéreo {12);

ios valores de distancia baseline B y distancia focal foca ength f de ia cámara estéreo (12); y

e! ángulo de giro (δ) del usuario objetivo (10).

Para poder transformar las coordenadas de imagen a ¡a profundidad, se calcula la geometría proyectsva en el instante actual n según ia ecuación: baseline x focaljenght

' *· ~ mura ado r ^j dispar ¿t y

Una vez calculada la distancia L msft -. SC i C ¡-{n} que hay entre el objetivo ( 10) y el marcador (20), se puede obtener su posición dentro escenario. Como se ha desplazado verticalmenie, io ünico que aparentemente ha cambiado es su coordenada y, pero es necesario tener en cuenta ei ángulo de ano δ para obtener las coordenadas absolutas. Las coordenadas (x.-. y„) en el instante actual son igual a las coordenadas en ei instante anterior (χ : ·.-.. >¾.·¾) más la um del desplazamiento realizado '

Si r(n-1 ) r(n) ½ .... 4- sin(o } - i : " ?« & r s' s á ¡í ,, .. ,

„..¡ eos (5) " I i-: ??Sff >- íJ.: ? -...¿

Si r(n-1 ) > r n) ·- sin($) - *~ m ares dor^^ y» _ t eos (ó " ) * I ¾4 : - : >V :^ :·>,.. ,.

Las Figuras 5A-5B muestran ei caso en que se ha determinado que existe un movimiento vertical del objetivo (10) y se detectan dos o más marcadores (20, 20 ' , 20") en la imagen (50) captada por la cámara estéreo {12). En este caso, se puede aplicar triangulación, puesto que se dispone de más de un marcador, de la distancia real (d/m) entre marcadores (2C S 20', 20"), del ángulo de giro (δ), del ángulo de apertura (2<p) de la cámara (12) y deí número de píxeles (AxB) de la imagen (50). Conociendo las coordenadas horizontales u de imagen de los marcadores (20, 20 ' , 20"), se calcula, en píxeles, la distancia en pi eles q entre ellos, q = uj-ui, que en el mundo real es igual a d/m metros, siendo m el número de marcadores. Por lo tanto ios metros reales de distancia L^^a^ ) que hay entre ei objetivo ( 10) y uno de ¡os marcadores, marcador (20), en ei instante actual n es:

En las Figuras 4A-4B y 5A-5B, se representa ei ángulo Φ que se refiere a la mitad del ángulo de apertura (2cp) de la cámara ( 12),

Conocida ia distancia ai marcador y ía distancia que había en ei instante anterior n~1, se calculan los metros recorridos como ía diferencia entre ambos, A partir de ese valor y de ia posición anterior del usuario, coordenadas del objetivo ( 10) en el instante anterior {x ? ,. ? , y„.i ), se pueden calcular sus nuevas coordenadas { n , y n ) en ei instante actual:

I Si r(n~1 ) < r(n) x^ - ¾ , 4,

I Si r{n-1 ) > r(n) Xn m x ^ _

L ^a c.ííí;a¾..., '\-. ·?«<·. > i | w f . s .«f íj\ ^ ΐ

En este caso también se puede usar visión estéreo para obtener la profundidad a tos marcadores. Pero es necesario aplicar correspondencias estéreo, es decir, relacionar ios marcadores de ia imagen izquierda con sus equivalentes de la imagen derecha. Obtenidas las correspondencias, se puede aplicar geometna proyectiva, como en el caso de un único marcador para obtener ia distancia real a cada marcador.

Las Figuras 6A-6B muestran el caso en que se ha determinado que existe un movimiento horizontal del objetivo ( 10).

La Figura 6A se refiere al caso en que sólo se detecta un único marcador (20) en ia imagen (61 , 62), Se aplica un algoritmo que puede recordar al de geometría estéreo, pero en este caso no se utilizan dos imágenes del mismo instante tomadas desde dos ángulos diferentes, sino que se utilizarán dos imágenes de instantes contiguos y misma perspectiva: la imagen captada en el instante actual (61 ) y la capturada en un instante inmediatamente anterior 62). Asimismo, se cuenta con ias coordenadas horizontales del marcador en e! instante actual (u„) y las que se obtuvieron deí frarne anterior (υ,-,.ι ), así como la distancia anterior entre el marcador y el usuario (Lmarcador) y la distancia focaí (foealjength) da ia cámara (12), para ca cular el desplazamiento (D) horizontal realizado por ei usuario objetivo {10) según la siguiente expresión:

Una vez conocido el desplazamiento D, en metros, que ha realizado el usuario objetivo ( 10), se pueden obtener sus coordenadas reales, que dependen de su posición en el instante anterior n-1 y del tipo de desplazamiento, izquierda o derecha, realizado:

La Figura 6B se refiere ai caso en que se detecta más de un marcador (20, 20 ' . 20") en ia imagen. Se emplea una técnica similar a la de triangulación explicada en el case de un movimiento vertical del usuario con una pluralidad de marcadores detectados, pero en este caso se usan dos imágenes {83, 84) capturadas por el mismo sensor de imagen de forma consecutiva en el tiempo, teniendo la imagen actual (63) y la imagen captada en el instante anterior (64). Conociendo la distancia real entre marcadores y ios pixeies que hay entre ellos, p píxeies en ei instante actual n y q píxeies en ei instante anterior n-1. se puede extrapolar a la longitud que se ha desplazado ei usuario. Para ello se requiere conocer, además de la distancia entre marcadores (d/m), el ángulo de giro ( s ) y las coordenadas de imagen (u n .f ) de los marcadores (20, 20', 20") en la imagen anterior (64). Al igual que ocurría en ei caso de un único marcador, una vez conocido ei desplazamiento D se pueden obtener las coordenadas reales del usuario objetivo (10):

En este caso también se puede aplicar el caso anterior de un único marcador detectado para obtener el desplazamiento (D) realizado por el usuario objetivo (10). Fs decir, a partir de las coordenadas del mismo marcador en dos imágenes contiguas, despreciando ei reste de ios marcadores detectados, y con la distancia anterior entre el marcador y el usuario, calcular ei desplazamiento D.