Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR THE REPRESENTATION OF GEOGRAPHICALLY LOCATED VIRTUAL ENVIRONMENTS AND MOBILE DEVICE
Document Type and Number:
WIPO Patent Application WO/2014/125134
Kind Code:
A1
Abstract:
The invention relates to the representation of a high-quality vectorial and textured graphical environment, including, as the basis of this representation, the capturing of video and the sequencing of images and graphics in a vectorial format, provided by the image-capturing means of the mobile device that implements the method. Furthermore, this is carried out by placing said vectorial graphical environments in a pre-determined geographical location and subordinating the representation thereof to the real geographical location of a mobile device (100).

Inventors:
CÉSPEDES NARBONA MARIANO ALFONSO (ES)
GONZALEZ GRAU SERGIO (ES)
Application Number:
PCT/ES2013/070090
Publication Date:
August 21, 2014
Filing Date:
February 14, 2013
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
MANIN COMPANY CONSTRUCCIONES EN ACERO INOXIDABLE S L U (ES)
International Classes:
G06T19/00; H04W4/02
Domestic Patent References:
WO2003102893A12003-12-11
WO2008085443A22008-07-17
Foreign References:
US20120293546A12012-11-22
US20120268493A12012-10-25
US20120296564A12012-11-22
Other References:
KARLEKAR ET AL.: "Positioning, Tracking and Mapping for Outdoor Augmentation'';", DPTO. ECE; IEEE INTERNATIONAL SYMPOSIUM ON MIXED AND AUGMENTED REALITY 2010, SCIENCE AND TECHNOLOGY PROCEEDINGS, 13 October 2010 (2010-10-13), SEÚL, COREA;, XP032291043, Retrieved from the Internet
ZENDJEBIL ET AL.: "Hybrid Localization System for Mobile Outdoor Augmented Reality Applications'';", IMAGE PROCESSING THEORY, TOOLS AND APPLICATIONS, 2008. IPTA 2008. FIRST WORKSHOPS ON;, 23 November 2008 (2008-11-23), XP055279013, Retrieved from the Internet
WAGNER ET AL.: "Real-Time Detection and Tracking for Augmented Reality on Mobile Phones'';", VISUALIZATION AND COMPUTER GRAPHICS, IEEE TRANSACTIONS ON, vol. 16, no. ISSUE:, May 2010 (2010-05-01), XP011344619, Retrieved from the Internet
See also references of EP 2958079A4
Attorney, Agent or Firm:
MOYA ALISES, Hipólito (ES)
Download PDF:
Claims:
0-1-06-2013

WO 2014/125134 PCT/ES2013/070090

REIVINDICACIONES

1 - Método para la representación de entornos virtuales localizados geográficamente de un dispositivo móvil (100) que comprende

un primer proceso que comprende las etapas de:

averiguar los vectores de posición en el entorno local del dispositivo móvil, tanto del dispositivo (100) como del grupo de polígonos que debe representar;

generar un diferencial entre los vectores de posición del dispositivo y del polígono, donde se establecen variables compuestas y simples a partir de la constante compuesta de referencia: longitud, altitud y altura, asignada a un grupo de polígonos;

asignar las variables de posición local, distancia al grupo objetivo, el cálculo inverso del posicionamiento global GPS, los parámetros de entorno y la numeración de capas, una vez que el dispositivo móvil (100) entra en el área de aproximación, predefinida alrededor del grupo de representación; y

un segundo proceso que comprende las etapas de:

activar el dispositivo de captura de imágenes (200) del dispositivo móvil (100);

otorgar órdenes de representación basados en capas, vinculándolas a este orden; donde el orden de representación viene dado por el cálculo diferencial establecido en el primer proceso y determina la calidad del elemento representado, su asignación de búfer de memoria, su velocidad de representación en Hz y su sincronización tanto vertical como horizontal, otorgando prioridad a la capa más cercana al dispositivo y prioridad nula a las secuencias de imágenes capturadas;

y donde una vez establecida la variable booleana de representación como verdadera se registran las variables del entorno del primer proceso, y en relación a estas variables se ajustan los efectos de post procesado del visualizador para adaptarlo al rendimiento del dispositivo móvil (100).

2.- El método de la reivindicación 1 donde se establece una variable compuesta indefinida del dispositivo móvil Vector3 (a, b, c) y la variable compuesta definida Vector3 (LonX, LatY, AltZ), predeterminada por las coordenadas geográficas del grupo poligonal que debe ser representado, transformándola en Vector3 (LonPosX, LatPosY, AItPosZ), a partir de los datos entregados por el dispositivo de localización geográfica (201 ) incluido en el dispositivo móvil (100).

22

HOJA DE REEMPLAZO (Regla 26) 0-1-06-2013

WO 2014/125134 PCT/ES2013/070090

3 - El método de cualquiera de las reivindicaciones 1 - 2 donde el diferencial del grupo de polígonos vectoriales con el dispositivo móvil se define como:

Pos (PosX, PosY, PosZ) = Vector3(LonPosX, LatPosY, AltPosZ) - Vector3(a,b,c);

que proporciona un vector de posición del desplazamiento en tiempo de ejecución y se asigna a la transformación de movimiento del dispositivo móvil con referencia al grupo de polígonos.

4 - El método de acuerdo con cualquiera de las reivindicaciones 1 - 3 donde el cálculo diferencial establece tres variables compuestas (Pos, ARP, Loe) y dos simples, donde

Posición es una variable compuesta de desplazamiento del dispositivo móvil en el entorno virtual:

Posición = Pos (PosX, PosY, PosZ);

ARP es una variable compuesta que define el radio del área de representación del entorno virtual con referencia al dispositivo móvil:

- ARP = (ART - ARF) x Ar;

donde:

ART = Vector3 (LonPosX, LatPosY, AltPosZ) - Vector3(a, b, c)

ARF = Vector3 (a, b, c); y

■ Ar es el valor definido de la distancia al grupo

Loe es una variable compuesta que define el cálculo inverso del posicionamiento global GPS real del grupo:

- Loe = ( ( ( ( ( a + ART.X ) / LonN ) x 360 ) - 180 ), ( ( ( ( b + ART. Y ) / LatN ) x 360 ) - (180 x NS ) ), ( ( c + ART.Z) / AltN) )

■ donde RP0 es la variable simple booleana que proporciona el valor verdadero o falso de representación; y

donde RPC es la variable simple booleana que proporciona el valor verdadero o falso de asignación de capas. 5 - El método de acuerdo con cualquiera de las reivindicaciones 1 - 4 donde una vez el dispositivo (100) entra en el área predefinida de aproximación, alrededor del grupo de representación, se asignan las variables de numeración de capas, donde:

- C0 = Pos (PosX, PosY, PosZ);

Esta capa está asignada al dispositivo de captura de imágenes 200; - C1 = Pos (PosX, PosY, PosZ) - ARP/4;

23

HOJA DE REEMPLAZO (Regla 26) 0-1-06-2013

WO 2014/125134 PCT/ES2013/070090

- C2 = Pos (PosX, PosY, PosZ) - ARP/2;

- C3 = Pos (PosX, PosY, PosZ) - ARP;

Esta es la capa prioritaria de representación.

6 - El método según cualquiera de las reivindicaciones 1 - 5 donde el segundo proceso comprende la etapa de activar el dispositivo de captura de imágenes 200 o datos vectoriales del mismo y asignar una variable de capa C0, estableciendo así la velocidad de muestreo en Hertzios, imágenes por segundo y resolución de captura de imágenes en pixeles por pulgada del dispositivo de captura, donde estos valores son dependientes de la variable establecida por el valor diferencial de la capa más cercana al dispositivo móvil C3 y la más lejana al mismo C0; y asignar los valores descritos anteriormente al dispositivo de captura.

7 - El método según cualquiera de las reivindicaciones 1 - 6 donde partir de:

el valor diferencial establecido

Pos (PosX, PosY, PosZ) = Vector3(LonPosX, LatPosY, AltPosZ) - Vector3(a,b,c) la variable Posición; y

el valor obtenido por la variable ARP;

se calcula el campo de visión de cámara en tiempo de ejecución real, para sincronizar la visualización del entorno real, capturado por el dispositivo de captura del dispositivo móvil, con la representación del entorno virtual, donde

Rfov = ( Posición - ARP ) / Cfov;

Siendo Cfov es la constante de ajuste del campo de visión;

y donde posteriormente se establecen los parámetros de uso, limitándolos a un máximo y un mínimo predeterminados a través de condicionantes.

Si Rfov < = RfovMax entonces Rfov = RfovMax.

Si Rfov > = RfovMin entonces Rfov = RfovMin.

8 - Dispositivo móvil (100) que comprende:

un medio de visualización de datos (126);

uno o más procesadores (106);

una memoria (102); y

uno o más programas (132 a 146) en el que el o los programas están almacenados en la memoria (102) y configurados para ejecutarse mediante el o los procesadores (106), incluyendo los programas (132 a 146) instrucciones para:

24

HOJA DE REEMPLAZO (Regla 26) 0-1-06-2013

WO 2014/125134 PCT/ES2013/070090

averiguar los vectores de posición en el entorno del dispositivo (100) así como los vectores de posición del grupo de polígonos que debe representar;

generar un diferencial entre los vectores de posición del dispositivo y del polígono, donde se establecen variables compuestas y simples a partir de la constante compuesta de referencia: longitud, altitud y altura, asignada a un grupo de polígonos;

asignar las variables de posición local, distancia al grupo objetivo, el cálculo inverso del posicionamiento global GPS, los parámetros de entorno y la numeración de capas, una vez que el dispositivo móvil (100) entra en el área de aproximación, predefinida alrededor del grupo de representación;

activar un dispositivo de captura de imágenes (200) del dispositivo móvil (100);

otorgar órdenes de representación basados en capas, vinculándolas a este orden; donde el orden de representación viene dado por el cálculo diferencial establecido en el primer proceso y determina la calidad del elemento representado, su asignación de búfer de memoria, su velocidad de representación en Hz y su sincronización tanto vertical como horizontal, otorgando prioridad a la capa más cercana al dispositivo y prioridad nula a las secuencias de imágenes capturadas;

y ajustar los efectos de post procesado del visualizador para adaptarlo al rendimiento del dispositivo móvil (100). 9 - Producto de programa informático con instrucciones configuradas para su ejecución por uno o más procesadores (106) que cuando son ejecutadas por el dispositivo (100) de la reivindicación 8 hacen que el dispositivo (100) lleve a cabo el método según cualquiera de las reivindicaciones 1 - 7.

25

HOJA DE REEMPLAZO (Regla 26)

Description:
MÉTODO PARA LA REPRESENTACIÓN DE ENTORNOS VIRTUALES LOCALIZADOS GEOGRÁFICAMENTE Y DISPOSITIVO MÓVIL

El objeto de la presente invención es la representación de un entorno gráfico vectorial y texturizado de alta calidad que incluya como fondo de esta representación la captura de video, secuencia de imágenes y gráficos en formato vectorial, proporcionados por los medios de captura de imágenes del dispositivo móvil que implementa el método. Además, esto se realiza ubicando los entornos gráficos vectoriales citados en una localización geográfica predeterminada y supeditando su representación a la localización geográfica real del dispositivo móvil.

Por tanto, la presente invención supone la combinación de los campos técnicos relacionados con la realidad virtual (RV), realidad aumentada (RA) y localización geográfica a través de dispositivos con tecnología GPS, AGPS, WIFI, ISSP, giróscopos, acelerometros o cualquier otro medio equivalente.

Estado de la técnica

Debemos entender que Realidad Virtual y Realidad aumentada han ido prácticamente de la mano desde sus inicios. En 1950 Morton Heilig escribió sobre un "Cine de Experiencia", que pudiera acompañar a todos los sentidos de una manera efectiva integrando al espectador con la actividad en la pantalla. Construyó un prototipo llamado Sensorama en 1962, junto con cinco filmes cortos que permitían aumentar la experiencia del espectador a través de sus sentidos (vista, olfato, tacto, y oído).

En 1968, Ivan Sutherland, con la ayuda de Bob Sproull, construyó lo que sería ampliamente considerado el primer visor de montado en la cabeza o Head Mounted Display (HMD) para Realidad Virtual y Realidad aumentada. Era muy primitivo en términos de Interfaz de usuario y realismo, y el HMD usado por el usuario era tan grande y pesado que debía colgarse del techo, y los gráficos que hacían al ambiente virtual eran simples "modelos de alambres". A finales de los 80 se popularizo el término Realidad Virtual por Jaron Lanier, cuya compañía creó los primeros guantes y anteojos de Realidad Virtual.

El termino realidad aumentada fue introducido por el investigador Tom Caudell en Boeing, en 1992. Caudell fue contratado para encontrar una alternativa a los tableros de configuración de cables que utilizan los trabajadores. Salió con la idea de anteojos especiales y tableros virtuales sobre tableros reales genéricos, es así que se le ocurrió que estaba "aumentando" la realidad del usuario. La realidad aumentada está en sus primeras etapas de desarrollo y se está implementando con éxito en algunos ámbitos, pero se espera que muy pronto tengamos ya productos de mercado masivo a gran escala. La idea básica de la Realidad aumentada es la de superponer gráficos, audio y otros, a un ambiente real en tiempo real. Aunque hace décadas que las cadenas de televisión vienen haciendo esto, lo hacen con una imagen estática que no se ajusta al movimiento de las cámaras.

La realidad aumentada es muy superior a lo que se viene utilizando en televisión, si bien, ediciones iniciales de realidad aumentada se muestran actualmente en eventos deportivos televisados, para mostrar información importante en pantalla, como los nombres de los pilotos de carreras, repeticiones de jugadas polémicas o principalmente, para desplegar publicidad. Estos sistemas despliegan gráficos sólo desde un punto de vista.

El punto principal dentro del desarrollo de la RA es un sistema de seguimiento de movimiento o Tracking System. Desde el principio, hasta ahora, la RA se apoya en marcadores o un vector de marcadores dentro del campo de visión de las cámaras para que la computadora tenga un punto de referencia sobre el cual superponer las imágenes. Estos marcadores son predefinidos por el usuario y pueden ser pictogramas exclusivos para cada imagen a ser superpuestas, formas simples, como marcos de cuadros o simplemente texturas dentro del campo de visión.

Los sistemas de computación son mucho más inteligentes ahora que lo relatado anteriormente, capaces de reconocer formas simples, como el suelo, sillas, mesas, formas geométricas sencillas, como por ejemplo un teléfono celular sobre la mesa, o incluso el cuerpo humano, pudiendo el sistema de seguimiento captar, por ejemplo, un puño cerrado y añadir a éste una flor o un sable láser virtual.

La tecnología móvil ha revolucionado sustancialmente el uso y las necesidades requeridas por la RA. La capacidad de los dispositivos móviles de última generación supera con mucho lo expuesto anteriormente y ofrece la posibilidad de localizar geográficamente los marcadores, permitiendo así una nueva interpretación de la RA y la RV. El uso de la realidad aumentada ha experimentado una evolución espectacular desde la llegada de los dispositivos móviles inteligentes y el acceso a estos por la mayor parte de la población mundial, debido a la reducción de sus costes de fabricación y al apoyo de las operadoras de telefonía.

Actualmente no se ha explotado todo el potencial de la realidad aumentada en estos dispositivos, ya que ésta se limita a contados juegos desarrollados para ella, la superposición de información geolocalizada simple (pequeños iconos o etiquetas) y navegadores GPS de última generación (como Pioneer Cyber Navi ®).

Estos proveedores de realidad aumentada listos para usar como son por ejemplo Vuforia® (de la compañía Qualcomm®) o DART® en el ámbito GNU/GPL, y ANDAR® o ARmedia® como proveedores de pago. Todos sin excepción utilizan las librerías de uso público para realidad aumentada de OpenCv, ARToolKit ó Atomic.

Casi la totalidad de los navegadores basados en datos de localización GPS, que además, representen elementos virtuales en un entorno real geolocalizado utilizan las fórmulas Spherical Mercaator para establecer cuadriculas de tamaño fijo y posicionar sobre estas cuadriculas (representadas en formato de imagen o vectorial) el punto localizado. Estos sistemas implican la descarga en tiempo real de datos del proveedor de cuadriculas geográficas y el uso de sus algoritmos de localización, la descarga y representación de estos elementos producen una merma considerable del rendimiento, puesto que utilizan muchos recursos de memoria y proceso en tiempo real. Existen aplicaciones de aparición reciente que utilizan las tecnologías expuestas anteriormente para la representación de elementos virtuales en un entorno real, como son:

Layar® (http://www.layar.com): enfocada a la representación de iconos y pequeños objetos vectoriales que indican la ubicación de perfiles dentro de las redes sociales o localizaciones predeterminadas como establecimientos, museos, etc. Layar utiliza el sistema de geolocalización de Google Maps® y la tecnología de realidad aumentada proporcionada por Vuforia®.

ARmedia® (http://www.armedia.it): esta suministradora de realidad aumentada, representa objetos vectoriales complejos como edificios o construcciones antiguas en localizaciones predeterminadas, pero su calidad de representación es muy pobre en comparación con la ofrecida por nuestra invención, para la geolocalización de sus elementos utiliza también la tecnología de Google Maps®.

El consumo de recursos de hardware del dispositivo móvil es muy alto en la totalidad de las tecnologías y las aplicaciones expuestas, si combinamos el uso de el dispositivo de captura de imágenes, con la activación del dispositivo GPS incluido en el dispositivo móvil y la representación de escenas virtuales de una complejidad media, el rendimiento decae exponencialmente. Una de las finalidades practicas de esta invención es procurar un entorno técnico adaptable a las características y prestaciones de cualquier dispositivo móvil incluido en el marco de referencia para la visualización de RA/RV localizada geográficamente y de alta resolución, sin experimentar una merma en el rendimiento del dispositivo móvil. En el documento US2012293546 se describe un sistema de localización geográfica basado en múltiples señales externas y un sistema de representación de realidad aumentada basado en marcadores físicos que integran señales de radio y/ó acústicas. Las diferencias con nuestro sistema son claras y definitorias por sí mismas tanto en el tipo de cálculo de localización, como en el tipo de marcadores utilizados para la representación de realidad aumentada. Nuestro sistema no utiliza los cálculos de localización por cuadriculas tipo "spherical mercator", así como tampoco utiliza marcadores físicos para la representación de realidad aumentada.

En el documento US2012268493 se representa realidad aumentada con gráficos vectoriales a partir de uno o varios marcadores físicos y propone soluciones para el ahorro de recursos de hardware del dispositivo. Las diferencias con nuestro sistema son claras y definitorias por si mismas. Nuestro sistema no utiliza marcadores físicos para la representación de realidad aumentada, asi como nuestra propuesta de mejora de rendimiento, dedicada a todos los dispositivos dentro del marco definido, no para un único dispositivo.

En la solicitud PCT WO03/102893 se describe la localización geográfica de dispositivos móviles puede ser establecida por métodos basados en redes de comunicación alternativas. La diferencia con nuestro sistema es clara, el tipo de cálculo de localización propuesto en esta patente, está basado en cálculos de localización por cuadriculas. Nuestro sistema no utiliza los cálculos de localización por cuadriculas tipo "spherical mercator". En el documento WO 2008/085443 se recurre a métodos de localización geográfica a través de emisores y receptores de radiofrecuencia buscando una mejora en la precisión de la geolocalización. La diferencia con nuestro sistema es clara, el tipo de cálculo de localización propuesto en esta patente, está basado en cálculos de localización por cuadriculas. Nuestro sistema no utiliza los cálculos de localización por cuadriculas tipo "spherical mercator".

Finalmente, en US2012/0296564 se establece un sistema de guía y localización de contenidos publicitarios basados en realidad aumentada y la representación de la misma a través de marcadores físicos como sensores de radiofrecuencia ó ópticos. Las diferencias con nuestro sistema son claras y definitorias por si mismas tanto en el tipo de cálculo de localización, como en el tipo de marcadores utilizados para la representación de realidad aumentada. Nuestro sistema no utiliza los cálculos de localización por cuadriculas tipo "spherical mercator", así como tampoco utiliza marcadores físicos para la representación de realidad aumentada.

Por tanto, es un problema técnico a resolver por la presente invención el procurar un entorno técnico adaptable a las características y prestaciones de cualquier teléfono móvil para la visualización de RA/RV localizada geográficamente y de alta resolución sin pérdida de rendimiento del dispositivo móvil.

Descripción de la invención

El objetivo de la invención radica en la representación del entorno gráfico vectorial e incluir como fondo de esta representación la captura de video, secuencia de imágenes o gráficos en formato vectorial proporcionados por el dispositivo de captura del dispositivo móvil, supeditando su representación a la localización geográfica real del dispositivo móvil. La consecución de este objetivo lleva aparejada la consecución de estos otros dos objetivos: i) La localización geográfica del dispositivo móvil sin utilizar los recursos proporcionados por terceros como:

a. Proveedores de navegación GPS.

b. Proveedores de mapas geográficos y trazados GPS.

c. Proveedores de cuadrículas de navegación GPS.

Todo ello sin la conexión a redes de datos tipos de internet para la descarga o uso directo de los citados recursos. Este sistema posibilita la interacción de forma directa con los gráficos vectoriales representados a través de la pantalla táctil o el interfaz de comunicación con el hardware (HW) proporcionado por el dispositivo móvil. Estas interacciones permiten tanto la navegación virtual del entorno gráfico vectorial, como la actuación directa sobre los elementos que lo componen.

ii) La representación de gráficos vectoriales texturizados en tiempo de ejecución real con la mayor calidad que pueda proporcionar el dispositivo móvil.

El sistema, a través del conjunto de procesos que se describen a continuación, permite gestionar la calidad de los gráficos vectoriales representados, supeditando esta calidad siempre a las capacidades y características proporcionadas por el dispositivo móvil, obteniendo así la mayor calidad posible sin perjudicar la fluidez de la representación gráfica ni de proceso del sistema. Este conjunto de procesos incluye a su vez etapas destinados a la resolución de los problemas básicos de visualización en entornos virtuales y su sincronización con un entorno real como son: a) El escalado de los gráficos vectoriales representados atendiendo al entorno real en el que se pretende representar.

b) La disminución del movimiento antinatural de los gráficos vectoriales representados, en relación a la distancia real de sincronización con su ubicación geográfica en el entorno real. Como se ha indicado en el estado de la técnica la casi totalidad de los navegadores basados en localización GPS utilizan las fórmulas Spherícal Mercaator para establecer cuadrículas de tamaño fijo y posicionar sobre estas cuadrículas, representadas en formato de imagen o vectorial, el punto localizado. Estos sistemas implican la descarga en tiempo real de datos del proveedor de cuadrículas geográficas y el uso de sus algoritmos de localización. Esta descarga y representación de estos elementos producen una merma de rendimiento del dispositivo móvil.

Cada una de las tecnologías y procesos expuestos anteriormente como las tecnologías RA proporcionadas por Vuforia® o ARmedia®, las tecnologías de localización geográfica de Google Maps® u OSM (Open Street Map) funcionan en la totalidad de los dispositivos móviles dentro del marco de referencia, pero de forma aislada. Precisamente es la conjunción de dos o más sistemas el mayor problema al que se enfrenta la capacidad de un dispositivo móvil, para el procesado correcto de datos. La descarga a través de Internet de datos para la representación, así como la misma representación de los datos suministrados implica una espera necesaria condicionada por la calidad de la recepción y representación en propio dispositivo móvil.

Al añadirse el proceso de segundo plano del elemento GPS, la espera para realizar más procesos en pantalla se ralentiza hasta la disposición de los datos proporcionados por el mismo. Con los tres procesos de fondo, procesos básicos que incluyen etapas en un árbol de funcionamiento como representación de cuadriculas en dos dimensiones proporcionadas por el proveedor de mapas, descarga de internet de las mismas y espera de los datos GPS, convierten a los dos siguientes procesos necesarios, la captura de imagen en tiempo real y la representación de gráficos vectoriales en un auténtico reto para cualquier dispositivo móvil.

Las tecnologías descritas sacrifican la calidad de la representación de gráficos vectoriales. No obstante, en la presente invención, se ha otorgado mayor importancia a esta etapa, de tal forma que se puede obtener una mayor fidelidad de los datos de posicionamiento geográfico proporcionado por los elementos de localización geográfica.

En la presente invención se ha desvinculado la tecnología de localización GPS a través del siguiente método, que comprende un primer proceso donde se averiguan los vectores de posición en el entorno local del dispositivo móvil, tanto al mismo dispositivo, como al grupo de polígonos que debe representar y genera un diferencial entre ambos. Este cálculo diferencial establece tres variables compuestas y dos simples a partir de la constante compuesta de referencia como longitud, altitud y altura asignada al grupo de polígonos. Una vez que el dispositivo móvil entra en el área de aproximación, predefinida alrededor del grupo de representación, se asignan las variables de posición local, distancia al grupo objetivo, el cálculo inverso del posicionamiento global GPS, los parámetros de entorno y la numeración de capas. Al usar los datos en bruto que proporciona el dispositivo de localización geográfica sin convertir a sistemas de cuadrículas se obtiene una mayor fidelidad de posicionamiento. El uso de estos datos permite localizar geográficamente un objeto o un grupo de objetos virtuales en un punto exacto con referencia a la posición actual. Una vez en el área de acción convenida, el sistema emplea los datos del dispositivo de localización geográfica, tal como un compás, giróscopo, ISSP o cualquier otro.

En un segundo proceso, se activa el dispositivo de captura de imágenes del dispositivo móvil y otorga órdenes de representación basados en capas, vinculándolas a este orden. El orden de representación viene dado por el cálculo diferencial establecido en el primer proceso y determina la calidad del elemento representado, su asignación de búfer de memoria, su velocidad de representación en Hz y su sincronización tanto vertical como horizontal, otorgando siempre prioridad a la capa más cercana al dispositivo y prioridad nula a las secuencias de imágenes capturadas por la cámara del dispositivo.

Finalmente, y una vez establecida la variable booleana de representación como verdadera se registran las variables del entorno del primer proceso, y en relación a estas variables se ajustarán los efectos de post procesado del visualizador para adaptarlo al rendimiento del dispositivo móvil.

A lo largo de la descripción y las reivindicaciones la palabra "comprende" y sus variantes no pretenden excluir otras características técnicas, aditivos, componentes o pasos. Para los expertos en la materia, otros objetos, ventajas y características de la invención se desprenderán en parte de la descripción y en parte de la práctica de la invención. Los siguientes ejemplos y dibujos se proporcionan a modo de ilustración, y no se pretende que restrinjan la presente invención. Además, la presente invención cubre todas las posibles combinaciones de realizaciones particulares y preferidas aquí indicadas.

Breve descripción de las figuras

A continuación se pasa a describir de manera muy breve una serie de dibujos que ayudan a comprender mejor la invención y que se relacionan expresamente con una realización de dicha invención que se presenta como un ejemplo no limitativo de ésta. FIG 1 .- Muestra un esquema del dispositivo electrónico portátil que implementa la presente invención.

Exposición de un modo detallado de realización de la invención La presente invención se implementa en un dispositivo electrónico portátil 100 que puede ser cualquiera seleccionado entre ordenadores, tabletas y teléfonos móviles, aunque una arquitectura preferida para un dispositivo móvil se muestra en la figura 1 . En general, cualquier dispositivo de comunicaciones programable puede configurarse como un dispositivo para la presente invención.

La figura 1 ilustra un dispositivo electrónico portátil, de acuerdo con algunas realizaciones de la invención. El dispositivo 100 electrónico portátil de la invención incluye una memoria 102, un controlador 104 de memoria, una o más unidades 106 de procesamiento (CPU), una interfaz 108 de periféricos, un sistema 1 12 de circuitos de RF, un sistema 1 14 de circuitos de audio, un altavoz 1 16, un micrófono 1 18, un subsistema 120 de entrada/salida (l/O), una pantalla 126 táctil, otros dispositivos 128 de entrada o de control y un puerto 148 externo. Estos componentes se comunican sobre uno o más buses de comunicación o líneas 1 10 de señales. El dispositivo 100 puede ser cualquier dispositivo electrónico portátil, incluyendo, aunque no en sentido limitativo, un ordenador portátil, una tableta, un teléfono móvil, un reproductor multimedia, un asistente digital personal (PDA), o similar, incluyendo una combinación de dos o más de estos artículos. Debe apreciarse que el dispositivo 100 es sólo un ejemplo de un dispositivo 100 electrónico portátil y que el dispositivo 100 puede tener más o menos componentes que los mostrados o una configuración diferente de componentes. Los diferentes componentes mostrados en la figura 1 pueden implementarse en hardware, software o en una combinación de ambos, incluyendo uno o más circuitos integrados de aplicación específica y/o de procesamiento de señales. Del mismo modo, se ha definido la pantalla 126 como táctil, aunque la invención puede implementarse igualmente en dispositivos con una pantalla estándar. La memoria 102 puede incluir una memoria de acceso aleatorio de alta velocidad y también puede incluir una memoria no volátil, tal como uno o más dispositivos de almacenamiento en disco magnético, dispositivos de memoria flash u otros dispositivos de memoria de estado sólido no volátil. En algunas realizaciones, la memoria 102 puede incluir además un almacenamiento situado de forma remota con respecto al uno o más procesadores 106, por ejemplo un almacenamiento conectado a una red al que se accede a través del sistema 1 12 de circuitos de RF o del puerto 148 externo y una red de comunicaciones (no mostrada) tal como Internet, intranet(s), redes de área local (LAN), redes de área local extendidas (WLAN), redes de área de almacenamiento (SAN) y demás, o cualquiera de sus combinaciones adecuadas. El acceso a la memoria 102 por otros componentes del dispositivo 100, tales como la CPU 106 y la interfaz 108 de periféricos, puede controlarse mediante el controlador 104 de memoria.

La interfaz 108 de periféricos conecta los periféricos de entrada y salida del dispositivo a la CPU 106 y a la memoria 102. Uno o más procesadores 106 ejecutan diferentes programas de software y/o conjuntos de instrucciones almacenados en la memoria 102 para realizar diferentes funciones del dispositivo 100 y para el procesamiento de datos.

En algunas realizaciones, la interfaz 108 de periféricos, la CPU 106 y el controlador 104 de memoria pueden implementarse en un único chip, tal como un chip 1 1 1 . En algunas otras realizaciones, pueden implementarse en varios chips.

El sistema 1 12 de circuitos de RF (radiofrecuencia) recibe y envía ondas electromagnéticas. El sistema 1 12 de circuitos de RF convierte las señales eléctricas en ondas electromagnéticas y viceversa y se comunica con las redes de comunicaciones y otros dispositivos de comunicaciones a través de las ondas electromagnéticas. El sistema 1 12 de circuitos de RF puede incluir un sistema de circuitos ampliamente conocido para realizar estas funciones, incluyendo aunque no en sentido limitativo, un sistema de antena, un transceptor de RF, uno o más amplificadores, un sintonizador, uno o más osciladores, un procesador de señales digitales, un conjunto de chips CODEC, una tarjeta de módulo de identidad de abonado (SIM), una memoria, etc. El sistema 1 12 de circuitos de RF puede comunicarse con redes, tales como Internet, también denominada World Wide Web (WWW), una Intranet y/o una red inalámbrica, tal como una red telefónica celular, una red de área local inalámbrica (LAN) y/o una red de área metropolitana (MAN) y con otros dispositivos mediante comunicación inalámbrica. La comunicación inalámbrica puede utilizar cualquiera de una pluralidad de normas, protocolos y tecnologías de comunicaciones, incluyendo, aunque no en sentido limitativo, el sistema global para comunicaciones móviles (GSM), el entorno GSM de datos mejorado (EDGE), el acceso múltiple por división de código de banda ancha (W-CDMA), el acceso múltiple por división de código (CDMA), el acceso múltiple por división de tiempo (TDMA), Bluetooth, acceso inalámbrico (Wi-Fi) (por ejemplo, IEEE 802.1 1 a, IEEE 802.1 1 b, IEEE 802.1 1 g y/o IEEE 802.1 1 η), protocolo de voz sobre IP (VolP), Wi-MAX, un protocolo para correo electrónico, mensajería instantánea y/o servicio de mensajes cortos (SMS) o cualquier otro protocolo de comunicación adecuado, incluyendo protocolos de comunicación aún no desarrollados en la fecha de presentación de este documento.

El sistema 1 14 de circuitos de audio, el altavoz 1 16 y el micrófono 1 18 proporcionan una interfaz de audio entre un usuario y el dispositivo 100. El sistema 1 14 de circuitos de audio recibe datos de audio de la interfaz 108 de periféricos, convierte los datos de audio en una señal eléctrica y transmite la señal eléctrica al altavoz 1 16. El altavoz convierte la seña eléctrica en ondas de sonido audibles para el ser humano. El sistema 1 14 de circuitos de audio también recibe señales eléctricas convertidas por el micrófono 1 16 a partir de ondas de sonido. El sistema 1 14 de circuitos de audio convierte la señal eléctrica en datos de audio y transmite los datos de audio a la interfaz 108 de periféricos para su procesamiento. Los datos de audio pueden recuperarse y/o transmitirse a la memoria 102 y/o al sistema 1 12 de circuitos de RF mediante la interfaz 108 de periféricos. En algunas realizaciones, el sistema 1 14 de circuitos de audio incluye también una conexión de auriculares (no mostrada). La conexión de auriculares proporciona una interfaz entre el sistema 1 14 de circuitos de audio y periféricos de entrada/salida de audio desmontables, tales como auriculares de sólo salida o un auricular tanto de salida (auriculares para uno o ambos oídos) como de entrada (micrófono).

El subsistema 120 de l/O proporciona la interfaz entre los periféricos de entrada/salida del dispositivo 100, tal como la pantalla 126 táctil y otros dispositivos 128 de entrada/control, y la interfaz 108 de periféricos. El subsistema 120 de l/O incluye un controlador 122 de pantalla táctil y uno o más controladores 124 de entrada para otros dispositivos de entrada o de control. El o los controladores 124 de entrada recibe(n)/envía(n) señales eléctricas desde/hacia otros dispositivos 128 de entrada o de control. Los otros dispositivos 128 de entrada/control pueden incluir botones físicos (por ejemplo botones pulsadores, botones basculantes, etc.), diales, conmutadores deslizantes, y/o medios de localización geográfica 201 , como GPS o equivalentes.

La pantalla 126 táctil en esta realización práctica proporciona tanto una interfaz de salida como una interfaz de entrada entre el dispositivo y un usuario. El controlador 122 de la pantalla táctil recibe/envía señales eléctricas desde/hacia la pantalla 126 táctil. La pantalla 126 táctil muestra la salida visual al usuario. La salida visual puede incluir texto, gráficos, vídeo y cualquiera de sus combinaciones. Parte o toda la salida visual puede corresponderse con objetos de interfaz de usuario, cuyos detalles adicionales se describen posteriormente. La pantalla 126 táctil también acepta entradas de usuario basándose en el contacto háptico o táctil. La pantalla 126 táctil forma una superficie sensible al contacto que acepta las entradas del usuario. La pantalla 126 táctil y el controlador 122 de la pantalla táctil (junto con cualquiera de los módulos asociados y/o conjuntos de instrucciones de la memoria 102) detecta el contacto (y cualquier movimiento o pérdida de contacto) sobre la pantalla 126 táctil y convierte el contacto detectado en interacción con los objetos de interfaz de usuario, tales como una o más teclas programables que se muestran en la pantalla táctil. En una realización a modo de ejemplo, un punto de contacto entre la pantalla 126 táctil y el usuario se corresponde con uno o más dedos del usuario. La pantalla 126 táctil puede utilizar tecnología LCD (pantalla de cristal líquido) o tecnología LPD (pantalla de polímero emisor de luz), aunque pueden utilizarse otras tecnologías de pantalla en otras realizaciones. La pantalla 126 táctil y el controlador 122 de pantalla táctil pueden detectar el contacto y cualquier movimiento o falta del mismo utilizando cualquiera de una pluralidad de tecnologías de sensibilidad de contacto, incluyendo, aunque no en sentido limitativo, tecnologías capacitivas, resistivas, de infrarrojos y de ondas acústicas de superficie, así como otras disposiciones de sensores de proximidad u otros elementos para determinar uno o más puntos de contacto con la pantalla 126 táctil.

El dispositivo 100 también incluye un sistema 130 de alimentación para alimentar los diferentes componentes. El sistema 130 de alimentación puede incluir un sistema de gestión de energía, una o más fuentes de alimentación (por ejemplo baterías, corriente alterna (CA)), un sistema recargable, un circuito de detección de fallos de alimentación, un convertidor o inversor de energía, un indicador del estado de la energía (por ejemplo, un diodo emisor de luz (LED)) y cualquier otro componente asociado con la generación, gestión y distribución de la energía en dispositivos portátiles.

En algunas realizaciones, los componentes de software incluyen un sistema 132 operativo, un módulo 134 (o conjunto de instrucciones) de comunicación, un módulo 138 (o conjunto de instrucciones) de contacto/movimiento, un módulo 140 (o conjunto de instrucciones) gráfico, un módulo 144 (o conjunto de instrucciones) del estado de la interfaz de usuario y una o más aplicaciones 146 (o conjunto de instrucciones). El sistema 132 operativo (por ejemplo, Darwin, RTXC, LINUX, UNIX, OS X, WINDOWS, o un sistema operativo embebido tal como VxWorks), incluye diferentes componentes de software y/o controladores para controlar y gestionar las tareas generales del sistema (por ejemplo, la gestión de memoria, el control de los dispositivos de almacenamiento, la gestión de la energía, etc.) y facilita la comunicación entre los diferentes componentes del hardware y del software.

El módulo 134 de comunicación facilita la comunicación con otros dispositivos a través de uno o más puertos 148 externos e incluye también diferentes componentes de software para gestionar los datos recibidos por el sistema 1 12 de circuitos de RF y/o el puerto 148 externo. El puerto 148 externo (por ejemplo, un bus serie universal (USB), FIREWIRE, etc.) está adaptado para conectarse directamente a otros dispositivos o indirectamente a través de una red (por ejemplo, Internet, LAN inalámbricas, etc.).

El módulo 138 de contacto/movimiento detecta el contacto con la pantalla 126 táctil, junto con el controlador 122 de la pantalla táctil. El módulo 138 de contacto/movimiento incluye diferentes componentes de software para realizar diferentes operaciones relacionadas con la detección del contacto con la pantalla 126 táctil, tales como determinar si se ha producido el contacto, determinar si hay movimiento del contacto y realizar un seguimiento del movimiento a través de la pantalla táctil, y determinar si se ha interrumpido el contacto (es decir, si el contacto ha cesado). La determinación del movimiento del punto de contacto puede incluir determinar la velocidad (magnitud), la velocidad (magnitud y dirección) y/o la aceleración (incluyendo magnitud y/o dirección) del punto de contacto. En algunas realizaciones, el módulo 126 de contacto/movimiento y el controlador 122 de la pantalla táctil también detectan el contacto sobre la almohadilla táctil.

El módulo 140 gráfico incluye diferentes componentes de software conocidos para mostrar y visualizar gráficos en la pantalla 126 táctil. Obsérvese que el término "gráficos" incluye cualquier objeto que pueda mostrarse a un usuario incluyendo, aunque no en sentido limitativo, texto, páginas Web, iconos (tales como objetos de interfaz de usuario que incluyan teclas programables), imágenes digitales, vídeos, animaciones y similares.

En algunas realizaciones, el módulo 140 gráfico incluye un módulo 142 de intensidad óptica. El módulo 142 de intensidad óptica controla la intensidad óptica de los objetos gráficos, tales como los objetos de interfaz de usuario, mostrados en la pantalla 126 táctil. El control de la intensidad óptica puede incluir el aumento o la disminución de la intensidad óptica de un objeto gráfico. En algunas realizaciones, el aumento o la disminución pueden seguir funciones predeterminadas.

El módulo 144 de estado de interfaz de usuario controla el estado de la interfaz de usuario del dispositivo 100. El módulo 144 de estado de interfaz de usuario puede incluir un módulo 150 de bloqueo y un módulo 152 de desbloqueo. El módulo de bloqueo detecta la satisfacción de cualquiera de una o más condiciones para efectuar la transición del dispositivo 100 a un estado bloqueado de la interfaz de usuario y para efectuar la transición del dispositivo 100 al estado bloqueado. El módulo de desbloqueo detecta la satisfacción de cualquiera de una o más condiciones para efectuar la transición del dispositivo a un estado desbloqueado de la interfaz de usuario y para efectuar la transición del dispositivo 100 al estado desbloqueado.

La aplicación o aplicaciones 130 puede(n) incluir cualquier aplicación instalada en el dispositivo 100, incluyendo, aunque no en sentido limitativo, un navegador, una agenda de direcciones, una lista de contactos, correo electrónico, mensajería instantánea, procesamiento de textos, emulaciones de teclado, objetos gráficos, aplicaciones JAVA, encriptación, gestión de derechos digitales, reconocimiento de voz, replicación de voz, capacidad de determinación de la posición (tal como la proporcionada por el sistema de posicionamiento global (GPS)), un reproductor de música (que reproduce música grabada almacenada en uno o más archivos, tales como archivos MP3 o AAC), etc. En algunas realizaciones, el dispositivo 100 puede incluir uno o más sensores ópticos opcionales (no mostrados), tales como sensores de imágenes CMOS o CCD 200, para su uso en aplicaciones para la formación de imágenes.

No obstante, la estructura de hardware indicada es una de las posibles y se ha de tener en cuenta que el dispositivo 100 puede incluir otros elementos de captura de imágenes como, cámara, escáner, trazador láser o la combinación de cualquiera de estos tipos de dispositivos, que puedan proporcionar al dispositivo móvil la representación del entorno real en formato de video, secuencia de imágenes, formato vectorial o cualquier tipo de combinación de los formatos citados. Del mismo modo, el dispositivo 100 puede incluir dispositivos de localización geográfica basados en las redes de satélites de posicionamiento GPS, dispositivos de ayuda a la localización geográfica basados en las redes de satélites GPS y localización IP de redes de internet -AGPS-, dispositivos de localización geográfica basados en la triangulación de señales de radio proporcionadas por antenas WIFI y dispositivos Bluetooth® (ISSP), la combinación de cualquiera de estos dispositivos citados o cualquier tipo de dispositivo que permita proporcionar al dispositivo móvil datos numéricos de su localización geográfica.

El dispositivo 100 puede incluir cualquier tipo de elemento capaz de representar imágenes en tiempo real con un mínimo de 24 FPS (Frames Per Second, imágenes por segundo) como, pantallas TFT, TFT-LED, TFT-OLED, TFT-Retina, la combinación de cualquiera de las anteriores, además de pantallas de nueva generación Holo-TFT, transparentes y Micro- Proyectores o cualquier dispositivo de representación gráfica que pueda proporcionar al dispositivo móvil 100 una forma de representar contenidos visuales al usuario.

El dispositivo 100 incluye un procesador o conjunto de procesadores que por sí mismos o en combinación con procesadores gráficos como GPU (Graphics Processing Unit, unidad de proceso gráfico) o APU (Accelerated Processing Unit, unidad de procesamiento acelerado) puedan proporcionar al dispositivo móvil 100 la capacidad de representar, en tiempo de ejecución real, gráficos vectoriales y conformar polígonos texturizados con estos, a través de librerías de representación vectorial (conjuntos de procedimientos estandarizados de representación gráfica para distintas plataformas) como, OpenGL, DirectX ó cualquier tipo de librerías destinadas a este cometido. El primer proceso que comprende el método objeto de la invención consiste en la localización geográfica del dispositivo móvil, con la mayor precisión y fidelidad permitida por las redes de satélites de posicionamiento GPS, sin utilizar los recursos proporcionados por terceros como, proveedores de navegación GPS, proveedores de mapas geográficos y trazados GPS, proveedores de cuadriculas de navegación GPS y sin la necesidad de conexión a redes de internet para la descarga ó uso directo de los citados recursos.

Este primer procedimiento posibilita la interacción de forma directa con los gráficos vectoriales representados, a través de la pantalla táctil 126 o el interface de comunicación con el hardware proporcionado por el dispositivo móvil 100. Interacciones que permiten tanto la navegación virtual del entorno gráfico vectorial, como la actuación directa sobre los elementos que lo componen, estableciendo a su vez las variables básicas para el funcionamiento del resto de etapas.

Etapa de localización geográfica de entornos virtuales

El dispositivo 100 está configurado para asignar unos vectores de posición en el entorno virtual del dispositivo 100, estableciendo la variable compuesta indefinida del dispositivo móvil Vector3 (a, b, c) y la variable compuesta definida Vector3 (LonX, LatY, AltZ), predeterminada por las coordenadas geográficas del grupo poligonal que debe ser representado, transformándola en Vector3 (LonPosX, LatPosY, AltPosZ), a partir de los datos entregados por el dispositivo de localización geográfica 201 incluido en el dispositivo móvil 100.

Las variables quedan definidas como:

- LonPosX = ((LonX+180)/360)x LonN;

Donde LonN es una constante establecida por el campo de visión de la cámara (FOV).

- LatPosY = ((LatY +(180xNS))/360)xLatN ;

Donde LatN es una constante establecida por el FOV de cámara; y

NS es una variable de hemisferio Norte/Sur.

- AltPosZ = AltZ x AltN;

Donde AltN es una constante establecida por el FOV de cámara.

- a = ((GPSx+180)/360) x LonN;

Donde GPSx es un valor flotante establecido por el GPS del dispositivo móvil.

- b = (( GPSy+(180xNS))/360) x LatN;

Donde GPSy es un valor flotante establecido por el GPS del dispositivo móvil; y

NS es una variable de hemisferio Norte/Sur.

- c = GPSz x N;

Donde GPSz es un valor flotante establecido por el GPS del dispositivo móvil.

Etapa de interacción con los elementos vectoriales que componen una escena virtual

Tras la etapa anterior se establece un diferencial del grupo de polígonos vectoriales con el dispositivo móvil: - Pos (PosX, PosY, PosZ) = Vector3(LonPosX, LatPosY, AltPosZ) - Vector3(a,b,c)

Este cálculo diferencial establece tres variables compuestas y dos simples, donde:

Posición es la variable compuesta de desplazamiento del dispositivo móvil en el entorno virtual.

ARP es la variable compuesta que define el radio del área de representación del entorno virtual con referencia al dispositivo móvil.

Loe es la variable compuesta que define el cálculo inverso del posicionamiento global GPS real del grupo.

En esta etapa se proporciona un vector de posición del desplazamiento en tiempo de ejecución y se asigna a la transformación de movimiento del dispositivo móvil con referencia al grupo de polígonos:

Posición = Pos (PosX, PosY, PosZ).

Se establece el área definida de aproximación y de representación:

- ART = Vector3 (LonPosX, LatPosY, AltPosZ) - Vector3(a, b, c)

- ARF = Vector3 (a, b, c)

- ARP = (ART - ARF) x Ar;

- Donde Ar es el valor definido de la distancia al grupo.

Posteriormente se obtiene el cálculo de la transformación al entorno virtual del grupo de polígonos y se aplica la operación inversa, para asegurar que su localización geográfica real con referencia a la localización geográfica real del dispositivo móvil es correcta y se establece el control de seguridad de representación.

- Loe = ( ( ( ( ( a + ART.X ) / LonN ) x 360 ) - 180 ), ( ( ( ( b + ART.Y ) / LatN ) x 360 ) - (180 x NS ) ), ( ( c + ART.Z) / AltN) )

Donde RP0 es la variable simple booleana que proporciona el valor verdadero o falso de representación; y donde

- RPC es la variable simple booleana que proporciona el valor verdadero o falso de asignación de capas.

Etapa de asignación de numeración de capas

Una vez el dispositivo 100 entra en el área predefinida de aproximación, alrededor del grupo de representación, se asignan las variables de numeración de capas, donde:

- CO = Pos (PosX, PosY, PosZ);

Esta capa está asignada al dispositivo de captura de imágenes 200.

- C1 = Pos (PosX, PosY, PosZ) - ARP/4.

- C2 = Pos (PosX, PosY, PosZ) - ARP/2.

- C3 = Pos (PosX, PosY, PosZ) - ARP; -

Esta es la capa prioritaria de representación.

El segundo proceso de la invención consiste en la representación de gráficos vectoriales texturizados en tiempo de ejecución real, con la mayor calidad posible proporcionada por el dispositivo móvil 100.

Este proceso incluye las etapas destinadas a la resolución de problemas básicos de visualización de entornos virtuales y su sincronización con un entorno real como son:

El escalado de los gráficos vectoriales representados, atendiendo al entorno real en el que se pretenden representar.

La disminución del movimiento de los gráficos vectoriales representados, en relación a la distancia real de sincronización, con su ubicación geográfica en el entorno real.

Este segundo proceso es el que permite, en distintos aspectos de la representación de los entornos virtuales, ayudar a dar coherencia visual con el entorno real en el que deben ser representados.

Etapa de representación independiente de escenas con contenidos vectoriales.

Utilizando las sentencias nativas de ejecución de cada dispositivo móvil 100, se activa el dispositivo de captura de imágenes 200 o datos vectoriales del mismo y se asigna la variable de capa "C0", estableciendo así la velocidad de muestreo en Hertzios, imágenes por segundo y resolución de captura de imágenes (en pixeles por pulgada) del dispositivo de captura.

Posteriormente se asignan los valores descritos anteriormente al dispositivo de captura, lo que permite ajustar su eficiencia, con referencia a la representación de la mayor cantidad de polígonos y texturas posibles que permita obtener el dispositivo móvil 100. Dependiendo de la aproximación al objetivo, se reducen o aumentan las imágenes por segundo que debe ofrecer el dispositivo de captura, su muestreo en Hertzios y la resolución de captura, para una optimización máxima, a través de un valor con máximos y mínimos establecidos. Estos valores, son dependientes de la variable establecida por el valor diferencial de la capa más cercana al dispositivo móvil y la más lejana al mismo.

- Cam = C3 - CO.

A través del uso de superposición de capas, se asigna una cantidad de recursos de memoria RAM y una prioridad de representación independiente a cada una de ellas, sin la necesidad de representar en tiempo real todas en un conjunto.

Se procede a su sincronización mediante el diferencial calculado en el primer procedimiento, establecido por las variables C1 , C2, C3, donde C3 correspondería a la capa con mayor prioridad de representación.

Etapa de gestión de recursos de hardware del dispositivo móvil 100.

Esta etapa permite gestionar la calidad de los gráficos vectoriales representados, supeditando esta calidad siempre a las capacidades y características proporcionadas por el dispositivo móvil 100, obteniendo así la mayor calidad disponible sin perjudicar la fluidez de la representación gráfica ni de proceso del sistema.

Los valores de capa se someten a un sumatorio de las mismas y se extrae una variable multiplicada por la constante definida del hardware del dispositivo HW = Alto (3), Medio (2) , Bajo (1 ) donde:

- Calidad = ( C0 + C1 + C2 + C3 ) x HW Esta fórmula determinará la cantidad de polígonos y el tamaño de las texturas máximos que el dispositivo debe procesar en tiempo de ejecución real a partir de condicionantes. Así, por ejemplo, si Calidad >= 100... Entonces...PC3 = 100.000 polígonos, TC3 = 512 x 512 pixels.

La cantidad de polígonos y tamaño de las texturas mostrados en escena depende de la distancia del grupo poligonal en relación al dispositivo móvil 100, restando cantidad de polígonos y tamaño de texturas al resto de capas inferiores, cuanto más próximo se encuentre el dispositivo móvil 100 del grupo de polígonos localizados geográficamente.

Por tanto cuanto más próximo se encuentre el dispositivo móvil al grupo de polígonos localizados geográficamente, mayor cantidad de polígonos y tamaño de texturas podremos asignar a la capa C3 o capa de representación prioritaria.

Etapa de resolución de problemas básicos de visualización de entornos virtuales. A partir de:

El valor diferencial establecido en la etapa de interacción con los elementos vectoriales que componen una escena virtual, y la posición:

Pos (PosX, PosY, PosZ) = Vector3(LonPosX, LatPosY, AltPosZ) - Vector3(a,b,c) La variable Posición; y

- El valor obtenido por la variable ARP;

Se calcula el FOV de cámara en tiempo de ejecución real, para sincronizar la visualización del entorno real, capturado por el dispositivo de captura del dispositivo móvil, con la representación del entorno virtual.

- Rfov = ( Posición - ARP ) / Cfov;

- Donde Cfov es la constante de ajuste del FOV.

Posteriormente se establecen los parámetros de uso, limitándolos a un máximo y un mínimo predeterminados a través de condicionantes.

Si Rfov < = RfovMax entonces Rfov = RfovMax.

- Si Rfov > = RfovMin entonces Rfov = RfovMin.

Este sistema implica una clara diferenciación, de los sistemas citados anteriormente, dentro de las tecnologías aplicadas a los dispositivos móviles, basados en las tecnologías de terceros, tecnologías que por separado ya emplean todos los recursos de hardware disponibles del dispositivo móvil, tanto para la representación de realidad aumentada o virtual como para la localización geográfica de elementos virtuales. Sin obtener la calidad de representación ni la fidelidad de localización geográfica que si obtiene nuestro sistema a partir de los procedimientos enunciados. El proceso de la invención nos permite obtener una mayor calidad de los entornos virtuales representados y ubicados con la mayor fidelidad que nos ofrecen los satélites de posicionamiento GPS, para todos los dispositivos móviles del mercado disponibles dentro del marco de referencia e independiza su funcionamiento de la necesidad de conexión a internet para su uso.