Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD, COMPUTER PROGRAM, SYSTEM AND COMPUTER SYSTEM FOR ELIMINATING NOISE IN AN IMAGE SEQUENCE
Document Type and Number:
WIPO Patent Application WO/2021/229129
Kind Code:
A1
Abstract:
Provided are methods, programs and systems for eliminating noise in an image sequence produced by a method for generating images with volumetric data, using an algorithm for tracing light ray paths in participating media. Each image in the sequence comprises pixels, and the path-tracing algorithm produces path samples for each pixel. These methods comprise, for each pixel of a current image in the sequence: temporarily reprojecting the pixel according to a motion vector to obtain an average accumulated colour and a predictive model of the pixel; averaging a colour of the pixel with the average accumulated colour to obtain an updated average accumulated colour; including the updated average accumulated colour in a feature vector; and determining a final colour of the pixel by updating the predictive model according to the updated feature vector and obtaining the final colour from the updated predictive model.

Inventors:
IGLESIAS GUITIÁN JOSÉ ANTONIO (ES)
Application Number:
PCT/ES2021/070336
Publication Date:
November 18, 2021
Filing Date:
May 12, 2021
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
UNIV CORUNA (ES)
UNIV AUTÒNOMA DE BARCELONA (ES)
International Classes:
G06T5/00
Foreign References:
US20190122076A12019-04-25
KR20200039130A2020-04-16
US20200027198A12020-01-23
Attorney, Agent or Firm:
CONTRERAS PÉREZ, Yahel (ES)
Download PDF:
Claims:
REIVINDICACIONES

1. Procedimiento de eliminación de ruido en una secuencia de imágenes producida por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo, en el que cada imagen de la secuencia de imágenes comprende una pluralidad de píxeles y el algoritmo de trazado de caminos de rayos de luz produce una o más muestras de camino de rayos de luz para cada píxel, y en el que el procedimiento está caracterizado por el hecho de que comprende realizar un filtrado temporal que incluye: realizar, para cada uno de todos o parte de los píxeles de una imagen actual de la secuencia, una re-proyección temporal del píxel en función de un vector de movimiento de dicho píxel para obtener un color promedio acumulado y un modelo predictivo asociados al píxel temporalmente anteriores a la imagen actual; promediar, para cada uno de los píxeles de la imagen actual con color promedio acumulado asociado, un color del píxel en la imagen actual con el color promedio acumulado asociado al píxel para obtener un color promedio actual, y actualizar el color promedio acumulado asociado al píxel con dicho color promedio actual; actualizar, para cada uno de los píxeles de la imagen actual cuyo color ha sido promediado, un vector de características del píxel con el color promedio acumulado actualizado del píxel; determinar, para cada uno de los píxeles de la imagen actual cuyo vector de características ha sido actualizado, un color final del píxel actualizando el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel y obteniendo dicho color final a partir del modelo predictivo actualizado.

2. Procedimiento de eliminación de ruido según la reivindicación 1, en el que el algoritmo de trazado de caminos de rayos de luz es un algoritmo de trazado de caminos basado en Monte Cario.

3. Procedimiento de eliminación de ruido según la reivindicación 2, en el que el algoritmo de trazado de caminos de rayos de luz basado en Monte Cario es un algoritmo de trazado de caminos convencional o bidireccional o progresivo o cualquier combinación de los mismos. 4. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 3, en el que el modelo predictivo asociado al píxel es un modelo predictivo de orden N.

5. Procedimiento de eliminación de ruido según la reivindicación 4, en el que el modelo predictivo de orden N es un modelo predictivo lineal o de orden N = 1.

6. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 5, en el que el modelo predictivo asociado al píxel es un algoritmo de mínimos cuadrados recursivos.

7. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 6, en el que actualizar el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel incluye: obtener un color estimado del píxel a partir del modelo predictivo teniendo en cuenta el vector de características actualizado; calcular un error predictivo en función de una diferencia entre el color estimado y un color promedio de las muestras generadas por el algoritmo de trazado de caminos de rayos de luz para el píxel; actualizar el modelo predictivo en función del error predictivo calculado.

8. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 7, en el que actualizar el modelo predictivo asociado al píxel incluye actualizar el modelo predictivo dependiendo además de un peso calculado en función de una varianza de color estimada del píxel, de modo que dicho peso es inversamente proporcional a dicha varianza estimada.

9. Procedimiento de eliminación de ruido según la reivindicación 8, en el que la varianza de color estimada del píxel se calcula en función de una diferencia entre un color promedio de las muestras de camino de rayos de luz del píxel y el color promedio acumulado actualizado del píxel.

10. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 8 o 9, en el que el peso se aplica en la actualización del modelo predictivo para otorgar más influencia en la actualización a un error predictivo cuanto menor sea la varianza estimada y menos influencia cuanto mayor sea la varianza estimada.

11. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 10, en el que la re-proyección temporal del píxel produce una posición de procedencia del píxel, y un modelo predictivo se representa con unos coeficientes y una matriz de covarianzas; y en el que el modelo predictivo asociado al píxel se obtiene seleccionando modelos predictivos en torno a la posición de procedencia del píxel, realizando una interpolación de coeficientes de los modelos predictivos seleccionados, y seleccionando la matriz de covarianzas del modelo predictivo correspondiente a la posición de procedencia del píxel.

12. Procedimiento de eliminación de ruido según la reivindicación 11 , en el que la interpolación de coeficientes de los modelos predictivos seleccionados es una interpolación bilineal.

13. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 11 o 12, en el que los modelos predictivos en torno a la posición de procedencia del píxel son modelos predictivos que se encuentran en una ventana centrada en la posición de procedencia del píxel.

14. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 13, en el que el vector de movimiento del píxel es un vector de movimiento calculado en función de una o más coordenadas del mundo intersectadas por una muestra de camino de rayos de luz seleccionada de entre las muestras generadas por el algoritmo de trazado de caminos de rayos de luz para el píxel.

15. Procedimiento de eliminación de ruido según la reivindicación 14, en el que la una o más coordenadas del mundo intersectadas por la muestra de camino de rayos de luz seleccionada corresponde a una coordenada del mundo más cercana con respecto a una posición de vista de una primera intersección real según técnica de muestreo en medio participativo.

16. Procedimiento de eliminación de ruido según la reivindicación 15, en el que la coordenada del mundo más cercana se determina explorando píxeles vecinos del píxel dentro de una ventana N x M centrada en el píxel y seleccionando la coordenada más cercana de entre dichos píxeles vecinos.

17. Procedimiento de eliminación de ruido según la reivindicación 16, en el que la ventana N x M centrada en el píxel es una ventana de 3 x 3 píxeles.

18. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 15 a 17, en el que la técnica de muestreo en medio participativo es un rastreo delta.

19. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 18, en el que promediar el color del píxel incluye realizar un promedio exponencial en el tiempo del color del píxel en la imagen actual con el color promedio acumulado asociado al píxel obtenido con la re-proyección.

20. Procedimiento de eliminación de ruido según la reivindicación 19, en el que el promedio exponencial en el tiempo del color del píxel se realiza teniendo en cuenta canales de color.

21. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 19 o 20, en el que el promedio exponencial en el tiempo del color del píxel se realiza en función de un factor predefinido de actualización exponencial atribuido al color promedio acumulado del píxel obtenido con la re-proyección.

22. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 21, en el que la imagen actual incluye píxeles que caen fuera de una ventana de visualización; y en el que todos o parte de los píxeles a filtrar de la imagen actual incluye uno o más de dichos píxeles que caen fuera de la ventana de visualización.

23. Procedimiento de eliminación de ruido según una cualquiera de las reivindicaciones 1 a 22, que comprende además realizar un filtrado espacial después del filtrado temporal.

24. Procedimiento de eliminación de ruido según la reivindicación 23, en el que el filtrado espacial es un filtrado bilateral. 25. Programa informático que comprende instrucciones de programa para provocar que un sistema informático realice un procedimiento según una cualquiera de las reivindicaciones 1 a 24 de eliminación de ruido en una secuencia de imágenes.

26. Programa informático según la reivindicación 25, que está almacenado en unos medios de grabación.

27. Programa informático según la reivindicación 25, que es portado por una señal portadora.

28. Sistema informático que comprende una memoria y un procesador, en el que la memoria almacena instrucciones de programa informático ejecutables por el procesador, y en el que estas instrucciones comprenden funcionalidades para realizar un procedimiento según una cualquiera de las reivindicaciones 1 a 24 de eliminación de ruido en una secuencia de imágenes.

29. Sistema para eliminación de ruido en una secuencia de imágenes producida por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo, en el que cada imagen de la secuencia de imágenes comprende una pluralidad de píxeles y el algoritmo de trazado de caminos de rayos de luz produce una o más muestras de camino de rayos de luz para cada píxel, y en el que el sistema está caracterizado por el hecho de que comprende un módulo de filtrado temporal configurado para realizar un filtrado temporal, incluyendo dicho módulo de filtrado temporal: un módulo de re-proyección configurado para realizar, para cada uno de todos o parte de los píxeles de una imagen actual de la secuencia, una re-proyección temporal del píxel en función de un vector de movimiento de dicho píxel para obtener un color promedio acumulado y un modelo predictivo asociados al píxel temporalmente anteriores a la imagen actual; un módulo de promedio configurado para promediar, para cada uno de los píxeles de la imagen actual con color promedio acumulado asociado, un color del píxel en la imagen actual con el color promedio acumulado asociado al píxel para obtener un color promedio actual, y actualizar el color promedio acumulado asociado al píxel con dicho color promedio actual; un módulo de actualización configurado para actualizar, para cada uno de los píxeles de la imagen actual cuyo color ha sido promediado, un vector de características del píxel con el color promedio acumulado actualizado del píxel; un módulo de determinación configurado para determinar, para cada uno de los píxeles de la imagen actual cuyo vector de características ha sido actualizado, un color final del píxel actualizando el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel y obteniendo dicho color final a partir del modelo predictivo actualizado.

Description:
Procedimiento, programa informático, sistema y sistema informático para eliminación de ruido en una secuencia de imágenes

DESCRIPCIÓN

La presente descripción se refiere a un procedimiento de eliminación de ruido en una secuencia de imágenes producida por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo. Además, la descripción se refiere también a un programa informático, sistema y sistema informático adecuados para realizar dicho procedimiento.

Esta solicitud reivindica prioridad a la Solicitud de Patente Española P202030440, depositada el 13 mayo de 2020.

ESTADO DE LA TÉCNICA ANTERIOR

Se conoce la aplicación de procedimientos de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en medios participativos. Estos procedimientos corresponden a una técnica de visualización científica que simula el transporte de luz con (o a través de) la materia de los objetos utilizando modelos de iluminación basados en la física correspondiente. Esta simulación de representación a menudo se realiza con un trazado de caminos basado en algoritmos estocásticos (por ejemplo: Monte Cario) que integra múltiples muestras de caminos de rayos de luz.

Una de las limitaciones de estas técnicas del rastreo de caminos de rayos de luz para la generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos es la presencia de ruido. Este ruido puede generarse especialmente durante las interacciones con/de un usuario, y puede ocultar o interferir el efecto final de las ediciones e interacciones deseadas durante el ajuste de los parámetros de visualización, y también puede dificultar los resultados de visualización de alta calidad a la velocidad necesaria para conseguir un grado satisfactorio de interacción.

En consecuencia, hay una necesidad de nuevos procedimientos, programas informáticos y sistemas que mejoren el rendimiento de los procedimientos, programas informáticos y sistemas actuales para eliminación de ruido en imágenes producidas por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo. EXPLICACIÓN DE LA INVENCIÓN

En un aspecto, se proporciona un procedimiento de eliminación de ruido en una secuencia de imágenes producida por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo. Cada imagen de la secuencia de imágenes comprende una pluralidad de píxeles y el algoritmo de trazado de caminos de rayos de luz produce muestra(s) de camino de rayos de luz para cada píxel.

El procedimiento de eliminación de ruido comprende un filtrado temporal que incluye realizar, para cada uno de todos o parte de los píxeles de una imagen actual de la secuencia, una re-proyección temporal del píxel en función de un vector de movimiento de dicho píxel para obtener un color promedio acumulado y un modelo predictivo asociados al píxel temporalmente anteriores a la imagen actual. El filtrado temporal comprende además promediar, para cada uno de los píxeles de la imagen actual con color promedio acumulado asociado, un color del píxel en la imagen actual con el color promedio acumulado asociado al píxel para obtener un color promedio actual, y actualizar el color promedio acumulado asociado al píxel con dicho color promedio actual. El filtrado temporal también comprende actualizar, para cada uno de los píxeles de la imagen actual cuyo color ha sido promediado, un vector de características del píxel con el color promedio acumulado actualizado del píxel. El filtrado temporal también comprende adicionalmente determinar, para cada uno de los píxeles de la imagen actual cuyo vector de características ha sido actualizado, un color final del píxel actualizando el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel y obteniendo dicho color final a partir del modelo predictivo actualizado.

En el procedimiento propuesto, el color promedio acumulado (actualizado) a nivel de píxel constituye una característica muy robusta que permite mejorar sustancialmente inconvenientes asociados a los procedimientos conocidos de eliminación de ruido. Los efectos positivos del uso innovador de esta característica en la eliminación de ruido han sido descubiertos/confirmados por los inventores con la realización de numerosos experimentos. El procedimiento sugerido se define en términos de una imagen actual y el procesamiento de cada uno de todos o (gran) parte de los píxeles de la imagen. Sin embargo, el experto entenderá claramente que las etapas definidas en el contexto del procedimiento propuesto se pueden aplicar a cada una de las imágenes de la secuencia de entrada, desde la primera hasta la última imagen.

El procedimiento se basa (principalmente) en promediar un color del píxel en la imagen actual con un color promedio histórico y actualizar un modelo predictivo (también histórico) en función del color promediado resultante. Todas las imágenes de la secuencia pueden tener dichos dos parámetros históricos excepto la primera imagen, simplemente porque no existe ninguna imagen anterior a la primera. El experto debe conocer perfectamente cómo pueden inicializarse dichos datos/acumulados históricos para la primera imagen en el contexto técnico propuesto.

Dicha inicialización puede basarse en asignar ciertos valores iniciales a diferentes (estructuras de) datos que conforman el modelo (por ejemplo: coeficientes, matriz de covarianzas, etc.) y al color promedio acumulado. Por ejemplo, se puede asignar el valor cero a los coeficientes del modelo predictivo, que pueden estar asociados a diferentes canales de color de la imagen. La matriz de covarianzas se puede inicializar utilizando una matriz diagonal, en la que dicha diagonal puede tomar valores estrictamente mayores que cero (por ejemplo: 1.000). El color promedio acumulado se puede inicializar, por ejemplo, con el primer color promedio resultante obtenido a partir de las muestras calculadas por el algoritmo de trazado de caminos de rayos de luz en la primera imagen de la secuencia. En algunos ejemplos, el algoritmo de trazado de caminos de rayos de luz puede ser un algoritmo de trazado de caminos basado en Monte Cario. Más particularmente, este algoritmo de trazado de caminos de rayos de luz basado en Monte Cario puede ser un algoritmo de trazado de caminos convencional o bidireccional o progresivo o cualquier combinación de los mismos. Se podrían usar otros procesos de trazado estocásticos diferentes del de Monte Cario, por ejemplo: Quasi-MonteCarlo, Monte Cario progresivo, trazado secuencial de rayos (ray marching), caché de irradiancia (irradiance caching), enfoques de mapeo de fotones, métodos basados en puntos virtuales de iluminación (Many-light methods), aproximaciones por difusión de flujo (flux-diffusion approximations), etc. En algunas implementaciones, el modelo predictivo asociado al píxel puede ser un modelo predictivo de orden N. En particular, el modelo predictivo de orden N puede ser un modelo predictivo lineal (o de orden N = 1). Más particularmente, el modelo predictivo asociado al píxel puede ser un algoritmo de mínimos cuadrados recursivos. Se ha descubierto y comprobado experimentalmente que, en el contexto técnico definido, un modelo predictivo lineal ofrece una mejor combinación de eficacia y eficiencia en comparación con modelos no lineales. Alternativas al algoritmo de mínimos cuadrados recursivos podrían ser, por ejemplo, un filtrado guiado por varianza espacio temporal (SVGF: Spatiotemporal Variance-Guided Filtering), codificador automático recurrente (RAE: Recurrent Autoencoder) basado en aprendizaje profundo e inteligencia artificial, etc. Sin embargo, los inventores han descubierto y confirmado con diversos experimentos que, en el escenario técnico propuesto, el algoritmo SVGF es menos eficaz que el de mínimos cuadrados recursivos y el algoritmo RAE es menos eficiente. El algoritmo de mínimos cuadrados recursivos es más robusto, contiene muy bien la posible influencia de “valores atípicos simples” en el resultado final y mejora la coherencia temporal de la secuencia, con respecto a SVGF. Además, el algoritmo de mínimos cuadrados recursivos puede funcionar con una amplia diversidad de variaciones de la escena a visualizar y mejora las imágenes resultantes de distintos modos de interacción. No necesita ningún tipo de pre-procesado, en comparación con algoritmos de aprendizaje profundo e inteligencia artificial. En general, se han conseguido mejores resultados tanto con métricas de distorsión numéricas (PSNR) como con métricas perceptuales recientes (uso de Inteligencia Artificial) (L-PIPS). Los artefactos de titileo temporal se reducen mejor con el algoritmo de mínimos cuadrados recursivos, y permite encontrar una buena compensación entre error numérico y aspecto perceptual de forma bastante automática.

En ejemplos del procedimiento, actualizar el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel puede incluir obtener un color estimado del píxel a partir del modelo predictivo teniendo en cuenta el vector de características actualizado, calcular un error predictivo en función de una diferencia entre el color estimado y un color promedio de las muestras generadas por el algoritmo de trazado de caminos de rayos de luz para el píxel, y actualizar el modelo predictivo en función del error predictivo calculado. El uso de un error predictivo, especialmente el propuesto, permite introducir un rigor estadístico y que los modelos se autoajusten a sí mismos en tiempo real. Esto permite, al contrario que otras técnicas, evitar tener que introducir fases de entrenamiento del filtro o de pre-procesado de datos.

En algunas configuraciones, el modelo predictivo asociado al píxel se puede actualizar dependiendo además de un peso calculado en función de una varianza de color estimada del píxel, de modo que dicho peso es inversamente proporcional a dicha varianza estimada. Dicha varianza de color estimada del píxel se puede calcular en función de una diferencia entre un color promedio de las muestras de camino de rayos de luz del píxel y el color promedio acumulado actualizado del píxel. El peso calculado de esta manera puede estar definido por una curva gaussiana, en cuyo caso, una varianza igual a cero no produciría un peso infinito (según una relación inversamente proporcional “estricta”), sino que produciría un peso (muy) alto de acuerdo con dicha curva gaussiana.

En implementaciones del procedimiento, el peso calculado se puede aplicar en la actualización del modelo predictivo para otorgar más influencia en dicha actualización a un error predictivo cuanto menor sea la varianza estimada y menos influencia cuanto mayor sea la varianza estimada. Este peso se puede aplicar, por ejemplo, al error predictivo mencionado anteriormente calculado en función de una diferencia entre color estimado y color promedio de las muestras generadas por el algoritmo de trazado de caminos de rayos de luz para el píxel. Otorgando una mayor preponderancia al error predictivo cuanto menor sea la varianza estimada y al revés (menos preponderancia a mayor varianza) se consigue minimizar la influencia de valores atípicos y maximizar la influencia de valores más coherentes en la actualización del modelo predictivo. De este modo, el modelo predictivo actualizado puede producir resultados muy estables temporalmente. Esto se ha descubierto/confirmado experimentalmente.

En determinadas configuraciones, la re-proyección temporal del píxel puede producir una posición de procedencia del píxel y, además, cada uno de los modelos predictivos obtenidos con dicha re-proyección temporal puede representarse con unos coeficientes y una matriz de covarianzas. En este caso, el modelo predictivo asociado al píxel se puede obtener seleccionando unos modelos predictivos en torno a la posición de procedencia del píxel, realizando una interpolación de coeficientes de los modelos predictivos seleccionados, y seleccionando la matriz de covarianzas del modelo predictivo correspondiente a la posición de procedencia del píxel. Dicha interpolación puede ser, por ejemplo, una interpolación bilineal. Los modelos predictivos en torno a la posición de procedencia del píxel pueden ser modelos predictivos que se encuentran en una ventana centrada en la posición de procedencia del píxel. Esta manera de “promediar” modelos predictivos cercanos a la posición de procedencia del píxel permite obtener un modelo predictivo asociado al píxel más coherente con su entorno y, por lo tanto, generar una imagen final de mayor calidad en términos de, por ejemplo, menos ruido o ruido nulo. Este “promediado” de modelos predictivos cercanos también aporta una mayor coherencia temporal (del valor/color del píxel en la secuencia). A veces puede ser conveniente sacrificar cierta precisión en la reconstrucción espacial (en un instante determinado) para proporcionar una imagen que sea más coherente en el tiempo. Encontrar este equilibrio entre precisión y coherencia temporal se ha demostrado muy complicado en la técnica anterior, pero realizaciones de acuerdo con la presente divulgación lo consiguen de forma automática y en tiempo real.

En ciertos ejemplos, el vector de movimiento del píxel se puede calcular en función de coordenada(s) del mundo intersectadas por una muestra de camino de rayos de luz seleccionada de entre las muestras generadas por el algoritmo de trazado de caminos de rayos de luz para el píxel. La(s) coordenada(s) del mundo intersectadas por la muestra de camino de rayos de luz seleccionada puede corresponder a una coordenada del mundo más cercana con respecto a una posición de vista de una primera intersección real según técnica de muestreo en medio participativo. La coordenada del mundo más cercana se puede determinar explorando píxeles vecinos del píxel dentro de una ventana N x M (por ejemplo, 3 x 3) centrada en el píxel y seleccionando la coordenada más cercana de entre dichos píxeles vecinos. La técnica de muestreo en medio participativo puede ser, por ejemplo, un rastreo delta. Los inventores han descubierto y confirmado con múltiples experimentos que estos modos de calcular el vector de movimiento del píxel proporcionan un excelente balance en la evitación de efectos de barrido/arrastre indeseado de píxeles en la imagen (ghosting). Esto es debido a que, como efecto colateral del proceso estocástico de muestreo, una muestra de camino de rayo de luz puede atravesar todo el volumen sin producirse ninguna muestra (intersección) dentro del mismo. Utilizando todas (o gran cantidad de) las posiciones del mundo muestreadas y/o ponderándolas, en los casos en que se atraviesa completamente el volumen, el vector de movimiento podría producir desplazamientos mucho más grandes de los esperados/deseados en el espacio imagen y distorsionar el resultado (por ejemplo: barrido/arrastre de píxeles). Seleccionando la posición del mundo más cercana a la hora de calcular las coordenadas del mundo a utilizar para calcular la re-proyección temporal, se disminuye este efecto colateral no deseado.

Según algunas implementaciones del procedimiento, promediar el color del píxel puede incluir realizar un promedio exponencial en el tiempo del color del píxel en la imagen actual con el color promedio acumulado asociado al píxel obtenido con la re proyección. Dicho promedio exponencial (en el tiempo) del color del píxel se puede realizar teniendo en cuenta (simultáneamente) canales de color, por ejemplo, tres canales: rojo, verde y azul. De este modo, se pueden evitar efectos de cambio de color en la imagen final. El promedio exponencial (en el tiempo) del color del píxel se puede realizar en función de un factor predefinido de actualización exponencial atribuido al color promedio acumulado (del píxel) obtenido con la re-proyección. Múltiples experimentos han permitido descubrir que la acumulación exponencial de muestras (en el tiempo) es más eficiente que el almacenamiento discreto de varias imágenes pertenecientes a estados anteriores. Con un búfer histórico se asigna una influencia progresivamente (exponencialmente) decreciente a medida que el valor es más antiguo. Valores antiguos influyen menos en esta historia que valores más actuales. Una función exponencial cumple esta característica y permite crear este histórico y además hacerlo de forma rápida y eficiente. En configuraciones del procedimiento, la imagen actual puede incluir píxeles que caen fuera de una ventana de visualización, y todos o algunos de dichos píxeles que no se visualizan se pueden tener en cuenta en el filtrado temporal del procedimiento. Con esto, se pueden evitar artefactos en los bordes de la imagen visualizada y, por lo tanto, mejorar la calidad de la visualización de las imágenes.

En algunos ejemplos, el procedimiento puede comprender además realizar un filtrado espacial después del filtrado temporal. En concreto, este filtro espacial puede ser, por ejemplo, un filtrado bilateral. En general, este filtrado espacial puede realizarse mediante cualquier técnica conocida a tal efecto, ya que dicho filtrado no es un aspecto central de la presente invención. Se entiende que el experto en la materia conoce qué técnicas y/o algoritmos para filtrado espacial se pueden usar en el contexto técnico planteado, por lo que no se incluirán detalles de su implementación en el presente documento.

Según otro aspecto, se proporciona un programa informático. Este programa informático puede comprender instrucciones de programa para provocar que un procesador realice un procedimiento de eliminación de ruido, tal como los que se describen en esta divulgación. El programa informático puede estar almacenado en un medio de almacenamiento físico, tal como un medio de grabación, una memoria informática, o una memoria de sólo lectura, y/o puede ser portado por una onda portadora, tal como eléctrica u óptica. Dado que este programa informático está configurado para realizar cualquiera de los procedimientos anteriores, los fundamentos técnicos y ventajas o efectos técnicos positivos comentados con respecto al procedimiento son igualmente aplicables a este programa. En un aspecto adicional, se proporciona un sistema informático que comprende una memoria y un procesador, en el que la memoria almacena instrucciones de programa informático ejecutables por el procesador, y en el que estas instrucciones comprenden funcionalidades para realizar cualquiera de los procedimientos de eliminación de ruido que se describen en esta divulgación. Dado que este sistema informático está configurado para realizar cualquiera de los procedimientos anteriores, los fundamentos técnicos y ventajas o efectos técnicos positivos comentados con respecto al procedimiento son igualmente aplicables a este sistema informático.

En otro aspecto más, se proporciona un sistema para eliminar ruido en una secuencia de imágenes producida por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo. Cada imagen de la secuencia de imágenes comprende una pluralidad de píxeles y el algoritmo de trazado de caminos de rayos de luz produce una o más muestras de camino de rayos de luz para cada píxel.

El sistema comprende un módulo de filtrado temporal configurado para realizar un filtrado temporal, incluyendo dicho módulo de filtrado temporal un módulo de re proyección, un módulo de promedio, un módulo de actualización, y un módulo de determinación. El módulo de re-proyección está configurado para realizar, para cada uno de todos o parte de los píxeles de una imagen actual de la secuencia, una re-proyección temporal del píxel en función de un vector de movimiento de dicho píxel para obtener un color promedio acumulado y un modelo predictivo asociados al píxel temporalmente anteriores a la imagen actual. El módulo de promedio está configurado para promediar, para cada uno de los píxeles de la imagen actual con color promedio acumulado asociado, un color del píxel en la imagen actual con el color promedio acumulado asociado al píxel para obtener un color promedio actual, y actualizar el color promedio acumulado asociado al píxel con dicho color promedio actual.

El módulo de actualización está configurado para actualizar, para cada uno de los píxeles de la imagen actual cuyo color ha sido promediado, un vector de características del píxel con el color promedio acumulado actualizado del píxel. El módulo de determinación está configurado para determinar, para cada uno de los píxeles de la imagen actual cuyo vector de características ha sido actualizado, un color final del píxel actualizando el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel y obteniendo dicho color final a partir del modelo predictivo actualizado. Dado que este sistema está configurado para realizar cualquiera de los procedimientos anteriores, los fundamentos técnicos y ventajas o efectos técnicos positivos comentados con respecto al procedimiento son igualmente aplicables a este sistema. Otros objetos, ventajas y características de realizaciones de la invención se pondrán de manifiesto para el experto en la materia a partir de la descripción, o se pueden aprender con la práctica de la invención.

BREVE DESCRIPCIÓN DE LOS DIBUJOS A continuación, se describirán realizaciones particulares de la presente invención a título de ejemplo no limitativo, con referencia a los dibujos adjuntos, en los cuales:

La Figura 1 es un diagrama de bloques que ilustra esquemáticamente sistemas para eliminación de ruido en una secuencia de imágenes, de acuerdo con ejemplos; y La Figura 2 es un diagrama de flujo que ilustra esquemáticamente procedimientos de eliminación de ruido en una secuencia de imágenes, de acuerdo con ejemplos.

EXPOSICIÓN DETALLADA DE MODOS DE REALIZACIÓN La Figura 1 es un diagrama de bloques que ilustra esquemáticamente sistemas para eliminación de ruido en una secuencia de imágenes, de acuerdo con ejemplos. De acuerdo con la Figura, sistemas para eliminación de ruido 100 de acuerdo con esta divulgación pueden comprender un módulo de filtrado temporal 101 que, a su vez, puede comprender un módulo de re-proyección 102, un módulo de promedio 103, un módulo de actualización 104 y un módulo de determinación 105.

El módulo de filtrado temporal 101 puede estar configurado para recibir una secuencia de imágenes 107 producida por un procedimiento de generación y reconstrucción de imágenes en tiempo real a partir de datos volumétricos utilizando un algoritmo de trazado de caminos de rayos de luz en un medio participativo basado en, por ejemplo, Monte Cario.

El módulo de filtrado temporal 101 puede estar configurado además para procesar todos o algunos de los píxeles que conforman cada una de las imágenes recibidas de la secuencia de imágenes 107. Este procesamiento a nivel de píxel puede incluir realizar, en el módulo de re-proyección 102, una re-proyección temporal del píxel en función de un vector de movimiento de dicho píxel para obtener un color promedio acumulado y un modelo predictivo asociados al píxel. El módulo de filtrado temporal 101 puede estar configurado adicionalmente para realizar, en el módulo de promedio 103, un promedio de un color del píxel en la imagen actual con el color promedio acumulado asociado al píxel para obtener un color promedio actual, y actualizar el color promedio acumulado asociado al píxel con dicho color promedio actual.

El módulo de filtrado temporal 101 puede estar configurado también para realizar, en el módulo de actualización 104, una actualización de un vector de características del píxel con el color promedio acumulado actualizado del píxel, y para realizar, en el módulo de determinación 105, una determinación de un color final del píxel actualizando el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel y obteniendo dicho color final a partir del modelo predictivo actualizado.

Este filtrado temporal que se ha descrito en términos de los módulos de re-proyección 102, de promedio 103, de actualización 104 y de determinación 105 puede ser realizado para cada una de las imágenes de la secuencia de entrada 107. Después del filtrado temporal (módulo 101), un módulo de filtrado espacial 106 puede realizar un filtrado espacial adecuado. Este filtrado espacial puede ser un filtrado bilateral o cualquier otro tipo de filtrado espacial adecuado en el contexto técnico definido.

En cuanto a la re-proyección realizada en el módulo de re-proyección 102, dado que la primera imagen de la secuencia no tiene ninguna imagen anterior, no es posible re proyección alguna. Por lo tanto, en este caso se puede inicializar el color promedio acumulado (a nivel de píxel) con un primer color promedio obtenido a partir de muestras calculadas por el algoritmo de trazado de caminos de rayos de luz en dicha primera imagen. Por otro lado, el modelo predictivo de los píxeles de la primera imagen se puede inicializar asignando el valor cero a coeficientes del modelo, y se puede inicializar una matriz de covarianzas del modelo con una matriz diagonal, en la que dicha diagonal puede tomar valores estrictamente mayores que cero (por ejemplo: 1.000). El modelo predictivo puede basarse en un algoritmo de mínimos cuadrados recursivos, que puede ser de orden N y, en particular de orden N = 1 (es decir, lineal).

Así pues, para cada píxel de la primera imagen se pueden obtener el color promedio acumulado y el modelo predictivo inicializados según se ha propuesto anteriormente o según otro criterio adecuado en el contexto técnico propuesto. A partir de la segunda imagen, en cuyo caso ya se dispone de una “historia” de imágenes anteriores, la re proyección temporal del píxel puede producir una posición de procedencia del píxel que indica de dónde proviene el píxel en una o más imágenes anteriores. El modelo predictivo asociado a cada píxel se puede obtener, por ejemplo, seleccionando modelos predictivos en torno a dicha posición de procedencia del píxel, realizando una interpolación (por ejemplo, bilineal) de coeficientes de los modelos predictivos seleccionados, y seleccionando la matriz de covarianzas del modelo predictivo correspondiente a la posición de procedencia del píxel. Los modelos predictivos en torno a la posición de procedencia del píxel pueden ser modelos predictivos que se encuentran en una ventana centrada en la posición de procedencia del píxel. En relación todavía al módulo de re-proyección 102, el vector de movimiento del píxel se puede calcular en función de coordenada(s) del mundo intersectada(s) por una de las muestra de camino de rayos de luz generadas por el algoritmo de trazado de caminos para el píxel (por ejemplo, Monte Cario). La(s) coordenada(s) del mundo intersectadas por dicha muestra de camino de rayos de luz puede corresponder a una coordenada más cercana con respecto a una posición de vista de una primera intersección real según técnica de muestreo en medio participativo (por ejemplo, rastreo delta). Esta coordenada del mundo más cercana se puede determinar explorando píxeles vecinos del píxel dentro de una ventana N x M (por ejemplo, 3 x 3) centrada en el píxel y seleccionando la coordenada más cercana de entre dichos píxeles vecinos.

En el módulo de re-proyección 102 (y subsiguientes 103 - 106) se pueden tener en cuenta también píxeles que caen fuera de una ventana de visualización, con lo que se pueden evitar artefactos en los bordes de la imagen visualizada (o a visualizar) y, de este modo, mejorar la calidad de visualización.

Con respecto al módulo de promedio 103, el promediado del color del píxel se puede realizar promediando exponencialmente el color del píxel en la imagen actual con el color promedio acumulado asociado al píxel obtenido con la re-proyección. Este promedio exponencial del color del píxel se puede realizar teniendo en cuenta canales de color (por ejemplo: rojo, verde y azul), y/o en función de un factor predefinido de actualización exponencial atribuido al color promedio acumulado del píxel que se ha obtenido con la re-proyección.

En implementaciones del módulo de promedio 103, el promediado del color del píxel se puede realizar de acuerdo con la siguiente fórmula:

Zj(t ) = az q (t - i) + (i - a)[í¡ ed (t),íf reen (t),íf lue (t)]en la cual: Z j (t ) es el color promedio acumulado actualizado para el píxel j en el instante t, q es la posición del píxel re-proyectada (o posición de procedencia del píxel), [íj ed (t),í reen (t),íf Lue (t)] es un vector de tamaño tres que contiene los canales rojo, verde y azul del color del píxel en la imagen actual (instante t), y a es un factor predefinido de actualización exponencial que otorga un peso a la historia del píxel z q (t - i) con respecto a la estimación actual [íj ed (t),í reen (t),íf i u e (t)]. En algunos ejemplos, el factor predefinido a puede ser igual a 0,75 aproximadamente, ya que múltiples experimentos han desvelado un buen comportamiento del filtrado temporal con dicho valor.

En lo que respecta al módulo de determinación 105, el modelo predictivo asociado al píxel se puede actualizar en función de un error predictivo calculado. Este error predictivo se puede calcular obteniendo un color estimado del píxel a partir del modelo predictivo (sin actualizar) en función del vector de características actualizado, y calculando el error predictivo en función de una diferencia entre el color estimado y un color promedio de las muestras generadas por el algoritmo de trazado de caminos para el píxel. La actualización del modelo predictivo se puede realizar dependiendo además de un peso calculado en función de una varianza de color estimada del píxel, de modo que dicho peso es inversamente proporcional a dicha varianza estimada. Esta varianza de color estimada se puede calcular en función de una diferencia entre un color promedio de las muestras de camino de rayos de luz del píxel y el color promedio acumulado actualizado del píxel. Por consiguiente, el peso propuesto puede otorgar (en la actualización del modelo) más influencia al error predictivo calculado cuanto menor sea la varianza estimada y menos influencia cuanto mayor sea la varianza estimada. En ejemplos del módulo de determinación 105, el peso calculado inversamente proporcional a la varianza estimada se puede calcular de acuerdo con la siguiente formula: en la cual: w ; (t) es el peso inversamente proporcional a la varianza estimada, d j (t) es la varianza estimada que se puede calcular según se indica a continuación, y h es un ancho de banda de filtrado que controla una compensación entre sesgo (bias) y varianza en la eliminación de ruido. Por ejemplo, valores menores de h proporcionarían un sesgo más estable temporalmente pero mayor. Diversas pruebas experimentales determinaron que h = 0,75 produce un buen equilibrio entre estabilidad temporal y sesgo.

La varianza d¡{t) se puede estimar de acuerdo con la siguiente fórmula: en la cual: e es un número pequeño para evitar divisiones por cero, f j (t) es un color promedio de las muestras de camino de rayos de luz del píxel, y z¡(t ) es el color promedio acumulado actualizado del píxel.

Todavía en relación al módulo de determinación 105, entre la obtención del color estimado del píxel y el cálculo del error predictivo se puede aplicar una técnica de filtrado en el espacio de color definido por su vecindad (neighborhood clamping) para el color estimado del píxel y, de este modo, poder detectar eventos de oclusión y desoclusión de datos (vóxeles) así como nuevos colores que no tengan un histórico (color promedio acumulado) válido en el instante actual (imagen actual). En algunos ejemplos, se puede resetear (o inicializar) de nuevo el modelo para representar un nuevo color estimado que haya sido filtrado con dichas técnicas de filtrado en el espacio de color definido por su vecindad (neighborhood clamping). Cada vez que se detecte un evento de este tipo (predicción de que cae fuera según el filtrado en el espacio de color definido por la vecindad) para un píxel de una imagen de la secuencia, se puede utilizar como color estimado del píxel el color promedio actualizado, y si no hay variaciones en la interacción de usuario, el color estimado por el algoritmo de trazado de caminos de rayos de luz para garantizar la convergencia (unbiased). Se puede utilizar una ventana 7x7 para el filtrado del píxel en el espacio de color definido por su vecindad (neighborhood clamping).

Según se usa en este documento, puede entenderse que el término "módulo" se refiere a software, firmware, hardware y/o varias combinaciones de los mismos. Cabe señalar que los módulos son solo de ejemplo. Los módulos pueden combinarse, integrarse, separarse y/o duplicarse para dar soporte a diversas aplicaciones. Además, una función descrita en este documento como realizada en un módulo particular puede realizarse en uno o más otros módulos y/o en uno o más dispositivos en lugar de o además de la función realizada en el módulo particular descrito.

Además, los módulos pueden implementarse en múltiples dispositivos, asociados o vinculados a correspondientes sistemas (informáticos) para eliminación de ruido en una secuencia de imágenes, y/o a otros componentes que pueden ser locales o remotos entre sí. Además, los módulos pueden moverse de un dispositivo y agregarse a otro dispositivo, y/o pueden incluirse en ambos dispositivos, asociados a los correspondientes sistemas (informáticos) para eliminación de ruido en una secuencia de imágenes. Cualquier implementación de software puede incorporarse de manera tangible en uno o más medios de almacenamiento como, por ejemplo, un dispositivo de memoria, un disquete, un disco compacto (CD), un disco digital versátil (DVD) u otros dispositivos que pueden almacenar código informático. Los sistemas (informáticos) para eliminación de ruido en una secuencia de imágenes de acuerdo con la presente divulgación pueden ser implementados por medios informáticos, medios electrónicos o una combinación de los mismos. Los medios informáticos pueden ser un conjunto de instrucciones (por ejemplo, un programa informático) y luego los sistemas (informáticos) para eliminación de ruido en una secuencia de imágenes pueden comprender una memoria y un procesador, que incorporen dicho conjunto de instrucciones almacenadas en la memoria y ejecutables por el procesador. Las instrucciones pueden comprender una funcionalidad o funcionalidades para ejecutar los correspondientes procedimientos para eliminación de ruido en una secuencia de imágenes como, por ejemplo, los que se describen en otras partes de esta divulgación.

En caso de que los sistemas (informáticos) para eliminación de ruido en una secuencia de imágenes sean implementados solo por medios electrónicos, un controlador del sistema puede ser, por ejemplo, un CPLD (Dispositivo lógico programable complejo), una FPGA (matriz de puerta programable de campo) o un ASIC (circuito integrado de aplicación específica).

En caso de que los sistemas (informáticos) para eliminación de ruido en una secuencia de imágenes sean una combinación de medios electrónicos e informáticos, los medios informáticos pueden ser un conjunto de instrucciones (por ejemplo, un programa informático) y los medios electrónicos pueden ser cualquier circuito electrónico capaz de implementar las correspondientes etapas de procedimiento de los procedimientos propuestos de eliminación de ruido en una secuencia de imágenes, como por ejemplo los que se describen en otras partes de esta divulgación. Los programas informáticos pueden estar incorporados en un medio de almacenamiento (por ejemplo, un CD-ROM, un DVD, una unidad USB, una memoria informática o una memoria de solo lectura) o ser transportados en una señal portadora (por ejemplo, en una señal portadora eléctrica u óptica).

Los programas informáticos pueden estar en forma de código fuente, código objeto, un código intermedio entre fuente y objeto tal como en forma parcialmente compilada, o en cualquier otra forma adecuada para su uso en la implementación de los procedimientos para eliminación de ruido en una secuencia de imágenes, de acuerdo con la presente divulgación. El portador puede ser cualquier entidad o dispositivo capaz de portar o transportar los programas informáticos.

Por ejemplo, el portador puede comprender un medio de almacenamiento, como una ROM, por ejemplo un CD ROM o una ROM de semiconductores, o un medio de grabación magnética, por ejemplo un disco duro. Además, el portador puede ser un portador transmisible tal como una señal eléctrica u óptica, que puede transmitirse a través de un cable eléctrico u óptico o por radio u otros medios.

Cuando los programas informáticos están incorporados en una señal que puede ser transportada directamente por un cable u otro dispositivo o medio, el portador puede estar constituido por dicho cable u otro dispositivo o medio. Alternativamente, el portador puede ser un circuito integrado en el que el programa informático está integrado, estando el circuito integrado adaptado para realizar, o para usar en la realización de los procedimientos propuestos.

La Figura 2 es un diagrama de flujo que ilustra esquemáticamente procedimientos de eliminación de ruido en una secuencia de imágenes, de acuerdo con ejemplos. Estos procedimientos de eliminación de ruido pueden ser realizados por sistemas iguales o similares a los descritos con referencia a la Figura 1. Según ilustra la Figura, procedimientos eliminación de ruido pueden ser iniciados (por ejemplo, en bloque de inicio 200) ante una detección de una condición de inicio como, por ejemplo, una petición de usuario para iniciar el procedimiento, al detectar una primera imagen, etc.

Procedimientos de eliminación de ruido pueden comprender además (por ejemplo, en bloque 201) realizar, para cada uno de todos o parte de los píxeles de una imagen actual de la secuencia, una re-proyección temporal del píxel en función de un vector de movimiento de dicho píxel para obtener un color promedio acumulado y un modelo predictivo asociados al píxel temporalmente anteriores a la imagen actual. Esta funcionalidad implementada en el bloque 201 puede ser realizada, por ejemplo, por un módulo de re-proyección como el módulo 102 descrito anteriormente con respecto a la Figura 1. Detalles y consideraciones funcionales sobre dicho módulo 102 pueden, por lo tanto, atribuirse de manera similar al bloque de procedimiento 201.

Procedimientos de eliminación de ruido pueden comprender además (por ejemplo, en bloque 202) promediar, para cada uno de los píxeles de la imagen actual con color promedio acumulado asociado (obtenido en bloque 201), un color del píxel en la imagen actual con el color promedio acumulado asociado al píxel para obtener un color promedio actual, y actualizar el color promedio acumulado asociado al píxel con dicho color promedio actual. Esta funcionalidad implementada en el bloque 202 puede ser realizada, por ejemplo, por un módulo de promedio como el módulo 103 descrito anteriormente con respecto a la Figura 1. Detalles y consideraciones funcionales sobre dicho módulo 103 pueden, por lo tanto, atribuirse de manera similar al bloque de procedimiento 202.

Procedimientos de eliminación de ruido pueden comprender además (por ejemplo, en bloque 203) actualizar, para cada uno de los píxeles de la imagen actual cuyo color ha sido promediado (en bloque 202), un vector de características del píxel con el color promedio acumulado actualizado del píxel. Esta funcionalidad implementada en el bloque 203 puede ser realizada, por ejemplo, por un módulo de actualización como el módulo 104 descrito anteriormente con respecto a la Figura 1. Detalles y consideraciones funcionales sobre dicho módulo 104 pueden, por lo tanto, atribuirse de manera similar al bloque de procedimiento 203.

Procedimientos de eliminación de ruido pueden comprender además (por ejemplo, en bloque 204) determinar, para cada uno de los píxeles de la imagen actual cuyo vector de características ha sido actualizado (en bloque 203), un color final del píxel actualizando el modelo predictivo asociado al píxel en función del vector de características actualizado del píxel y obteniendo dicho color final a partir del modelo predictivo actualizado. Esta funcionalidad implementada en el bloque 204 puede ser realizada, por ejemplo, por un módulo de determinación como el módulo 105 descrito anteriormente con respecto a la Figura 1. Detalles y consideraciones funcionales sobre dicho módulo 105 pueden, por lo tanto, atribuirse de manera similar al bloque de procedimiento 204.

Procedimientos de eliminación de ruido pueden comprender además (por ejemplo, en bloque 205) realizar un filtrado espacial según cualquier técnica conocida o pre existente, una vez ha concluido el filtrado temporal 207 (bloques 201 - 204). Esta funcionalidad implementada en el bloque 205 puede ser realizada, por ejemplo, por un módulo de filtrado espacial como el módulo 106 descrito anteriormente con respecto a la Figura 1. Detalles y consideraciones funcionales sobre dicho módulo 106 pueden, por lo tanto, atribuirse de manera similar al bloque de procedimiento 205.

Procedimientos de eliminación de ruido pueden terminar (por ejemplo, en bloque 206) cuando se detecta una condición de finalización, como por ejemplo una solicitud de usuario para finalizar el procedimiento, cuando dejan de recibirse imágenes de la secuencia, etc. La secuencia de bloques 200 - 205 se puede ejecutar de forma iterativa para ir procesando todas las imágenes de la secuencia que vayan llegando a lo largo del tiempo.

A pesar de que se han descrito aquí sólo algunas realizaciones y ejemplos particulares de la invención, el experto en la materia comprenderá que son posibles otras realizaciones alternativas y/o usos de la invención, así como modificaciones obvias y elementos equivalentes. Además, la presente invención abarca todas las posibles combinaciones de las realizaciones concretas que se han descrito. El alcance de la presente invención no debe limitarse a realizaciones concretas, sino que debe ser determinado únicamente por una lectura apropiada de las reivindicaciones adjuntas.