Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
IR OR THERMAL IMAGE ENHANCEMENT METHOD BASED ON BACKGROUND INFORMATION FOR VIDEO ANALYSIS
Document Type and Number:
WIPO Patent Application WO/2016/203078
Kind Code:
A2
Abstract:
The invention relates to an image enhancement method for automatic video surveillance or video analysis systems comprising at least one image acquisition device which is used to capture an image in the IR or thermal spectrum of an area of space, a background calibration system, and a detection system which is used to detect at least one type of object. The method comprises at least one processing step in which the contrast of the image captured by the image acquisition device is enhanced using image background or depth information obtained directly or indirectly by the background calibration system or introduced manually by the user.

Inventors:
HERRERO MOLINA NICOLAS (ES)
BALCELLS CAPELLADES MARTI (ES)
LLUIS BARBA JORDI (ES)
Application Number:
PCT/ES2016/070443
Publication Date:
December 22, 2016
Filing Date:
June 13, 2016
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
DAVANTIS TECH SL (ES)
International Classes:
G06V10/25
Foreign References:
US20100080485A12010-04-01
ES2452790A12014-04-02
Other References:
JIA-GUU LEU: "IMAGE CONTRAST ENHANCEMENT BASED ON THE INTENSITIES OF EDGE PIXELS", CVGIP GRAPHICAL MODELS AND IMAGE PROCESSING, ACADEMIC PRESS, DULUTH, MA, US, vol. 54, no. 6, 1 November 1992 (1992-11-01), pages 497 - 506, XP000332318, ISSN: 1077-3169, DOI: 10.1016/1049-9652(92)90069-A
H SAIPOL HADI ET AL: "A Review of Infrared Spectrum in Human Detection for Surveillance Systems", INTERNATIONAL JOURNAL OF INTERACTIVE DIGITAL MEDIA INTERNATIONAL JOURNAL OF INTERACTIVE DIGITAL MEDIA |, 1 January 2013 (2013-01-01), XP055315518, Retrieved from the Internet [retrieved on 20161111]
E JAUREGI ET AL: "Approaches to door identiication for robot navigation 241 0 Approaches to door identification for robot navigation", 1 March 2010 (2010-03-01), XP055319069, Retrieved from the Internet [retrieved on 20161114]
GUANG DENG: "An Entropy Interpretation of the Logarithmic Image Processing Model With Application to Contrast Enhancement", IEEE TRANSACTIONS ON IMAGE PROCESSING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 17, no. 5, 1 May 2009 (2009-05-01), pages 1135 - 1140, XP011253695, ISSN: 1057-7149
DIEGO ARACENA PIZARRO ET AL: "COMPARACIÓN DE TÉCNICAS DE CALIBRACIÓN DE CÁMARAS DIGITALES", REVISTA FACULTAD DE INGENIERÍA - UNIVERSIDAD DE TARAPACÁ, vol. 13, no. 1, 1 January 2005 (2005-01-01), pages 57 - 67, XP055315519, DOI: 10.4067/S0718-13372005000100007
REND G AARNINK ET AL: "A preprocessing Scientific paper algorithm for edge detection with multiple scales of resolution", ELSEVIER EUROPEAN JOURNAL OF ULTRASOUND, 1 January 1997 (1997-01-01), XP055348937, Retrieved from the Internet [retrieved on 20170222]
XIANGZHI BAI ET AL: "Infrared image enhancement through contrast enhancement by using multiscale new top-hat transform", INFRARED PHYSICS AND TECHNOLOGY, vol. 54, no. 2, 22 December 2010 (2010-12-22), pages 61 - 69, XP028173496, ISSN: 1350-4495, [retrieved on 20101222], DOI: 10.1016/J.INFRARED.2010.12.001
TALI TREIBITZ ET AL: "Resolution loss without imaging blur", JOURNAL OF THE OPTICAL SOCIETY OF AMERICA A, vol. 29, no. 8, 1 August 2012 (2012-08-01), US, pages 1516, XP055348823, ISSN: 1084-7529, DOI: 10.1364/JOSAA.29.001516
Attorney, Agent or Firm:
MIR PLAJA, Mireia (ES)
Download PDF:
Claims:
REIVINDICACIONES

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática que comprenden por lo menos un dispositivo de adquisición de imágenes (2) a través del cual se captura una imagen en el espectro IR o térmico de una zona del espacio, la cual se digitaliza por dicho dispositivo de adquisición de imágenes (2) o por un sistema de digitalización de imágenes (3), un sistema de calibración de escena (5) y un sistema de detección (6) a través del cual se detecta por lo menos un tipo de objeto caracterizado porque dicho procedimiento comprende por lo menos una etapa de procesamiento en la que se mejora el contraste de la imagen digital captada por el dispositivo de adquisición de imágenes (2) a través de la información de profundidad o de escena de la imagen, obtenida, de forma directa o indirecta, por el sistema de calibración de escena (5) o bien introducida manualmente por el usuario y que comprende por lo menos una etapa de ecualización definida a partir de la información de profundidad o de escena de la imagen obtenida por el sistema de calibración de escena (5); dicha etapa de ecualización comprende por lo menos los siguientes pasos

o Definir una región de interés (r);

o Calcular el histograma de los píxeles de la imagen de entrada contenidos en dicha región de interés p/r( y utilizar esta información para obtener una función de transformación correspondiente Tr ;

donde p, (¿) = p(7r = = — es el histograma de esta región de interés formada por los píxeles de la imagen contenidos en la región r; y

Tr es una función de transformación calculada en base al histograma de los píxeles de la región de interés Tr = f (ρ( )

o Aplicar esa transformación Tr sobre toda la imagen de entrada / o sobre una subregión r0 de la imagen de entrada y obtener así la imagen ecualizada O = Tr(r0) , siendo r _= r0 _≡ D¡ , donde D, se refiere al dominio de la imagen de entrada / y se define como D, = [0, Iw - 1] x [0, Ih - 1] donde Iw es la anchura total de la imagen de entrada e Ih su altura total. Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación 1 en el que la región de interés (r) es aquella en la que los tipos de objetos a detectar son de menor tamaño y es difícil su detección por el sistema de detección (6).

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación anterior en el que la región de interés (r) comprende por lo menos todos aquellos píxeles para los que el tamaño esperado de los objetos a detectar se encuentra en el rango(rmín, Tmin + s(Tmax - Tmin))\ siendo Tmin el tamaño mínimo de objeto a detectar capaz de detectar el sistema de detección(6);

Tmax el tamaño máximo posible en la imagen de un objeto a detectar;

ε un número entre 0 y 1.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones anteriores en el que la región de interés se define con un rectángulo

r = [x, y, w, h] = [alw, yhor, ylw, Pyhor] donde x e y se corresponden con las coordenadas de la esquina superior de r, w y h con los valores de anchura y altura de la región en píxeles, , γ, β e (0,1) y ( a + y ) < 1 ; Iw es la anchura total de la imagen de entrada; y yhor es la coordenada vertical que delimita el límite de detección a partir de la cual el tamaño esperado del objeto a detectar es menor que el mínimo tamaño que el sistema de detección (6) puede detectar.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones 1 a 4 en el que la etapa de ecualización comprende por lo menos un paso que estima el rango del histograma de la región de interés mediante el cálculo de la entropía en dicha región de interés de la siguiente manera:

tfr(0 = -∑P/r(0 - log(P/r(t))

r

y otro paso que fija por lo menos dos valores umbrales (HHL y HLH) para los que se activa o se desactiva respectivamente la etapa de ecualización. Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación anterior en el que en el paso en que se calcula la entropía se realiza mediante la siguiente media móvil

Hr(t) = ^(t - l) - (l - p) + Hr(t) - p

siendop un valor muy pequeño entre 0 y 1.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones 1 a 6 que comprende además una etapa de suavizado de la ecualización en la que se obtiene una nueva imagen a partir de la suma ponderada de la imagen ecualizada y la imagen sin ecualizar de la siguiente manera:

IF(x, y) = g(x, y) 0(x, y) + (l - g(x, y)) I(x, y)

Donde g(x, y) es cualquier función cuyo valor es máximo e igual a 1 en el centro de la región de interés (r);

I(x, y) es la imagen digital sin ecualizar.

0(x, y) es la imagen digital ecualizada.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación 7 en el que: g{x, y) = e 2 °x ' °y ;

σ = (σχ, σν) = ( Iw, yhor ).

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática que comprenden por lo menos un dispositivo de adquisición de imágenes (2) a través del cual se captura una imagen en el espectro IR o térmico de una zona del espacio, la cual se digitaliza por dicho dispositivo de adquisición de imágenes (2) o por un sistema de digitalización de imágenes (3), un sistema de calibración de escena (5) y un sistema de detección (6) a través del cual se detecta por lo menos un tipo de objeto caracterizado porque dicho procedimiento comprende por lo menos una etapa de procesamiento en la que se mejora el contraste de la imagen digital captada por el dispositivo de adquisición de imágenes (2) a través de la información de profundidad o de escena de la imagen, obtenida, de forma directa o indirecta, por el sistema de calibración de escena (5) o bien introducida manualmente por el usuario y que comprende por lo menos una etapa de filtrado espacial definida a partir de la información de profundidad o de escena de la imagen obtenida por el sistema de calibración de escena (5); dicha etapa de filtrado espacial comprende por lo menos los siguientes pasos:

Para cada punto de la imagen se obtiene el tamaño en pixeles del objeto a detectar (w, h) mediante el sistema de calibración de escena (5), siendo w y h respectivamente la anchura y la altura en pixeles del objeto a detectar en ese punto.

Para cada punto de la imagen se construye un filtro espacial de tamaño entre 3 x 3 pixeles y max (w, h) x max (w, h),

Se convoluciona cada punto de la imagen con el filtro espacial del tamaño correspondiente a ese punto o, alternativamente, se convoluciona solamente los puntos pertenecientes a la región de interés rf y se obtiene la imagen filtrada O, siendo rf _≡ D, donde D, es el dominio de la imagen de entrada y se define como D, = [0, Iw - 1] x [0, Ih - 1] donde Iw es la anchura total de la imagen de entrada e Ih su altura total.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación 9 en el que la región de interés (rf) es aquella en la que los tipos de objetos a detectar son de menor tamaño y es difícil su detección por el sistema de detección (6).

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación anterior en el que la región de interés (rf) comprende por lo menos todos aquellos pixeles para los que el tamaño esperado de los objetos a detectar se encuentra en el rango {Tmin, Tmin + s(Tmax - Tmin))\ siendo Tmin el tamaño mínimo de objeto a detectar capaz de detectar el sistema de detección(6);

Tmax el tamaño máximo posible en la imagen de un objeto a detectar; ε un número entre 0 y 1.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones 9 a 1 1 en el que la región de interés rf se define con un rectángulo

rf = [x, y, wrf, hrf] = [alw, yhor, ylw, βγηοΛ donde x e y se corresponden con las coordenadas de la esquina superior de rf , wrf y hrf con los valores de anchura y altura de la región en píxeles, α, γ, β e (0,1) y (a + y) < 1 ; Iw es la anchura total de la imagen de entrada; y yhor es la coordenada vertical que delimita el límite de detección a partir de la cual el tamaño esperado del objeto a detectar es menor que el mínimo tamaño que el sistema de detección (6) puede detectar.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones 9 a 12 que comprende además una etapa de suavizado del filtrado espacial en la que se obtiene una nueva imagen a partir de la suma ponderada de la imagen filtrada y la imagen sin filtrar de la siguiente manera:

IF(x, y) = g(x, y) 0(x, y) + (l - g(x, yj) I(x, y)

Donde g(x, y) es cualquier función que tome valores entre 0 y 1 ;

l(x,y) es la imagen digital sin filtrar;

0(x, y) es la imagen digital filtrada.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación anterior en el que:

σ = (ox, Oy) = ( aIw, yhor ).

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones anteriores en el que la información de profundidad o de escena se obtiene a partir de un sistema de calibración de escena (5) que aplica un procedimiento de calibración que comprende por lo menos las siguientes fases:

o Fase de adquisición de muestras que se divide en las siguientes sub fases:

o sub fase de adquisición de imagen;

o sub fase de procesamiento de imagen a través de la cual se determina si en dicha imagen existe algún objeto móvil; y

o sub fase de pre-clasificación de personas que determina si el objeto móvil identificado es una persona o no, almacenándose como muestra en caso de ser persona los fatos de tamaño y posición del objeto móvil identificado; y

o Fase de calibración que obtiene el tamaño de una persona para cada posición de la imagen a partir de los datos de tamaño y posición obtenidos para cada objeto identificado como persona en la fase de adquisición de muestras.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación anterior cuando depende de las reivindicaciones 1 a 8 en el que la región de interés (r) se define como la zona de tránsito durante el procedimiento de calibración de escena definido en la reivindicación anterior, siendo dicha zona de tránsito la zona donde se han obtenido muestras durante la fase de adquisición de muestras descrito en la reivindicación anterior.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación 15 cuando depende de las reivindicaciones 1 a 8 en el que la región de interés (r) se obtiene según el procedimiento:

o Dividir la imagen en N celdas de tamaño ajustable;

o Marcar las celdas en las que el sistema de calibración de escena (5) haya obtenido por lo menos una muestra en la fase de adquisición de muestras descrito en la reivindicación 15;

o Definir la región de interés (r) como la zona convexa que envuelve las celdas marcadas.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación 15 cuando depende de las reivindicaciones 9 a 14 en el que la región de interés (rf) se define como la zona de tránsito durante el procedimiento de calibración de escena definido en la reivindicación 15, siendo la zona de tránsito la zona donde se han obtenido muestras durante la fase de adquisición de muestras descrito en la reivindicación anterior.

Procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación 15 cuando depende de las reivindicaciones 9 a 14 en el que la región de interés (rf) se obtiene según el procedimiento:

o Dividir la imagen en N celdas de tamaño ajustable;

o Marcar las celdas en las que el sistema de calibración de escena (5) haya obtenido por lo menos una muestra en la fase de adquisición de muestras descrito en la reivindicación 15;

o Definir la región de interés (rf) como la zona convexa que envuelve las celdas marcadas.

Sistema de mejora de imagen para sistema de videoanálisis o videovigilancia automática caracterizado porque tiene elementos funcionales aptos para realizar cualquiera de los procedimientos de mejora de imagen según cualquiera de las reivindicaciones anteriores.

Sistema de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según la reivindicación anterior en las que el sistema de detección a través del cual se detecta por lo menos un tipo de objeto comprende por lo menos: o un sistema de segmentación estática (7) que clasifica los píxeles en por lo menos dos tipos, objetos móviles y objetos pertenecientes al fondo de la imagen;

o un sistema de generación de candidatos (8) que agrupa los píxeles móviles conexos en objetos;

o un sistema de clasificación (9) que clasifica los objetos según si es un tipo de objeto a detectar o no lo es; y

o un sistema de seguimiento (10) que mantiene la coherencia temporal de los objetos para finalmente en función de las reglas de detección introducidas por el usuario generar las respectivas alarmas de intrusión.

Sistema de mejora de imagen para sistemas de videoanálisis o videovigilancia automática según cualquiera de las reivindicaciones 20 ó 21 en el que el dispositivo de adquisición de imagen (2) es analógico y dicho sistema comprende una etapa de digitalización de la imagen captada por el mencionado dispositivo de adquisición de imagen (2), previa a la etapa de procesamiento.

Description:
DESCRIPCIÓN

Procedimiento de mejora de imagen térmica o IR basado en información de escena para videoanálisis.

Campo de la técnica

La presente invención hace referencia a un procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática cuya imagen de entrada es de espectro IR o térmico, en el que se utiliza información de profundidad o de escena para realizar esta mejora.

Estado de la Técnica anterior Un sistema de videoanálisis genérico tienen como finalidad determinar la presencia de personas, vehículos u otros objetos concretos (objetivo) en una zona determinada del espacio a partir de las imágenes capturadas por un dispositivo de adquisición de imágenes, preferiblemente, una cámara fija, que observa dicha determinada zona del espacio. En el caso de que la imagen de entrada al mencionado sistema de videoanálisis sea de espectro IR (infrarrojo) o térmica, uno de los principales problemas a los que se debe enfrentar dicho sistema es la falta de contraste entre la escena (background) y el objetivo (foreg round), dificultándose la detección del objetivo. Así por ejemplo, para el caso térmico, en determinadas épocas del año, principalmente en las más cálidas, la temperatura del suelo puede rondar los 37°C lo que puede dificultar la detección de objetivos humanos por la falta de contraste de la imagen. Este efecto se acentúa más si cabe en las zonas lejanas de la imagen donde los objetos son más pequeños. De este problema no sólo sufren los sistemas de vigilancia automática o de videoanálisis si no también aquellos verificados por un operador.

Los fabricantes de cámaras de espectro infrarrojo han hecho un esfuerzo por añadir herramientas de software en sus sensores que permiten reducir el problema de contraste y, en consecuencia, mejorar la calidad de la imagen. Los algoritmos desarrollados para este propósito son aquellos que permiten ajusfar el brillo o ganancia o bien realizar una ecualización de histograma básica o ecualizaciones complejas tipo plateau o bien filtros de realce de detalles. Por su parte, los fabricantes de sistemas de videoanálisis, conscientes de este problema, también han incorporado módulos de mejora de imagen y/o aumento del contraste para mitigar el mismo.

El inconveniente de los algoritmos mencionados es que para efectuar sus mejoras se basan única y exclusivamente en la información presente en la imagen. En otras palabras tratan a todos los píxeles por igual sin hacer ningún tipo de asunción sobre la naturaleza de éstos (p. ej. desde qué distancia viene la temperatura proyectada o cual es el tamaño de una persona en ese lugar). Sin embargo, se ha de señalar que en la literatura científica existen documentos que describen procedimientos o métodos de mejora de imágenes que se basan en información de escena y/o de profundidad en los que se utilizan mayoritariamente cámaras de espectro visible. Entre estos documentos los más significativos son los siguientes: - Por un lado encontramos referencias, como por ejemplo la solicitud de patente con número de publicación US2010/0304854 con título "Image contrast enhancement in depth sensor" o en el documento de Hachicha et al., en "20th European Signal Processing Conference" (EUSIPCO 2012) y con título "Combining depth information and local edge detection for stereo image enhancement', en las que el objetivo no es el de mejorar la calidad de la imagen usando una referencia de profundidad sino mejorar dicha estimación de profundidad en base a la imagen analizada. En definitiva, se realiza el proceso inverso apuntado anteriormente.

o El primero de los documentos citados como ejemplo describe un sistema que calcula la profundidad de imagen en base a emitir luz estructurada y analizar su proyección sobre la escena. En dicho documento, se intenta mejorar la calidad de la imagen de luz estructurada proyectada para mejorar así la estimación de profundidad,

o En el segundo de los documentos citados como ejemplo tenemos un par estéreo (imagen visible + mapa de profundidad) y se intenta segmentar los objetos de la imagen, mejorar su contraste y aplicar esta información para mejorar el mapa de profundidad.

Por otro lado encontramos publicaciones, como por ejemplo el documento de Hu et al., en ICIP 2013 y con título "Kinect depth map based enhancement for low light surveillance image" y la solicitud de patente con número de publicación CN 103400351 A y con título "Based on low-light image enhancement method and system for kinect depth map", en las que se aplican informaciones de dispositivos externos (por ejemplo: cámara Kinect) sobre las cámaras de espectro visible. Estos dispositivos nos dan un mapa de profundidad de la escena asociado a la imagen de la escena que se está observando con la cámara de espectro visible para realizar operaciones de realce sobre dicha cámara de espectro visible. En concreto, en el primer caso se realiza un filtrado de ruido y un ajuste de histograma en el que se incorpora la imagen de profundidad en la ecualización global de la imagen.

Existe también una gran cantidad de referencias, como por ejemplo el documento de Srinivasa et al., en "IEEE Transactions On Pattern Analysis and Machine Intelligence, vol. 25, No. 6, June 2003", con título "Contrast restoration of weather degraded images" o bien el documento de Muñirá et al., en "International Journal of Scientific and ResearchPublications, Volume 3, Issue 6, June 2013", con título "Single image fog removal using depth estimation based on blur estimation", cuyo objetivo es mejorar la calidad de imágenes que están afectadas por condiciones climáticas (por ejemplo: niebla o contaminación), realizándose una estimación de la profundidad de la escena basada precisamente en estos efectos. En concreto, cuanto más borrosa es una zona de la imagen significa que la cámara está a mayor distancia. Una vez obtenida la estimación de profundidad, se utiliza ésta para cancelar los efectos producidos por las condiciones atmosféricas sobre la imagen, mejorándose así la calidad de la misma.

Se ha de destacar también otro grupo de documentos, como por ejemplo: la patente con número de publicación US7706576 con título "Dynamic video equalization of images using face-tracking", en los que se detectan objetos de interés para mejorar la calidad de los propios objetos. En el documento citado como ejemplo, se asume que en la escena existe la cara de una persona, se detecta dicha cara y se aplica un algoritmo de mejora de imagen en la región que ocupa la misma. En realidad, se está aplicando una información de la escena para mejorar por lo menos una zona de la imagen.

En cuanto a documentos científicos sobre procedimientos y métodos de mejora de imágenes IR o térmicas, los documentos más significativos dentro de las pocas referencias existentes son la solicitud de patente con número de publicación EP2226762 y título "Equalization and processing of IR images" y la solicitud de patente PCT con número de publicación WO2013126001 y título "Image processing method for detail enhancement and noise reduction", que utilizan información global o local de la propia imagen y en ningún caso se utiliza información de profundidad o de escena. El principal inconveniente de estos procedimientos es que en las imágenes siguen existiendo zonas en las que no existe suficiente contraste para poder detectar objetos.

La presente invención tiene como principal finalidad describir un procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática cuya imagen de entrada es de espectro IR o térmica en el que, utilizándose información de profundidad o de escena, la imagen resultante tiene el contraste suficiente para que se determine la presencia de un objeto en concreto. Explicación de la invención

La presente invención logra superar todos los inconvenientes así como defectos mencionados anteriormente en el estado de la técnica y alcanzar la finalidad descrita en el párrafo anterior.

Los sistemas de videoanálisis o de vigilancia automática comprenden por lo menos un dispositivo de adquisición de imagen a través del cual se obtienen diferentes imágenes de una zona del espacio en concreto que junto con un sistema de digitalización de imágenes proporciona a la salida del mismo una imagen digital.

A continuación dicha imagen se somete a un sistema de procesamiento de imagen que aplica por lo menos un procedimiento de mejora de la imagen de tal manera que a su salida dicha imagen ha de tener la calidad suficiente para se pueda detectar un tipo de objeto concreto (persona, animal o cualquier otro definido por el usuario).

En concreto, los sistemas de videoanálisis o de vigilancia automática ofrecen por lo menos dos modos de funcionamiento, el de calibración del sistema y el de detección. Tales modos de funcionamiento son realizados por sus correspondientes sistemas de calibración y de detección.

El modo de funcionamiento de calibración generalmente se utiliza al inicio de la puesta en funcionamiento del sistema de videoanálisis o de vigilancia automática ya que su finalidad es dotar a la imagen de una referencia espacial para que así el sistema de detección pueda referenciar todos los cálculos que realiza durante el procedimiento de detección: cálculo de la distancia recorrida, velocidad, tamaño de los objetos, etc. En concreto, la etapa de calibración realizada por el sistema de calibración ha de permitir aportar la equivalencia entre el tamaño aproximado en píxeles del objeto a detectar (generalmente persona) y cada una de las coordenadas de los píxeles de la imagen.

Es objeto de la presente invención un procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática cuya imagen de entrada es de espectro IR o térmico en el que se utiliza para ello la información de profundidad o de escena de la imagen. Para ello, el primer paso de este procedimiento es que dicha información de profundidad o de escena de la imagen sea introducido por el usuario o bien que proceda de la etapa de calibración o del sistema de calibración puesto que la obtención de la variación del tamaño aproximado del objeto a detectar para cada una de las coordenadas de los píxeles de la imagen es una forma indirecta de la profundidad de la escena real captada en la imagen.

En este sentido, se ha de destacar que para ello se puede utilizar cualquier procedimiento de calibración que permita obtener tales resultados, siendo los más representativos los siguientes:

Procedimiento de calibración fuerte que se basa en la obtención tanto de los parámetros intrínsecos de la cámara (distancia focal, tamaño del píxel, distorsión radial de lente, etc.) como de los extrínsecos (altura y orientación angular) para efectuar medidas de distancia y velocidad reales sobre la imagen y la extrapolación de los tamaños de los objetos a detectar para cada píxel mediante geometría básica. Preferiblemente, dentro de estos procedimientos se podría utilizar alguno de los descritos en el documento de Hartley, R y Zisserman, A con título "Múltiple view geometry in computer visión" de Cambridge University Press 2003.

Procedimiento de calibración débil en el que a partir de una serie de observaciones de un tipo de objeto a detectar, se asocia el tamaño del objeto a detectar a cada uno de los píxeles de la imagen ya sea por fuerza bruta (1 observación / 1 pixel) o por interpolación de un modelo geométrico estimado en base a un número limitado de observaciones. Preferiblemente, dentro de estos procedimiento se podría utilizar el descrito en la solicitud de patente US7596241 "System and method for automatic person counting and detection of specific events" o la solicitud de patente ES2364915 "Vídeo tripwi re".

Además de estos dos tipos de procedimientos de calibración, en una realización preferente del procedimiento de mejora de imagen para sistemas de videoanálisis o videovigilancia automática para obtener la información de profundidad o de escena se utiliza el procedimiento de calibración descrito en la patente española ES2452790 con título "Procedimiento y sistema de análisis de imágenes". Este procedimiento de calibración es una calibración débil en términos de estimación de parámetros (puesto que sólo se refiere a los extrínsecos) pero robusto en cuanto a precisión y corrección de errores y comprende, tal y como está explicado en la mencionada solicitud, por lo menos las siguientes fases:

Fase de adquisición de muestras que se divide en las siguientes sub fases:

o sub fase de adquisición de imagen;

o sub fase de procesamiento de imagen a través de la cual se determina si en dicha imagen existe algún objeto móvil; y

o sub fase de pre-clasificación de personas que determina si el objeto móvil identificado es una persona o no, almacenándose como muestra en caso de ser persona los datos de tamaño y posición del objeto móvil identificado; y Fase de calibración que obtiene el tamaño de una persona para cada posición de la imagen a partir de los datos de tamaño y posición obtenidos para cada objeto identificado como persona en la fase de adquisición de muestras.

Una vez obtenida la información de profundidad o de escena de la imagen ya se puede entrar a detallar el procedimiento de mejora de la imagen propiamente dicho. Para ello se debe destacar que existen dos grandes tipos de procedimientos de mejora de imagen denominados filtrado espacial y ecualización.

En consecuencia, es objeto de la invención aplicar esta información de profundidad o de escena de la imagen a este tipo de procedimientos de mejora de imagen para así mejorar el contraste de las imágenes de videoanálisis o videovigilancia automática.

En relación al primer tipo, el denominado filtrado espacial, se ha de señalar que se basa en seleccionar y aplicar un filtro sobre la imagen con el objetivo de reducir ruido, aumentar los detalles, suavizar la imagen..., obteniéndose una imagen con mejor contraste. Estos filtros no son más que pequeñas subimágenes que se convolucionan con la imagen principal y generan una respuesta. Así, dependiendo del tamaño del filtro trataremos con diferentes escalas de información de la imagen.

Preferiblemente, el filtrado espacial y la forma de aplicarse el mismo se basa en por lo menos los siguientes pasos: Para cada punto de la imagen se obtiene el tamaño en píxeles del objeto a detectar (w, h) mediante el sistema de calibración, siendo w y h respectivamente la anchura y la altura en píxeles del objeto a detectar en ese punto.

Para cada punto de la imagen se construye un filtro espacial de tamaño entre 3 x 3 píxeles y max (w, h) x max (w, h), y

Se convoluciona cada punto de la imagen con el filtro espacial del tamaño correspondiente a ese punto.

Pues bien, es objeto de la presente invención que dichos filtros ajusten su tamaño de forma variable en cada posición de la imagen en función de la información de profundidad de imagen o de escena obtenida durante la fase de calibración. Preferiblemente, dicha información ha de comprender por lo menos el tamaño del objeto a detectar que se haya estimado durante la calibración. Así por ejemplo, si se utiliza un filtrado espacial para reducir el ruido, se puede escoger entre aquellos filtros que reducen el ruido en el dominio espacial, entre los cuales se encontrarían los filtros lineales, como por ejemplo: filtro de media, y los no lineales, como por ejemplo: filtro de mediana o bilateral, y aquellos filtros que reducen el ruido en el dominio transformado, entre los que cuales se encontrarían los filtros basados en la transformada wavelet. Sin embargo, independientemente del filtro que se escoja, éste debe adaptar su tamaño en cada posición de la imagen en función de la información de profundidad o de escena obtenida durante la fase de calibración.

Asimismo, en relación a otras técnicas como por ejemplo las de realce de detalles o filtrado paso alto, éstas deberían ajusfar los tamaños de sus filtros en función de la información de profundidad o de escena obtenida durante la fase de calibración.

Se ha de señalar que al aplicar el filtrado espacial a toda la imagen se pueden provocar efectos indeseados en ciertas regiones. Por ese motivo, en otra realización preferente, se puede restringir la zona de aplicación del filtrado espacial sólo a una subregión de interés r f , siendo r f un subconjunto del dominio de la imagen de entrada /. A su vez, para suavizar el efecto del filtrado también se puede combinar la imagen filtrada y la imagen original de forma ponderada.

Por lo que se refiere al segundo tipo, el de ecualización, se ha de destacar que la ecualización de una imagen es en realidad la normalización de su histograma. Es decir, la idea principal es que, dada una imagen de entrada /, se transforma dicha imagen de entrada en base a la información de su histograma para que la imagen de salida tenga un histograma lo más plano posible. Así pues, si definimos / como la imagen de entrada cuyos posibles valores i van de 0≤ i≤ L - 1, la probabilidad que la imagen de entrada / tenga el valor i se define como:

/( = p(7 = =—

n

donde n ¿ es el número total de píxeles cuyo valor es igual a i y n al número total de píxeles de la imagen. A través de este histograma tenemos una referencia de la probabilidad de cada nivel de gris en la imagen de entrada /. El siguiente paso es aplicar una transformación T a toda la imagen de entrada / para que la imagen de salida O = T(I) tenga un histograma lo más plano posible y así mejorar el contraste de la imagen y, en consecuencia, su calidad. Esta imagen de salida O también se denomina imagen ecualizada.

En una realización preferente, la función de transformación es la que se indica en la página 91 del libro de González y Woods con título "Digital Image Processing" de Prentice Hall 2002.

En definitiva, dicha ecualización simple comprende por lo menos los siguientes pasos:

1- Calcular el histograma p,(í) de toda la imagen de entrada y su función de transformación correspondiente T

2- Aplicar esa transformación sobre toda la imagen de entrada y obtener así la imagen ecualizada O = T(I) Se ha de señalar que por lo general las imágenes de entrada y de salida se definen con el mismo número de bits, 8 bits por píxel, existiendo un rango de 256 posibilidades (2 8 ). Sin embargo, algunos dispositivos de adquisición, como por ejemplo las cámaras térmicas, utilizan 14 bits por píxel por lo que al mantenerse la imagen de salida con 8 bits por píxel la ecualización debe reducir el espacio de 16.384 posibilidades (2 14 ) de la imagen de entrada a 256 posibilidades de la imagen de salida.

A su vez, tal y como ocurría con el procedimiento de mejora de imagen denominado filtrado espacial, se puede utilizar la información de la profundidad o de escena de la imagen para mejorar notablemente el contraste de la imagen. En el caso de la ecualización, la información de profundidad o de escena se utiliza para focalizar la mejora de la imagen en aquellas zonas en las que los objetos a detectar por el sistema de videoanálisis son más pequeños, consiguiéndose que en las zonas de difícil detección el contraste sea el mayor posible.

Es decir, se modifica el paso número 1 del procedimiento para la ecualización simple calculándose la transformación T utilizando solamente la información de los píxeles de las regiones donde los objetos a detectar son de menor tamaño. De esta manera, se maximiza el contraste en las zonas de detección difícil aunque se pueda perjudicar a las zonas de detección fácil (objetos a detectar grandes).

Para ello, se debe definir también las regiones de la imagen en la que los objetos a detectar son de menor tamaño, la cual se denomina región de interés (ROI).

Esta región no queda restringida a ningún tipo de forma ni tamaño en concreto hasta el punto que bien podría estar compuesta de subregiones. Preferiblemente, se define como un rectángulo

r = [x, y, w, h]

donde x e y se corresponden con las coordenadas de la esquina superior de r, mientras que w y h con los valores de anchura y altura de la región en píxeles.

Por otra parte, se define la sub-imagen formada por los píxeles de la imagen de entrada / contenidos en la región r como l r y el histograma de esta sub-imagen como

p¡ (i) = pO r = =—

T n r

donde n ir es el número total de píxeles de la sub-imagen I r cuyo valor es igual a i y n r al número total de píxeles de la sub-imagen I r . Así pues, si en la ecualización simple de histograma la transformación se obtenía como una función del histograma de la imagen de entrada T = (p / ( ), se define una nueva transformación T r como la función de transformación calculada en base al histograma de los píxeles de la región de interés T r = (p /r (i))- Esta nueva transformación T r se puede aplicar luego a toda la imagen de entrada. Sin embargo, al aplicarla a toda la imagen de entrada se pueden producir efectos negativos en ciertas zonas de la imagen (como el aumento del ruido o la saturación de niveles de gris). Para evitarlo se modifica también el paso 2 del procedimiento para la ecualización simple y esta transformación T r se aplica sólo en una subregión r 0 . Esta subregión r 0 debe siempre incluir como mínimo la región r donde se ha calculado el histograma y debe ser siempre más grande que ella, pudiendo llegar r 0 a ser toda la imagen de entrada. Si D, expresa el dominio de la imagen de entrada I, o sea D, = [0, l w - 1] x

[0, l h - 1] donde I w es la anchura total de la imagen e I h la altura total de la imagen, matemáticamente se diría que la región r es un subconjunto propio de r 0 y que r 0 es un subconjunto de D¡, o sea r c r 0 _≡ D¡.

Entonces, el procedimiento de mejora de imágenes basado en ecualización simple comprende por lo menos los siguientes pasos:

1- Calcular el histograma de los píxeles de la imagen de entrada contenidos en la región de interés p /r ( y utilizar esta información para obtener su función de transformación correspondiente T r ;

2- Aplicar esa transformación T r sobre toda la imagen de entrada I o sobre una subregión r 0 de la imagen de entrada y obtener así la imagen ecualizada O = T r (r 0 ), siendo r un subconjunto propio de r 0 , o sea r c r 0 _≡ D,

De esta manera se maximiza el contraste en las zonas de difícil detección aunque se puedan perjudicar algunas zonas de fácil detección (por ejemplo aquellas en las que los objetos a detectar son de mayor tamaño). El hecho de aplicar la transformación T r en una subregión r 0 ¾ r en vez de en toda la imagen de entrada I también permite excluir posibles zonas conflictivas en este proceso de ecualización.

Breve descripción de los dibujos

Las anteriores y otras ventajas y características se comprenderán más plenamente a partir de la siguiente descripción detallada de unos ejemplos de realización con referencia a los dibujos adjuntos, que deben considerarse a título ilustrativo y no limitativo, en los que:

la fig. 1 ilustra el diagrama de bloques de un sistema de videoanálisis o videovigilancia según la invención;

la fig. 2 muestra el diagrama de bloques del sistema de detección ;

la fig. 3 representa el diagrama de bloques de un sistema de calibración de escena basado en un procedimiento de calibración fuerte;

la fig. 4 ilustra el diagrama de bloques de un sistema de calibración de escena basado en un procedimiento de calibración débil; la fig. 5 muestra una imagen a la que se le ha aplicado un sistema de calibración de escena;

la fig. 6 representa un procedimiento de ecualización .

la fig. 7 ilustra el funcionamiento de un interruptor basado en histéresis.

Descripción detallada de un ejemplo de realización

La Fig. 1 ilustra el diagrama de bloques de un sistema de videoanálisis o de vigilancia automática (1) según la invención que comprende por lo menos un dispositivo de adquisición de imagen (2) del que se obtienen imágenes de una zona del espacio, un sistema de digitalización de imágenes (3) que proporciona la imagen digital obtenida por el mencionado dispositivo de adquisición de imagen (2), un sistema de procesamiento de la imagen (4) y dos sistemas alternativos de funcionamiento, el sistema de calibración de escena (5) y el sistema de detección (6).

Los dispositivos de adquisición de imágenes (2) permiten obtener imágenes en el espectro IR o térmicos. Preferiblemente son cámaras fijas con este tipo de captación de imágenes. Asimismo, se incluyen dispositivos de adquisición de imágenes (2) que obtienen imágenes en el espectro IR cercano, como por ejemplo, cámaras de día/noche que funcionan con esta sección del espectro electromagnético durante la vigilancia nocturna.

En este sentido, se ha de señalar que ciertos dispositivos de adquisición de imágenes (2) ya proporcionan una imagen digital, integrando los mismos un sistema de digitalización de imágenes (3) por lo que no haría falta incluir en esos casos dicho sistema de digitalización de imágenes (3) en el sistema de videoanálisis o de vigilancia automática (1).

El dispositivo de adquisición de imágenes (2) en el caso que ya permite obtener una imagen digital o el sistema de digitalización de imágenes (3) pueden estar preparados para transmitir las imágenes por cualquier medio de transmisión (cable, fibra, inalámbrico, etc.).

El sistema de procesamiento de la imagen (4) aplica por lo menos un procedimiento de mejora de la imagen de tal manera que a la salida de dicho sistema la imagen tiene la calidad suficiente para que se detecte un tipo de objeto concreto, preferiblemente, una persona. Tal y como se ha comentado el sistema de videoanálisis o de vigilancia automática (1) tiene dos sistemas alternativos de funcionamiento, el sistema de detección (6) y el sistema de calibración de escena (5). El sistema de detección (6) se aplica de forma habitual durante el funcionamiento del sistema de videoanálisis o de vigilancia automática (1) ya que es el que permite detectar unos objetos en concreto, preferiblemente, personas.

El sistema de calibración de escena (5) se aplica, preferiblemente, una sola vez al inicio de la puesta en marcha del sistema de videoanálisis o de vigilancia automática (1) y ha de dotar a la imagen de una referencia espacial para que así el sistema de detección (6) pueda referenciar todos los cálculos que realiza durante el proceso de detección: cálculo de la distancia recorrida, velocidad, tamaño de los objetos, etc., así como proporcionar también información directa o indirecta de la profundidad de la escena real captada en la imagen para el sistema de procesamiento de la imagen (4).

Preferiblemente, el sistema de calibración de escena (5) puede ser cualquier tipo de sistema que obtenga la profundidad de la escena real captada en la imagen ya sea de forma directa o indirecta. En una realización preferente, el sistema de calibración de escena (5) es un sistema que obtiene la variación del tamaño aproximado del objeto a detectar para cada una de las coordenadas de los pixeles de la imagen puesto que es una forma indirecta de medir la profundidad de la escena real captada en la imagen.

En la Fig. 2 se muestra el diagrama de bloques del sistema de detección (6) que comprende un sistema de segmentación de escena estática (7), un sistema de generación de candidatos (8), un sistema de clasificación (9), un sistema de seguimiento (10) y un sistema de decisión (20).

El sistema de segmentación de escena estática (7) clasifica los pixeles en por lo menos dos tipos, objetos móviles y objetos pertenecientes al fondo de la imagen.

El sistema de generación de candidatos (8) agrupa los pixeles que se refieren a objetos móviles y asigna un identificador único a cada objeto en movimiento de la imagen. Se ha de señalar que tanto para el sistema de segmentación estática (7) como para el sistema de generación de candidatos (8) es muy relevante disponer de una imagen suficientemente contrastada. El sistema de clasificación (9) clasifica los objetos móviles según si es un objeto a detectar, preferiblemente, persona y/o vehículo, o no lo es. Este sistema necesita, tal y como se acaba de comentar, la información de escena que se obtiene durante la fase de calibración para realizar los cálculos necesarios (medida de velocidad, tamaño, distancia recorrida, etc.) para clasificar los objetos y de ahí que en el diagrama de bloques de la Fig. 2 aparezca un bloque denominado calibración para referenciar tal necesidad de información.

Un sistema de seguimiento (10) mantiene la coherencia temporal de los objetos para finalmente, en función de las reglas de detección introducidas por el usuario generar las respectivas alarmas de intrusión.

El sistema de decisión (20) se encarga de determinar, a partir de unas reglas -de ahí que exista un bloque denominado reglas para referenciar tal necesidad de información-, si los objetos clasificados por el sistema de clasificación (9) deben considerarse como intrusos, generándose la correspondiente alarma en ese caso.

En la Fig. 3 se representa un diagrama de bloques de un sistema de calibración de escena (5) basado en un procedimiento de calibración fuerte, como por ejemplo, el descrito en el documento de Hartley, R y Zisserman, A con título "Múltiple view geometry in computer visión" de Cambridge University Press 2003.

Dicho sistema de calibración (5) puede comprender por lo menos un sistema de inserción de parámetros del dispositivo de adquisición de imagen (14) y un sistema de cálculo de parámetros de escena (15).

El sistema de inserción de parámetros del dispositivo de adquisición de imagen (14) obtiene, él directamente o a través del propio usuario, los parámetros intrínsecos del dispositivo de adquisición de imagen (2), como por ejemplo: distancia focal, tamaño del píxel, distorsión radial de lente, y los parámetros extrínsecos, como por ejemplo: altura y orientación angular. El sistema de cálculo de parámetros de escena (15) obtiene el tamaño de los objetos a detectar para cada píxel.

En la Fig. 4 se ilustra un diagrama de bloques de un sistema de calibración de escena (5) basado en un procedimiento de calibración débil, como por ejemplo, el descrito en la patente ES2452790 "Procedimiento y sistema de análisis de imágenes".

Tal y como se puede observar, dicho sistema de calibración de escena (5) comprende por lo menos un sistema de segmentación de escena estática (7), un sistema de generación de candidatos (8), un sistema de seguimiento (10), un sistema de mapeo de tamaño/posición observados (11) y sistema de estimación de parámetros de escena (12).

Preferiblemente, los sistemas de segmentación de escena estática (7), de generación de candidatos (8), de seguimiento (10) realizan las mismas funciones que los descritos en el sistema de detección (6), pudiendo ser incluso los mismos.

El sistema de mapeo de tamaño/posición (11) obtiene la variación del tamaño aproximado del objeto a detectar para cada una de las coordenadas de los píxeles de la imagen. El sistema de estimación de parámetros de escena (12) permite obtener otros parámetros necesarios para el sistema de detección (6), como por ejemplo: medida de velocidad, tamaño y distancia recorrida.

En una realización preferente, el sistema de calibración de escena (5) del sistema de videoanálisis o de vigilancia automática (1) según la invención utiliza el procedimiento de calibración descrito en la patente española ES2452790 "Procedimiento y sistema de análisis de imágenes" para obtener la información de profundidad o de escena.

Independientemente del procedimiento de calibración utilizado por el sistema de calibración de escena (5), la Fig. 5 muestra una imagen a la que se le ha aplicado el sistema de calibración y en la que los rectángulos (16) indican el tamaño aproximado del objeto a detectar, preferiblemente, personas, en el punto en el que el rectángulo (16) está dibujado.

El sistema de procesamiento de la imagen (4) según la invención realiza un procedimiento de mejora de imagen que comprende una etapa de procesamiento en la que a través de la mencionada información de profundidad o de escena, introducida por el usuario u obtenida a través de cualquier sistema de calibración de escena (5), aunque preferiblemente aquellos que utilicen los procedimientos acabados de describir, se mejora el contraste de las imágenes captadas por el dispositivo de adquisición de imagen (2). En una realización preferente, el sistema de procesamiento de la imagen (4) comprende por lo menos un filtro que ajusta su tamaño de forma variable en cada posición de la imagen en función de la información de profundidad de imagen o de escena, preferiblemente, un porcentaje del tamaño del objeto a detectar que se haya estimado por el sistema de calibración de escena (5). Este filtrado espacial se puede aplicar a toda la imagen o sólo a una región de interés r f . Los criterios para definir dicha región de interés r f son preferiblemente:

Región definida manualmente por el usuario; o bien

Región en la que los objetos a detectar son de menor tamaño; o bien

Zonas de tránsito durante el proceso de calibración de escena (5), entendiéndose como tales aquellas zonas donde se han obtenido muestras durante la fase de adquisición de muestras descrita en la patente española ES2452790 "Procedimiento y sistema de análisis de imágenes".

Para el caso del criterio en que los objetos a detectar son de menor tamaño, preferiblemente, se definen dos tamaños de persona en píxeles: T min (tamaño mínimo de objeto que es capaz de detectar el sistema de detección (6) y que viene dado por el propio sistema de detección (6)) y T max que se corresponde con el máximo tamaño posible de un objeto a detectar en la imagen a considerar (que viene dado por el sistema de calibración (5)). Así pues, en este caso, el criterio para definir la región de interés r f será todos aquellos píxeles para los que el tamaño de objeto esperado dado por el sistema de calibración de escena (5), se sitúe en el rango {T min , T min + s(T max - T min )). Siendo ε un número entre 0 y 1.

Tal y como se ha explicado anteriormente, existen procedimientos de calibración que consisten en asociar tamaños de objeto observados a la posición donde han sido observados para, de esta forma, estimar el modelo geométrico que describe la escena, entre los cuales, preferiblemente, el sistema de calibración de escena (5) utiliza el descrito en la patente española ES2452790 "Procedimiento y sistema de análisis de imágenes". Preferiblemente, en estos casos, un criterio para definir la región de interés (r f ) comprende por lo menos los siguientes pasos:

- Dividir la imagen en N celdas de tamaño ajustable; - Marcar las celdas en las que el sistema de calibración (5) ha obtenido al menos una muestra.

- Definir la región de interés (r f ) como la zona convexa que envuelve las celdas marcadas.

Las regiones de interés (r f ) no están restringidas a ningún tipo de forma ni tamaño.

Preferiblemente, dicha región de interés (r f ), se define como un rectángulo (17)

rr = [x, y, w rf , h rf ]

donde x e y se corresponden con las coordenadas de la esquina superior de r f , mientras que w rf y h rf con los valores de anchura y altura de la región en píxeles.

En las escenas de videoanálisis o videovigilancia, el contenido relevante, a nivel de detección de objetos, suele estar centrado en la parte central de la imagen por lo que, preferiblemente, se define

r f = [x, y, w rf , h rf ] = [al w , y hor , yl w , βγ ηο Α donde , γ, β e (0,1) y (a + y) < 1 ; 7 W es la anchura total de la imagen de entrada; y y hor es la coordenada vertical que delimita el límite de detección (preferiblemente, la coordenada vertical a partir de la cual el tamaño esperado del objeto a detectar, preferiblemente una persona, es menor que el mínimo tamaño que el sistema necesita para poder detectarlo) que la puede introducir el usuario o bien se puede obtener del sistema de calibración (5).

En la Fig. 5 aparece dibujado un rectángulo (17) que define una región de interés para esa imagen. Se ha de señalar que este tipo de región rectangular sirve para cualquier sistema de calibración de escena (5) ya que el resultado final de la calibración es un mapa de tamaño de persona por píxel.

El hecho de aplicar un filtrado espacial puede producir efectos indeseados en ciertas zonas de la imagen. Para minimizar estos efectos se puede suavizar el resultado del filtrado combinando la imagen filtrada y la imagen sin filtrar de la siguiente manera: l F (x, y) = g(x, y) 0(x, y) + (l - g{x, y)) I(x, y) Donde la función de ponderación g(x, y), en el caso más general, es una función que toma valores entre 0 y 1 , 0(x, y) es la imagen filtrada e I(x, y) es la imagen de entrada. Tanto en caso de aplicar el filtrado espacial a toda la imagen como en el caso de que el filtrado espacial se aplique sólo a una región de interés r f , se puede usar esta región de interés r f para definir la función de ponderación g(x, y) que preferiblemente es una función gaussiana bidimensional centrada en el centro de la región de interés (r f ) y con desviaciones estándar en función de las dimensiones de anchura y altura de la propia región de interés (r f ), quedando el centro de la gaussiana como: y su vector desviación standard como = ( al w , βγ ηο τ )

En consecuencia, la función g(x, y) = e L a ' a y

Tal y como se puede observar, el valor de g(x, y) en el centro de la región de interés (rf) es máximo (igual a 1) y, a medida que los valores de x ó y se alejan del centro, el valor de g(x, y) decrece y por lo tanto la imagen no ecualizada empieza a tomar relevancia dado que la función 1 - g(x, ) crece.

En consecuencia, toda esta etapa realiza un suavizado de la ecualización pudiéndose entender también como la introducción de un foco artificial que ilumina la zona de la región de interés (r f ).

En otra realización preferente, el sistema de procesamiento de la imagen (4) comprende por lo menos un procedimiento de ecualización en el que se utiliza la información de profundidad o de escena obtenida a través del sistema de calibración de escena (5). Preferiblemente, dicho procedimiento de ecualización se basa en un procedimiento de ecualización simple centrado en una región que se considera de interés (r). Los criterios para definir dicha región de interés son preferiblemente:

Región definida manualmente por el usuario; o bien

- Región en la que los objetos a detectar son de menor tamaño; o bien

Zonas de tránsito durante el proceso de calibración de escena (5), entendiéndose como tales aquellas zonas donde se han obtenido muestras durante la fase de adquisición de muestras descrita en la patente española ES2452790 "Procedimiento y sistema de análisis de imágenes".

Para el caso del criterio en que los objetos a detectar son de menor tamaño, preferiblemente, se definen dos tamaños de persona en píxeles: T min (tamaño mínimo de objeto que es capaz de detectar el sistema de detección (6) y que viene dado por el propio sistema de detección (6)) y T max que se corresponde con el máximo tamaño posible de un objeto a detectaren la imagen a considerar (que viene dado por el sistema de calibración (5)). Así pues, en este caso, el criterio para definir la región de interés (r) será todos aquellos píxeles para los que el tamaño de objeto esperado dado por el sistema de calibración de escena (5), se sitúe en el rango {T min , T min + s(T max - T min )). Siendo ε un número entre 0 y 1 que permite regular el nivel de ecualización.

Tal y como se ha explicado anteriormente, existen procedimientos de calibración que consisten en asociar tamaños de objeto observados a la posición donde han sido observados para, de esta forma, estimar el modelo geométrico que describe la escena, entre los cuales, preferiblemente, el sistema de calibración de escena (5) utiliza el descrito en la patente española ES2452790 "Procedimiento y sistema de análisis de imágenes". Preferiblemente, en estos casos, un criterio para definir la región de interés (r) comprende por lo menos los siguientes pasos:

- Dividir la imagen en N celdas de tamaño ajustable;

- Marcar las celdas en las que el sistema de calibración (5) ha obtenido al menos una muestra.

- Definir la región de interés como la zona convexa que envuelve las celdas marcadas.

Las regiones de interés (r) no están restringidas a ningún tipo de forma ni tamaño.

Preferiblemente, dicha región de interés (r), se define como un rectángulo (17) r = [x, y, w, h]

donde x e y se corresponden con las coordenadas de la esquina superior de r, mientras que w y h con los valores de anchura y altura de la región en píxeles.

En las escenas de videoanálisis o videovigilancia, el contenido relevante, a nivel de detección de objetos, suele estar centrado en la parte central de la imagen por lo que, preferiblemente, se define

r = [x, y, w, h] = [al w , y hor , yl w , βγ ηο Λ donde , γ, β e (0,1) y ( a + γ ) < 1 ; I w es la anchura total de la imagen de entrada; y y hor es la coordenada vertical que delimita el límite de detección (preferiblemente, la coordenada vertical a partir de la cual el tamaño esperado del objeto a detectar una persona, es menor que el mínimo tamaño que el sistema necesita para poder detectar una persona) que la puede introducir el usuario o bien se puede obtener del sistema de calibración (5).

En la Fig. 5 aparece dibujado un rectángulo (17) que define una región de interés para esa imagen.

Se ha de señalar que este tipo de región rectangular sirve para cualquier sistema de calibración de escena (5) ya que el resultado final de la calibración es un mapa de tamaño de persona por píxel.

En una realización preferente, el procedimiento de ecualización define una sub-imagen formada por los píxeles de la imagen de entrada / contenidos en la región r como I r y el histograma de esta sub-imagen como

p¡ (i) = pO r = = —

T n r

Asimismo, se define una nueva transformación T r como la función de transformación calculada en base al histograma de los píxeles de la región de interés T r = (p /r ( )-

En definitiva, en una realización preferente del procedimiento de ecualización comprende por lo menos los siguientes pasos:

1- Calcular el histograma de los píxeles de la imagen de entrada contenidos en la región de interés p /r ( y utilizar esta información para obtener su función de transformación correspondiente T r ; 2- Aplicar esa transformación T r sobre toda la imagen de entrada / o sobre una subregión r 0 de la imagen de entrada y obtener así la imagen ecualizada O = T r (r 0 ), siendo r c r 0 _≡ D¡. Tal y como se ha comentado con anterioridad, el hecho de ecualizar ciertas zonas de la imagen con un histograma que no le corresponde puede perjudicar el contraste de dichas zonas con la aparición de efectos no deseados tales como ruido, saturación en el nivel de gris, etc. Así pues, en una realización preferente, se propone una etapa de suavizado de la ecualización mediante una suma ponderada de la imagen ecualizada con el método anterior y la imagen sin ecualizar de la siguiente manera:

I F (x, y) = g(x, y) 0(x, y) + (l - g(x, y)) I(x, y)

Donde la función de ponderación g(x, y) puede ser cualquier tipo de función cuyo valor en el centro de la región de interés sea máximo, aunque preferiblemente es una función gaussiana bidimensional centrada en el centro de la región de interés (r) y con desviaciones estándar en función de las dimensiones de anchura y altura de la propia región de interés (r), quedando el centro de la gaussiana como: or

2 ) y su vector desviación standard como = ( al w , βγ ηο τ )

En consecuencia, la función

-ί,(χ-μ χ

g(x, y) = e L a ' a y

Tal y como se puede observar, el valor de g(x, y) en el centro de la región de interés (r) es máximo (igual a 1) y, a medida que los valores de x ó y se alejan del centro, el valor de g(x, y) decrece y por lo tanto la imagen no ecualizada empieza a tomar relevancia dado que la función 1 - g(x, y) crece. En consecuencia, toda esta etapa realiza un suavizado de la ecualización pudiéndose entender también como la introducción de un foco artificial que ilumina la zona de la región de interés (r). Hasta ahora se ha descrito un procedimiento de ecualización básico en el que se utiliza la información de profundidad o de escena obtenida a través del sistema de calibración de escena (5). Sin embargo, se puede considerar que existen dos tipos de procedimiento de ecualización dependiendo de la naturaleza de la imagen de entrada, procedimiento de ecualización local y procedimiento de ecualización remota.

El procedimiento de ecualización local es el más simple y es el que se representa en la Fig. 6. Tal y como se puede observar, en este tipo de procedimiento de ecualización se ecualiza la imagen del dispositivo de adquisición de imagen (2) o la imagen resultante de aplicar el sistema de digitalización de imagen (3) utilizando información de profundidad de la que dispone el sistema de calibración de escena (5) del sistema de videoanálisis o de vigilancia automática (1).

Puesto que el rango dinámico de la imagen, es decir, el rango de valores de la mayoría de los píxeles, es en ocasiones demasiado pequeño, puede provocar que, al expandir el histograma durante la ecualización, se introduzca excesivo ruido. Este ruido no es deseable en la imagen ya que puede comportar falsas alarmas generadas por el sistema de detección (6). Por este motivo, en una realización preferente, en el procedimiento de ecualización según la invención se incorpora un paso que estudia el rango del histograma mediante el cálculo de la entropía en la región de interés, medida que, aunque indirecta, es mucho más robusta que estudiar simplemente la anchura del histograma.

En este sentido, se define la entropía de la imagen en la región de interés como:

Esta métrica será mayor cuanto más tienda el histograma a una distribución de probabilidad uniforme y cuanto más ancho sea el rango dinámico de la imagen.

De esta manera, se fijan dos valores umbrales para los que activaremos (on) o desactivaremos (off) la ecualización: H HL y H LH . El funcionamiento de este interruptor basado en histéresis se ilustra en la Fig. 7. En concreto, si durante el procedimiento de ecualización se encuentra en el modo "off" de ecualización y la entropía calculada sube por encima de H LH , se activa el procedimiento de ecualización. Por el contrario, si se encuentra en el estado "on" de ecualización y la entropía cae por debajo de H HL , se desactiva el procedimiento de ecualización.

Se ha de señalar que este ciclo de histéresis se implementa para evitar saltos entre modos que puedan afectar al sistema de detección (6). Sin embargo y para suavizar aún más esta transición entre los cambios de modos, se trabaja con entropías calculadas mediante una media móvil en lugar de entropías instantáneas:

H r (t) = ^(t - l) - (l - p) + H r (t) - p siendo p un valor muy pequeño entre 0 y 1.

Por otro lado, el procedimiento de ecualización remota se basa en definir remotamente la región de interés, a partir de la información de profundidad o de escena obtenida en el sistema de calibración de imagen (5), para aquellos dispositivos de adquisición de imagen (2) o sistemas de digitalización de imagen (3) que disponen de software que ejecuta un procedimiento de ecualización. Es decir, el procedimiento de ecualización lo realiza el dispositivo de adquisición de imagen (2) o el sistema de digitalización de imagen (3) pero sobre la región de interés definida a partir de la información de profundidad o de escena obtenida en el sistema de calibración de imagen (5).