Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR DETERMINING THE SPATIAL COVERAGE OF A DETECTION SYSTEM
Document Type and Number:
WIPO Patent Application WO/2021/004987
Kind Code:
A1
Abstract:
The embodiments of the invention provide a method for determining a spatial coverage of a multi-sensor detection system comprising a plurality of sensors, the plurality of sensors being supported by supporting structures situated in a given geographical area, at least some of the supporting structures being movable, the method being characterised in that it comprises the steps of: - determining (201) a set of parameters representing the geographical area and comprising environmental data, data relating to the supporting structures and data relating to the sensors; - iteratively calculating (203) the detection probabilities for the plurality of sensors in the geographical area from at least some of the parameters; - determining (205) a three-dimensional representation of the spatial coverage of the detection system for the plurality of sensors; - determining (207) 3D shadow areas in the geographical area in which the detection probability is less than at least one given threshold; - selecting (209) the shadow areas located in at least one predefined security area of the system.

Inventors:
LEVY CHARLES (FR)
BLAISE SÉBASTIEN (FR)
Application Number:
PCT/EP2020/068939
Publication Date:
January 14, 2021
Filing Date:
July 06, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
THALES SA (FR)
International Classes:
G01S7/62; G01S15/89; G06T15/06; G06T19/00
Other References:
QUIDU I ET AL: "AUV (Redermor) Obstacle Detection and Avoidance Experimental Evaluation", OCEANS 2007 - EUROPE, IEEE, PI, 1 June 2007 (2007-06-01), pages 1 - 6, XP031134310, ISBN: 978-1-4244-0634-0
LIV HOVLAND: "Visualization of 3D Structures in Underwater Volumes in Sonar Performance Context", 1 June 2004 (2004-06-01), Østfold University College, XP055688034, Retrieved from the Internet [retrieved on 20200421]
SAUCAN AUGUSTIN-ALEXANDRU ET AL: "Model-Based Adaptive 3D Sonar Reconstruction in Reverberating Environments", IEEE TRANSACTIONS ON IMAGE PROCESSING, IEEE SERVICE CENTER, PISCATAWAY, NJ, US, vol. 24, no. 10, 1 October 2015 (2015-10-01), pages 2928 - 2940, XP011583323, ISSN: 1057-7149, [retrieved on 20150602], DOI: 10.1109/TIP.2015.2432676
SINGH, ABHIJEET: "Use of X-band weather radar tosupport the terrain database integritymonitoring and terrain referencednavigation function", PROC. SPIE 6559, ENHANCED AND SYNTHETIC VISION 2007, vol. 6559, 27 April 2007 (2007-04-27), pages 655909-1 - 12, XP040240105, DOI: 10.1117/12.725075
ISAACS JASON C: "Sonar automatic target recognition for underwater UXO remediation", 2015 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION WORKSHOPS (CVPRW), IEEE, 7 June 2015 (2015-06-07), pages 134 - 140, XP032795578, DOI: 10.1109/CVPRW.2015.7301307
P. C. ETTER: "Underwater Acoustic Modeling and Simulation", 2018, CRC PRESS
Attorney, Agent or Firm:
HNICH-GASRI, Naïma et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1. Procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, le procédé étant caractérisé en ce qu’il comprend les étapes consistant à :

- déterminer (201 ) un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ;

- calculer (203) itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ;

déterminer (205) une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ;

- déterminer (207) des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ;

- sélectionner (209) les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système.

2. Procédé selon la revendication 1 , caractérisé en ce qu’il comprend en outre la détermination d’une intersection des zones d’ombre sélectionnées formant un chenal d’accès à des zones de sécurité.

3. Procédé selon la revendication 1 , caractérisé en ce que ledit système de détection est un système de détection de type sonar, ledit environnement étant un environnement maritime, lesdites données d’environnement comprenant des données variables dans l’espace et dans le temps et représentant un profil du fond de la mer dans une zone géographique définie, un profil de température du volume d’eau, des informations définissant l’état de la mer, et des informations liées au bruit de la mer, lesdites données de structures porteuses évoluant dans ledit domaine marin définissant une ou plusieurs plateformes mobiles et/ou un ou plusieurs objets de fond.

4. Procédé selon l’une quelconque des précédentes revendications, caractérisé en ce que ledit calcul (203) est réalisé périodiquement selon une période choisie ou en continu.

5. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données, l’étape (205) de détermination d’une représentation en trois dimensions de la couverture spatiale du système de détection comprenant, pour chaque capteur dudit système de détection, les étapes consistant à :

Recevoir un ensemble de données comprenant une probabilité de détection dudit capteur dans ladite zone géographique, la probabilité de détection étant déterminée dans une zone de calcul associée audit capteur et incluse dans ladite zone géographique, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul,

- déterminer un rendu 3D de ladite probabilité de détection dudit capteur à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.

6. Procédé selon la revendication 5, caractérisé en ce qu’il comprend en outre une étape consistant à déterminer (303) une structure de données principale ayant au moins trois dimensions à partir desdites données de probabilité.

7. Procédé selon l’une des revendications 5 et 6, caractérisé en ce qu’il comprend en outre une étape consistant à déterminer (305) un rendu de profondeur du volume englobant la zone de calcul à partir des données de position de la zone de calcul, des données de dimension, et de la position et de l’orientation de visualisation.

8. Procédé selon les revendications 2 et 3, caractérisé en ce que ledit rendu 3D est volumique et en ce que le procédé comprend en outre une étape consistant à déterminer (307) un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de ladite structure de données principale et dudit rendu de profondeur.

9. Procédé selon la revendication 8, caractérisé en ce que ladite étape de détermination d’un rendu volumique (307) comprend les étapes consistant à: - déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de ladite structure de données 3D et dudit rendu de profondeur ;

- déterminer un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris.

10. Procédé selon l’une des revendications précédentes, caractérisé en ce que l’étape de détermination (205) d’une représentation en trois dimensions de la couverture spatiale du système de détection comprend une étape de génération de l’affichage de ladite représentation en trois dimensions de la couverture spatiale, des zones d’ombre à l’intérieur de zones de sécurité et de chenaux d’accès aux zones de sécurité sur un écran ou en mode réalité augmentée ou en mode réalité virtuelle.

1 1 . Dispositif pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le dispositif est configuré pour :

- déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ;

- calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ;

- déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ;

- sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système.

12. Produit programme d’ordinateur pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs amènent le ou les processeurs à :

- déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ;

- calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ;

- déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ;

- sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système.

Description:
DESCRIPTION

Titre de l’invention : Procédé de détermination de la couverture spatiale d’un système de détection

[0001] Art Antérieur

[0002] L’invention se rapporte aux systèmes de détection, et en particulier à la représentation en trois dimensions de la couverture spatiale d’un système de détection.

[0003] Les systèmes de détection, tels que les sonars ou les radars sont utilisés dans de nombreux domaines d’application aujourd’hui. Par exemple, les sonars sont utilisés dans le domaine de l’acoustique sous-marine pour détecter et localiser les objets sous l’eau.

[0004] Les systèmes de détection peuvent être utilisés par diverses infrastructures de surveillance (par exemple pour la détection de sous-marins ou d’objets posés sur le fond marin, dans le domaine de la pêche pour la détection de bancs de poissons, dans le domaine de la cartographie pour cartographier une zone géographique, le fond des océans et d’autres plans d’eau, ou encore dans le domaine de l’archéologue, par exemple l’archéologie subaquatique et sous-marine).

[0005] Les systèmes de détection sont munis d’antennes pour émettre et/ou recevoir des signaux.

[0006] Les systèmes de détection sont classiquement utilisés pour détecter des menaces dans des zones à protéger, par exemple dans des zones définies par rapport à une infrastructure sensible à protéger.

[0007] Par exemple, dans un système de détection de type sonar, il est connu d’utiliser un système de lutte anti-sous-marine comprenant des éléments de gestion de scénarios de flotte aéronavale, de modélisation de la couverture spatiale du sonar et des outils d’aide à la décision tactique.

[0008] Par exemple, dans «P. C. Etter, Underwater Acoustic Modeling and Simulation, CRC Press, 5 eme édition, 2018, Taylor&Francis Group», des technologies de modélisation et de simulation pour l’aide à la décision tactique dans le cadre de la lutte anti-sous-marine ont été proposées pour améliorer l’efficacité de la gestion et de déploiement des ressources déployées. Une telle solution utilise un réseau de composants répartis géographiquement comprenant des véhicules autonomes sous- marins (en anglais‘Autonomous Undersea Vehicles’, AUV), des navires de surface, des sous-marins, des avions, et/ou des satellites. De tels composants du réseau déploient des capteurs distribués. [0009] Le traitement des signaux reçus par le système de détection utilise une étape de traitement de signal et une étape de traitement de l’information. Le traitement des données collectées par les différents composants du réseau du système de détection permet de représenter la couverture spatiale du système de détection à partir de laquelle un opérateur du système de détection peut déterminer la dynamique et la trajectoire des objets cibles, la position des objets cibles en distance, en gisement et en profondeur, ainsi que la nature des objets cibles.

[0010] Il est connu d’utiliser une représentation appelée‘Probabilités de détection ou POD’ (‘Performance of the day’ en langue anglo-saxonne). Une représentation POD est une représentation des probabilités de détection qui permet de déterminer la couverture spatiale d’un système de détection et d’estimer la capacité du système de détection à détecter des objets cibles. Une telle représentation est générée à partir d’une matrice de données de probabilités de détection en fonction de la distance par rapport à la position de l'antenne du système de détection et de la profondeur entre la surface et le fond marin, en utilisant un codage couleur. Les probabilités de détection peuvent être affichées graphiquement sous la forme de données ou d’éléments de couleur, chaque couleur représentant une plage de probabilité variant de 0 à 10%, de 1 1 à 20%, jusqu’à l’intervalle de valeurs [91 ,100%].

[001 1 ] Les formes obtenues au moyen de cette représentation sont relativement complexes et non uniformes en raison de la non linéarité de la propagation des ondes dans l’environnement considéré (par exemple la propagation du son dans l’eau pour un système de détection de type sonar) et au fait que l’image qui représente ces probabilités de détection ne permet de visualiser qu'une partie de la scène considérée. Dans des environnements complexes, la forme finale obtenue en trois dimensions (3D) peut être relativement complexe à interpréter. Par ailleurs, cette représentation ne permet pas de mettre en évidence les zones dangereuses représentant un risque potentiel pour l’infrastructure utilisant le système de détection (plateforme ou bâtiment à protéger par exemple). Elle ne permet pas non plus d’avoir une vue globale complète en trois dimensions de la zone géographique couverte par le système de détection. En outre, une telle représentation ne permet pas de couvrir une zone suffisamment importante par rapport à l’échelle de l’infrastructure utilisant le système de détection.

[0012] Pour les systèmes de détection de type sonar, des outils d’aide à la décision tactique ont été proposés. Cependant, de tels outils sont sous-optimaux. En effet, les outils d’aide à la décision connus fournissent un environnement de modélisation considérant un seul capteur à la fois et sur une distance liée à la portée maximale de ce capteur, ce qui ne permet pas d’avoir une vue globale de la zone géographique couverte par le sonar et peut exposer l’infrastructure à protéger (flotte navale par exemple) à des risques d’attaques par des menaces ne pouvant pas être détectées si elles évoluent dans les zones non-couvertes par le capteur considéré.

[0013] En outre dans les solutions existantes basées sur la représentation des probabilités de détection pour évaluer la capacité de détection du système de détection, la représentation tient compte des probabilités de détection d’un seul capteur du système de détection à la fois et ne permet pas de générer une visualisation de la totalité de la zone de façon exploitable par l’opérateur du système de détection, ce qui peut limiter l’efficacité de la flotte navale.

[0014] Il existe donc un besoin pour un procédé et un dispositif améliorés capable de déterminer la couverture spatiale d’un système de détection de manière efficace. A cet effet, l’invention a pour objet un procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, la pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, le procédé étant caractérisé en ce qu’il comprend les étapes consistant à :

- déterminer un ensemble de paramètres représentant la zone géographique et comprenant des données d’environnement, des données relatives aux structures porteuses et des données relatives aux capteurs ;

- calculer itérativement les probabilités de détection de la pluralité de capteurs dans la zone géographique à partir de certains au moins des paramètres ;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ;

- déterminer des zones d’ombre 3D de la zone géographique dans lesquelles la probabilité de détection est inférieure à au moins un seuil donné ;

- sélectionner les zones d’ombre situées dans au moins une zone de sécurité prédéfinie du système.

[0015] Selon certains modes de réalisation, le procédé comprend en outre la détermination d’une intersection des zones d’ombre sélectionnées formant un chenal d’accès à des zones de sécurité.

[0016] Selon certains modes de réalisation, le système de détection peut être un système de détection de type sonar, l’environnement étant un environnement maritime, lesdites données d’environnement comprenant des données variables dans l’espace et dans le temps et représentant un profil du fond de la mer dans une zone géographique définie, un profil de température du volume d’eau, des informations définissant l’état de la mer, et des informations liées au bruit de mer, les données de structures porteuses évoluant dans le domaine marin définissant une ou plusieurs plateformes mobiles et/ou un ou plusieurs objets de fond.

[0017] Selon certains modes de réalisation, ledit calcul peut être réalisé périodiquement selon une période choisie ou en continu.

[0018] Selon certains modes de réalisation, la couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données, l’étape de détermination d’une représentation en trois dimensions de la couverture spatiale du système de détection comprenant, pour chaque capteur dudit système de détection, les étapes consistant à :

Recevoir un ensemble de données comprenant une probabilité de détection dudit capteur dans ladite zone géographique, la probabilité de détection étant déterminée dans une zone de calcul associée audit capteur et incluse dans ladite zone géographique, les données dudit ensemble comprenant des données de position de la zone de calcul et des données de dimensions de la zone de calcul,

- déterminer un rendu 3D de ladite probabilité de détection dudit capteur à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.

[0019] Selon certains modes de réalisation, le procédé comprend en outre une étape consistant à déterminer une structure de données principale ayant au moins trois dimensions à partir desdites données de probabilité.

[0020] Selon certains modes de réalisation, le procédé peut comprendre en outre une étape consistant à déterminer un rendu de profondeur du volume englobant la zone de calcul à partir des données de position de la zone de calcul, des données de dimension, et de la position et de l’orientation de visualisation.

[0021 ] Selon certains modes de réalisation, le rendu 3D peut être volumique, le procédé comprenant en outre une étape consistant à déterminer un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de ladite structure de données principale et dudit rendu de profondeur.

[0022] Selon certains modes de réalisation, l’étape de détermination d’un rendu volumique peut comprendre les étapes consistant à: - déterminer un rendu volumique en niveaux de gris de la probabilité de détection à partir de ladite structure de données 3D et dudit rendu de profondeur ;

- déterminer un rendu volumique en couleurs de la probabilité de détection à partir du rendu volumique en niveaux de gris.

[0023] Selon certains modes de réalisation, l’étape de détermination d’une représentation en trois dimensions de la couverture spatiale du système de détection comprend une étape de génération de l’affichage de ladite représentation en trois dimensions de la couverture spatiale, des zones d’ombre à l’intérieur de zones de sécurité et de chenaux d’accès aux zones de sécurité sur un écran ou en mode réalité augmentée ou en mode réalité virtuelle.

[0024] Avantageusement, les modes de réalisation de l’invention permettent un calcul en temps réel des probabilités de détection associées à un système de détection multi- capteur.

[0025] Avantageusement, les modes de réalisation de l’invention permettent une représentation en temps réel des probabilités de détection associées à un système de détection multi-capteur pour une scène réelle en trois dimensions.

[0026] Avantageusement, les modes de réalisation de l’invention peuvent fournir un mode de représentation des probabilités de détection sous forme volumique, ce qui permet un affichage en 3D de la couverture spatiale du système de détection dans la totalité de la zone géographique considérée.

[0027] Avantageusement, les modes de réalisation de l’invention permettent une représentation en trois dimensions de la couverture spatiale du système de détection sur un dispositif de visualisation tel qu’un écran ou un dispositif de réalité augmentée.

[0028] La représentation de la couverture spatiale du système de détection sur un dispositif de réalité augmentée permet notamment une meilleure perception de la représentation en trois dimensions, le partage d’une même situation tactique entre plusieurs acteurs ou systèmes de contrôle, et la visualisation d’un hologramme sur une table tactique sans nécessiter l’ajout d’écrans supplémentaires dans l’environnement opérationnel considéré.

[0029] Les modes de réalisation de l’invention permettent en outre de déterminer des actions à mettre en oeuvre en réponse à la mise en évidence de zones d’ombre de non couverture par la détection du système se trouvant dans des zones de sécurité dans la zone géographique, ou d’un chenal d’accès construit par la somme des zones d’ombre de non couverture menant à ces zones de sécurité, quelle que soit la complexité de la forme de ces zones d’ombres ou de ces chenaux d’accès.

[0030] Brève description des dessins

[0031 ] D’autres caractéristiques et avantages de l’invention apparaîtront à l’aide de la description qui suit faite en référence aux dessins annexés, donnés à titre d’exemple, et qui représentent, respectivement :

[0032] [Fig.1 ] est un exemple d’environnement d’utilisation de procédé de détermination d’une couverture spatiale d’un système de détection de type sonar, selon certains modes de réalisation.

[0033] [Fig.2] est un organigramme représentant un procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur, selon certains modes de réalisation de l’invention.

[0034] [Fig.3] est un organigramme représentant une méthode pour déterminer une représentation en trois dimensions de la couverture spatiale d’un système de détection multi-capteur, selon certains modes de réalisation de l’invention.

[0035] [Fig.4] est une vue schématique représentant un algorithme de lancer de rayon par accumulation (‘Ray Marching’ en langue anglo-saxonne), selon certains modes de réalisation de l’invention.

[0036] [Fig.5] représente un exemple de couverture spatiale d’un système de détection de type sonar utilisé pour la détection d’objets, obtenue en utilisant des méthodes d’affichage de la couverture spatiale de l’art antérieur.

[0037] [Fig.6] est une représentation schématique des zones de détection théorique cible dans un exemple d’application à la détection d’objets en environnement sous-marin.

[0038] [Fig.7] est une représentation schématique des zones de détection réaliste dans un exemple d’application à la détection d’objets en environnement sous-marin.

[0039] [Fig.8] représente un exemple d’affichage sur écran de la couverture spatiale d’un système de détection multi-capteur de type sonar obtenue à partir du rendu volumique des probabilités de détection, selon certains modes de réalisation de l’invention.

[0040] [Fig.9] représente un exemple d’affichage en mode réalité augmentée de la couverture spatiale d’un système de détection multi-capteur de type sonar obtenue à partir du rendu volumique des probabilités de détection, selon certains modes de réalisation de l’invention. [0041 ] [Fig.10] est une vue schématique d’un dispositif de détermination de la couverture spatiale d’un système de détection, selon certains modes de réalisation de l’invention.

[0042] Description détaillée

[0043] Les modes de réalisation de l’invention fournissent un procédé pour déterminer la couverture spatiale d’un système de détection multi-capteur déployant une pluralité de capteurs et évoluant dans une zone géographique donnée. La zone géographique inclut une zone de calcul, la zone de calcul étant une zone géométrique restreinte incluse dans la zone géographique telle qu’elle comprend l’ensemble des probabilités de détection calculées non-nulles du système de détection et déterminée par un centre et un référentiel (par exemple un référentiel cartésien).

[0044] La figure 1 représente un exemple d’environnement 100 dans lequel est utilisé procédé de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection évoluant dans une zone géographique.

[0045] Le système de détection peut être tout système de détection porté par une structure porteuse capable d’évoluer dans la zone géographique tel qu’un radar ou un sonar par exemple. Dans l’exemple de la figure 1 , le système de détection est un sonar porté par une structure porteuse de type bâtiment de surface 101. La couverture spatiale du système de détection est représentée selon une position et une orientation de visualisation données (l’ensemble des données de position et d’orientation est encore appelé « point de vue »). Les données de l’ensemble de données associées à un système de détection porté par une structure porteuse comprennent, à titre d’exemple non limitatif, des données de position de la zone de calcul, des données de dimensions de la zone de calcul, et des informations sur la structure porteuse et les capteurs.

[0046] Le système de détection peut être utilisé dans divers systèmes ou infrastructures pour la détection et localisation d’objets dans la zone géographique considérée (par exemple dans l’eau pour un système de détection de type sonar). Par exemple, le système de détection peut comprendre un ou plusieurs dispositifs de détection acoustique (par exemples les sonars 107, 108 et/ou 109) utilisés:

- pour la détection de sous-marins ou des bâtiments de surface et/ou des menaces (par exemple des mines) ou objets posés sur le fond marin;

- pour la détection des bancs de poissons, dans le domaine de la navigation maritime et fluviale ;

- en hydrographie pour cartographier le fond des océans et d’autres plans d’eau, - en archéologie subaquatique et sous-marine ou dans les capteurs de pollutions aquatiques.

[0047] Le système de détection peut être utilisé en outre pour localiser les objets détectés.

[0048] Dans l’exemple de l’environnement 100 de la figure 1 (représentant un dispositif de lutte anti-sous-marine), d’autres éléments auxiliaires peuvent être déployés pour mettre en oeuvre des actions préventives, défensives, ou offensives en fonction de l’objet détecté. Les éléments auxiliaires peuvent comprendre par exemple un navire de surface 101 équipés d’un ou plusieurs sonars, un ou plusieurs avions de patrouille maritime, et un ou plusieurs sous-marin d’attaque. Les sonars peuvent par exemple comprendre un sonar actif d’étrave 107, un sonar actif remorqué 108, et un sonar actif trempé 109 déployé par l’hélicoptère 103.

[0049] Les différents éléments de l’environnement 100 peuvent être contrôlés par un opérateur ou un système de contrôle présent par exemple dans le navire de surface 101 , pour surveiller et protéger les éléments de l’environnement 100 contre des menaces en mettant en oeuvre des opérations ou actions. L’opérateur ou le système de contrôle peut par exemple mettre en oeuvre des actions de type préventives, défensives, ou offensives.

[0050] La description des modes de réalisation de l’invention qui suit sera faite principalement en référence à un système de détection de type sonar mettant en oeuvre au moins un sonar passif ou actif multi-capteur pour faciliter la compréhension des modes de réalisation de l’invention, à titre d’exemple non limitatif. Cependant, l’homme du métier comprendra aisément que l’invention s’applique plus généralement à tout système de détection capable de détecter un objet dans l’eau ou dans tout autre environnement.

[0051 ] La figure 2 représente un procédé pour déterminer une couverture spatiale d’un système de détection multi-capteur déployant une pluralité de capteurs portés par des structures porteuses évoluant dans une zone géographique donnée est illustré. Une structure porteuse peut porter un ou plusieurs capteurs. Un capteur peut opérer en mode passif, mono-statique, ou multistatique.

[0052] Selon certains modes de réalisation, les structures porteuses peuvent être indépendantes ou non indépendantes.

[0053] A l’étape 201 , un ensemble de paramètres représentant la zone géographique donnée comprenant des données d’environnement (par exemple l’environnement sous- marin, marin ou terrestre), des données relatives aux structures porteuses (par exemple la vitesse de la structure porteuse) et des données relatives aux capteurs du système de détection multi-capteur (par exemple pour un système de détection de type sonar, les données relatives aux capteurs peuvent comprendre le mode passif ou actif du sonar, la ou les fréquences du sonar, la portée maximale du sonar, le gain du sonar). Les données d’environnement peuvent en outre comprendre des données tactiques. De tels paramètres permettent de définir l’emplacement du système de détection, les conditions environnementales relatives à cet emplacement, les trajectoires initiales suivies par différentes plateformes du système de détection, les menaces, les unités à protéger, et/ou les équipements des plateformes aptes à assurer cette protection.

[0054] Dans un système de détection de type sonar, les données d’environnement peuvent comprendre des données d’environnement marin et/ou terrestre variables dans l’espace et dans le temps et représentant :

- le profil du fond de la mer dans une zone géographique définie (qui peut être choisie avec une grande résolution, allant par exemple jusqu’à 20cm) ; ce profil peut être complété par le type de fond (combinaisons de boue, sable et/ou roche) ;

- un profil de température de volume d’eau et de salinité, la température de volume d’eau et la salinité influant sur la propagation des ondes acoustiques ;

- des informations définissant l’état de la mer (par exemple la hauteur des vagues et leur direction) et ayant une influence sur la manière dont les ondes acoustiques se réfléchissent sur la surface ;

- des informations liées au bruit de la mer (par exemple la pluie, les bruits de trafic, de biologiques diffus, sismiques, etc.

[0055] Selon certains modes de réalisation, les données relatives aux structures porteuses évoluant dans la zone géographique donnée peuvent être associées aux structures porteuses évoluant dans la zone géographique domaine marin telles qu’une ou plusieurs plateformes mobiles (par exemple, des bâtiments de surface, des sous- marins, des drones, des avions, des hélicoptères, des bouées sonar dérivantes, des entités biologiques, etc.) et/ou un ou plusieurs objets de fond (par exemple des mines, des systèmes de détection acoustiques statiques, des épaves, ou tout autre objet de fond ayant une influence sur les détections). Les structures porteuses peuvent avoir une trajectoire prédéfinie, être contrôlées par un opérateur du système de détection ou par un système de contrôle. Les structures porteuses peuvent avoir leur propre bruit (dû par exemple aux machines et/ou bruits d’écoulement dans l’eau), peuvent être équipées de capteurs de tout type, et/ou peuvent aussi émettre des sons. Les objets de fond peuvent être équipés de capteurs, d’automates de comportement et de charges explosives. [0056] Dans un exemple de réalisation, les données tactiques peuvent être associées à une ou des menaces à détecter (flotte composée par exemple), et les structures porteuses peuvent comprendre un ou plusieurs unités à Haute Valeur (en anglais‘High Value Unit’ ou HUV), un ou plusieurs éléments protecteurs des unités HUV agencés dans des zones de surveillance ou au niveau de Lignes Limites d’approche (LLA).

[0057] Dans un exemple de réalisation, l’étape 201 peut être réalisée par un générateur de scénarios dans l’environnement considéré (environnement marin par exemple).

[0058] A l’étape 203, une probabilité de détection peut être calculée itérativement, par exemple à intervalles de temps prédéfinis ou selon une période fixe ou en continu, pour la pluralité de capteurs du système de détection multi-capteur à partir de certains ou moins de l’ensemble de paramètres déterminés à l’étape 201. Une probabilité de détection, dénotée p(D), désigne la probabilité qu’un écho cible réel soit détecté lorsqu’un écho cible réel existe. Dans un système de détection de type sonar passif, la probabilité de détection représente la probabilité de détecter un objet cible réel qui émet un niveau de bruit donné à différentes fréquences. Dans un système de détection de type sonar actif, la probabilité de détection représente la probabilité d’obtenir un écho viable grâce à une émission d’ondes acoustiques par le sonar actif. La probabilité qu’un écho cible réel ne soit pas détecté alors que l’écho cible existe est 1 -p(D). La probabilité de fausse alarme, dénotée p(FA), désigne la probabilité qu’un faux écho (ou écho parasite) soit détecté, c’est-à-dire la probabilité qu’il y ait une fausse détection d’un écho qui soit réellement du bruit.

[0059] La probabilité de détection calculée pour la pluralité de capteurs peut être déterminée en combinant les probabilités de détection élémentaires des différents capteurs.

[0060] Les probabilités de détection peuvent évoluer à chaque instant compte tenu du profil de l’environnement au voisinage de la structure porteuse (fond sous la plateforme considérée par exemple), des mouvements de la structure porteuse et des conditions d’environnement. Dans un mode de réalisation, les probabilités de détection peuvent être mises à jour périodiquement selon une période choisie inférieure à une minute, par exemple toutes les 30 secondes (ou plus rapidement selon la puissance de calcul disponible), en tenant compte des vitesses des structures porteuses (la vitesse est faible par exemple pour des plateformes navales) et du fait que les probabilités de détection varient en fonction de certaines grandeurs relatives à l’environnement (par exemple, elles diminuent lorsque le bruit d’écoulement de l’eau sur des capteurs de type Sonar augmente). [0061 ] L’étape 203 peut comprendre une étape de sauvegarde des données représentant les probabilités de détection calculées pour la pluralité de capteurs dans un fichier. Dans un mode de réalisation, les données de probabilité de détection peuvent être représentées par une matrice de données de probabilité. La position du centre de cette matrice (centre du référentiel de la matrice) peut alors être située au niveau de la position de la structure porteuse du système de détection.

[0062] A l’étape 205, une représentation en trois dimensions de la couverture spatiale du système de détection peut être déterminée pour la pluralité de capteurs. La représentation en trois dimensions de la couverture spatiale selon les modes de réalisation de l’invention permet de représenter les probabilités de détection pour l’ensemble de capteurs du système de détection multi-capteur et sur la totalité de la zone géographique en tenant compte des paramètres représentant la zone géographique. Par exemple, dans une application de l’invention à un système de détection de type sonar, la représentation de la couverture spatiale en trois dimensions peut prendre en compte le relief du fond de mer, les structures porteuses évoluant dans la zone géographique en environnement marin, et des zones tactiques déterminées à l’étape 201 . Le relief de l’environnement considéré, comme par exemple le relief d’un fond de mer, peut être importé de cartes telles que des cartes marines servant par exemple à la navigation de type S57. Le relief peut subir un traitement de lissage et d’éclairage avec un traitement des ombres pour pouvoir optimiser la représentation de la zone complète. Les structures porteuses peuvent être associées à un modèle 3D assez fidèle compte tenu de l’échelle des objets. La position des structures porteuses peut être mise à jour périodiquement, comme par exemple toutes les 200ms, la période étant choisie ou déterminée pour être adaptée à des mouvements fluides des structures porteuses tenant compte de leurs vitesses.

[0063] Selon certains modes de réalisation, l’étape 205 peut comprendre un affichage de la représentation en trois dimensions de la couverture spatiale du système de détection sur un dispositif de rendu tel qu’un écran, un dispositif de rendu en réalité augmentée ou encore un dispositif de rendu en réalité virtuelle. L’affichage en mode réalité augmentée permet avantageusement d’améliorer la perception de la représentation en trois dimensions grâce à des hologrammes, le partage d’une même situation tactique entre plusieurs opérateurs équipés de dispositifs de rendu leur permettant de visualiser les hologrammes avec des points de vue différents, et de reporter l’hologramme sur une table tactique sans nécessiter d’ajout d’écrans supplémentaires dans l’environnement opérationnel déjà encombré. La vision de l’hologramme peut être synchronisée avec les données de la table tactique. [0064] A l’étape 207, la représentation en trois dimensions de la couverture spatiale peut être analysée pour déterminer des zones d’ombre 3D de la zone géographique, les zones d’ombre étant des zones dans lesquelles la probabilité de détection est inférieure à au moins un seuil donné.

[0065] A l’étape 209, les zones d’ombres peuvent être situées dans au moins une zone de sécurité prédéfinie du système. Les zones de sécurité peuvent être sélectionnées par rapport à des critères stratégiques.

[0066] La zone de sécurité par rapport à une structure à protéger par le système de détection multi-capteur peut être sensiblement une sphère centrée sur l’infrastructure à protéger, le rayon de la sphère étant par exemple de l’ordre de 30km.

[0067] Une zone d’ombre 3D peut être par exemple une cuvette de non détection.

[0068] Selon certains modes de réalisation, l’étape 209 peut comprendre la détermination d’une intersection des zones d’ombres sélectionnées formant un chenal d’accès à des zones de sécurité, un chenal désignant la somme des zones d’ombre menant à la zone de sécurité. Une zone à risque est une zone d’ombre à l’intérieur de la zone de sécurité.

[0069] Selon certains modes de réalisation, la représentation en trois dimensions de la couverture spatiale du sonar multi-capteur à l’étape 205 peut se baser sur la détermination d’un rendu 3D des probabilités de détection calculées pour l’ensemble de capteurs à l’étape 203. Dans un mode de réalisation, l’étape de détermination du rendu 3D (en trois dimensions) de la probabilité de détection peut en outre prendre en compte les données de visualisation (données de position et d’orientation).

[0070] La détermination du rendu 3D des probabilités de détection peut être effectuée à partir de techniques de synthèse d’images 3D pour convertir les données brutes des probabilités de détection en une image 3D pour générer un affichage de l’image 3D sur le dispositif de rendu choisi (un dispositif 3D sur écran, dispositif de réalité augmentée ou dispositif de réalité virtuelle).

[0071] La représentation en 3D de la couverture spatiale peut être avantageusement superposée avec une représentation de la zone géographique sur le dispositif de rendu, ce qui permet un affichage en 3D de la couverture spatiale du système de détection dans la zone géographique considérée.

[0072] La création d’une image de synthèse peut se décomposer en trois étapes principales : la modélisation géométrique des objets de la scène à représenter, la création de la scène, et le rendu. [0073] La modélisation géométrique permet de définir les propriétés géométriques des objets soit par une représentation mathématique à partir des définitions ou des systèmes mathématiques qui les décrivent, soit par une représentation par arbre de construction en représentant les objets complexes comme une composition d’objets simples appelés primitives, soit par une représentation qui représente un objet en matérialisant la limite entre l’intérieur de l’objet et l’extérieur de l’objet par une série d’éléments géométriques reliés entre eux (généralement des triangles).

[0074] L’étape de création de la scène permet de définir l’apparence des objets et de déterminer les paramètres non géométriques de la scène à afficher. L’apparence des objets est définie en déterminant des propriétés surfaciques ou volumiques des objets dont les propriétés optiques, la couleur et la texture. Les paramètres non géométriques de la scène comprennent la position et le type des sources de lumière, la position et l’orientation de la visualisation de la scène formant le point de vue choisi.

[0075] L’attribution d’une couleur à un objet selon les modes de réalisation de l’invention se base sur l’utilisation d’un espace colorimétrique prenant en compte l’opacité. Par exemple, la conversion de données peut être réalisée par l’utilisation du format de codage des couleurs RGBA qui est une extension du format RGB, prenant en compte la notion de transparence. Dans un tel exemple, chaque pixel affiché sur l’image représente un vecteur de quatre composantes, comprenant une première valeur R représentant une valeur de couleur rouge (Red), une seconde valeur G représentant une valeur de couleur verte (Green), une troisième valeur B représentant une valeur de couleur bleue (Blue), et une quatrième valeur A représentant une composante de transparence (ou composante alpha). En utilisant la représentation géométrique dans l’espace Euclidien, chaque pixel est associé à trois dimensions géométriques (x,y,z) dans un référentiel XYZ comprenant une largeur x (ou abscisse du référentiel), une profondeur y (ou ordonnée du référentiel) et une hauteur z (ou côte du référentiel). Le référentiel XYZ est défini par la zone de calcul et peut être centré au niveau du centre de la zone de calcul.

[0076] Telle qu’utilisée ici, une texture 3D fait référence à une structure de données permettant la représentation d’une image de synthèse.

[0077] Un procédé de rendu fait référence à un procédé informatique consistant à convertir le modèle des objets en une image affichable sur le dispositif de rendu choisi.

[0078] La détermination de la couverture spatiale du système de détection en trois dimensions à partir des probabilités de détection peut utiliser la transformation (ou conversion) des données brutes des probabilités de détection en une structure exploitable par les fonctions de calcul de rendu.

[0079] La figure 3, un organigramme représentant l’étape 205 de détermination d’une représentation de la couverture spatiale d‘un système de détection multi-capteur en trois dimensions évoluant dans une zone géographique selon certains modes de réalisation.

[0080] Les étapes de la figure 3 sont réalisées pour chaque capteur du système de détection.

[0081] A l’étape 301 , des données de l’ensemble des données comprenant une probabilité du capteur dans la zone géographique sont reçues, la probabilité de détection étant déterminée dans une zone de calcul associée au capteur considéré et incluse dans ladite zone géographique. Les données de l’ensemble de données comprennent en outre la dimension de la zone de calcul associée au capteur considéré, et des données de position de la zone de calcul. En particulier, les données de l’ensemble de données peuvent être lues ou extraites. A l’étape 301 , des données de visualisation (position et orientation) peuvent être également reçues.

[0082] Un rendu 3D de la probabilité de détection du capteur est alors déterminé à partir de certaines au moins des données de probabilité, des données de position de la zone de calcul et des données de dimension.

[0083] Dans un mode de réalisation, pour générer le rendu 3D, le procédé peut comprendre une étape 303 dans laquelle une structure de données principale ayant au moins trois dimensions (particulier 3D ou 4D), encore appelée classiquement Texture 3D’ est déterminée à partir des données de probabilité de détection. La structure de données peut être par exemple une matrice.

[0084] Dans un mode de réalisation, l’ensemble de données d’entrée peut comprendre en outre la résolution d’entrée, la résolution d’entrée correspondant à la distance entre deux points de la zone de calcul. L’étape 303 de détermination de la structure de données peut alors comprendre les étapes consistant à :

- générer une structure de données auxiliaire à partir des données des probabilités de détection, la structure de données auxiliaire ayant des dimensions définies à partir de la probabilité, et de la résolution d’entrée, et

- déterminer la texture 3D en utilisant une conversion des données de la structure auxiliaire en données colorimétriques. [0085] A l’étape 305, un rendu de profondeur du volume englobant de zone de calcul peut être déterminé à partir des données de position et de dimension de la zone de calcul, et des données de position et d’orientation de visualisation.

[0086] En particulier, l’étape 305 de détermination du rendu de profondeur peut comprendre la détermination d’une première image de profondeur d’un cube englobant la structure de données et d’une seconde image de profondeur de la face arrière du cube. La profondeur du cube englobant la structure de données principale (Texture 3D) représentant la distance de la surface du cube par rapport à la position et à l’orientation de visualisation (profondeur Z ou ‘Z-depth’ en langue anglo-saxonne), le rendu de profondeur comprenant la première image de profondeur et la seconde image de profondeur. Une image de profondeur comprend un ensemble de surfaces associées à des informations de position. Dans un mode de réalisation, la seconde image de profondeur peut être déterminée en tant que l’image de profondeur du cube dont les normales ont été inversées, correspondant à l’image de profondeur de la face arrière du cube au point de vue.

[0087] Dans un mode de réalisation, le rendu 3D peut être un rendu volumique. Dans un tel mode de réalisation, à l’étape 307, il est déterminé un rendu volumique de la probabilité de détection suivant au moins une fonction dans un espace colorimétrique donné à partir de la structure de données principale (Texture 3D) et du rendu de profondeur.

[0088] Dans un mode de réalisation, les fonctions utilisées pour déterminer le rendu volumique peuvent comprendre au moins une fonction de transfert définie à partir d’une borne de probabilité minimale, d’une borne de probabilité maximale, d’une borne de colorimétrie minimale, et d’une borne de colorimétrie maximale.

[0089] Chaque information d’une image de profondeur associée à des dimensions géométriques x, y, z peut être définie dans un espace colorimétrique, par exemple dans le format de codage RGBA.

[0090] Dans un mode de réalisation, l’étape 307 de détermination d’un rendu volumique peut comprendre :

- une étape 3071 de détermination d’un rendu volumique en niveaux de gris des probabilités de détection à partir de la texture 3D et du rendu de profondeur et

- une étape 3073 de détermination d’un rendu volumique en couleurs des probabilités de détection à partir du rendu volumique en niveaux de gris. [0091 ] Dans un mode de réalisation, le rendu volumique en niveaux de gris peut être déterminé à partir de la texture 3D, de la première image de profondeur, et la seconde image de profondeur en appliquant un algorithme (ou technique) de calcul de rendu volumique de type lancer de rayons par accumulation (‘Ray Marching’ en langue anglo- saxonne).

[0092] Un algorithme de type Ray Marching est illustré sur la figure 4 dans un mode de réalisation utilisant le codage RGBA. Un algorithme de type Ray Marching se base sur l’optique géométrique pour simuler le trajet de l’énergie lumineuse dans l’image à afficher. Un plan de projection 403, placé devant un point de vue 401 , représente l’image visualisée (c’est-à-dire le rendu volumique en niveaux de gris). Chaque point du plan de projection 403 correspond à un pixel du rendu volumique en en niveaux de gris. La mise en oeuvre de l’étape 307 en appliquant un algorithme de type Ray Marching selon les modes de réalisation de l’invention peut comprendre la génération d’un rayon 407 (défini par un point d’origine et une direction) pour chaque pixel de l’image désirée du rendu volumique en niveaux de gris. Le rayon peut être échantillonné à pas réguliers à l’intérieur du volume 405 et les valeurs dans l’espace colorimétrique (couleurs RGBA par exemple) des différents pixels ainsi calculées peuvent être sommées au prorata de leur contribution de transparence Alpha. L’algorithme traverse, dans la direction du plan de projection 403, les volumes orientés des résultats représentant les probabilités de détection, tout en collectant pas-à-pas les valeurs de probabilité. La valeur d’un pixel affiché constitue le résultat d’une fonction (par exemple fonction de transfert) des valeurs collectées.

[0093] Pour chaque point du plan de projection, chaque point correspondant à un pixel du rendu volumique, l’algorithme de type Ray Marching peut être appliqué pour calculer une valeur de probabilité cumulée par un rayon 407 partant de l’avant du cube englobant la texture 3D jusqu’à l’arrière du cube.

[0094] Dans un mode de réalisation, l’application d’un algorithme de type Ray Marching à l’étape 307 peut comprendre les opérations consistant à, pour chaque pixel du rendu volumique et pour chaque mise à jour des probabilités de détection :

- déterminer les positions 3D de départ et d’arrivée du rayon 407 à partir des valeurs lues de couleurs des textures de la première image de profondeur et de la seconde image de profondeur pour le pixel sélectionné ;

- calculer un vecteur de déplacement pas-à-pas pendant un nombre d’itérations donné ou prédéterminé, à partir du vecteur de déplacement de direction du rayon 407, de la distance du pas des itérations déterminée en divisant la distance totale par le nombre d’itérations, et en multipliant le vecteur de déplacement de direction par la distance du pas.

[0095] Pour chaque itération, la détermination d’une couleur représentant une valeur de probabilité pour un pixel sélectionné peut comprendre les opérations consistant à :

- mettre à jour la position du parcours du rayon 407 en ajoutant le vecteur de déplacement ;

- associer une valeur de niveau de gris à la couleur de probabilité correspondant à la position mise à jour dans la texture 3D, une telle couleur représentant un niveau de gris associé à la probabilité correspondante : par exemple, une valeur‘noire’ peut être associée à une probabilité proche de zéro (Ό’) et une valeur‘blanc’ peut être associée à une probabilité proche de un (‘1’) ;

- déterminer la composante de transparence Alpha de la valeur de la couleur ;

- appliquer une fonction dans l’espace colorimétrique (par exemple de transfert) ;

- ajouter la couleur déterminée à la couleur du pixel résultant de l’algorithme.

[0096] Dans un mode de réalisation, la fonction de transfert peut être une fonction logicielle configurée pour exécuter une interpolation linéaire ou non-linéaire, entre une borne de couleurs minimale et une borne de couleurs maximale, l’espace colorimétrique dans lequel est déterminé le rendu volumique représentant une probabilité de détection comprise entre une borne de probabilité minimale et une borne de probabilité maximale.

[0097] Par exemple, à l’étape 3073, un rendu volumique en couleurs des probabilités de détection est déterminé à partir du rendu volumique en niveaux de gris des probabilités de détection déterminé à la sous-étape 3071 , le rendu volumique en couleurs peut être déterminé en appliquant une fonction de transfert de couleurs au rendu volumique en niveaux de gris, la fonction de transfert de couleurs utilisant la borne de probabilité minimale, la borne de probabilité maximale, la borne de couleurs minimale, et la borne de couleurs maximale. La fonction de transfert de couleurs peut alors par exemple exécuter une interpolation linéaire, entre la borne de couleurs minimale et la borne de couleurs maximale, les couleurs du rendu volumique représentant une probabilité de détection comprise entre la borne de probabilité minimale et la borne de probabilité maximale.

[0098] Dans un autre mode de réalisation, le rendu 3D peut être surfacique. Le procédé comprend alors, en alternative des étapes 303, 305 et 307 une étape 31 1 consistant à déterminer un rendu surfacique à partir des probabilités de détection, des données de position de la zone de calcul, des données de dimensions, d’au moins une valeur de seuil des probabilités de détection, et de la position et de l’orientation de visualisation.

[0099] En particulier, l’étape 31 1 de détermination du rendu surfacique peut comprendre la génération d’objets polygonaux à partir de la matrice de données en trois dimensions pour approximer au moins une iso-surface conduit à partir d’au moins un seuil de probabilité de détection donné (‘Marching cube’ en langue anglo-saxonne).

[0100] Les fonctions de calcul des probabilités de détection et de la détermination de la texture peuvent être des fonctions logicielles exécutées par une unité de traitement ou processeur. Les fonctions mises en oeuvre dans le processus du rendu peuvent être des programmes logiciels appelés ‘nuanceurs’ ou ‘shaders’ en langue anglo-saxonne, exécutées par une unité de traitement graphique.

[0101 ] Le procédé selon les différents modes de réalisation de l’invention peut être implémenté dans un système de détection en mode‘préparation de mission’ ou en mode‘en ligne’. Le mode‘préparation de mission’ permet d’optimiser le déplacement du système de détection en simulant un scénario basé sur une mission future. Le mode‘en ligne’ consiste à implémenter le procédé en couplant le système de détection aux liaisons tactiques. Dans ce mode‘en ligne’, les positions, les vitesses, et les caps réels des différentes structures porteuses ainsi que l’utilisation de leurs différents capteurs peuvent être utilisés pour mettre à jour les paramètres définissant l’environnement et permettant de générer une représentation en temps réel. Les données recueillies à bord du système de détection‘en ligne’ peuvent être converties en informations utilisables pour les mises à jour des probabilités de détection.

[0102] La figure 5 représente un exemple de couverture spatiale d’un système de détection de type sonar utilisé dans un dispositif de lutte-anti-sous-marins obtenue en utilisant une technique d’affichage de probabilités de détection de l’art antérieur. Cette représentation est générée à partir d’une matrice de probabilités de détection du système de détection en fonction de la distance par rapport à l’antenne du système de détection et de la profondeur entre la surface et le fond marin, en utilisant avec un codage couleurs permettant d’évaluer la capacité du sonar à détecter une menace. Dans l’exemple de la figure 5, la zone 1 qui correspond à une zone associée à 100% de probabilité de détecter une menace (une plateforme ennemie par exemple) et la zone 2 correspond à une zone associée à 0% de probabilité de détecter une menace. Les formes ainsi obtenues sont complexes et non-uniformes.

[0103] La figure 6 est une représentation schématique des zones de détection théorique cible dans un dispositif de lutte-anti-sous-marine utilisant des cercles pour identifier la protection prévue d’une flotte navale contre une menace éventuelle et la figure 7 est une représentation schématique des zones de détection réaliste obtenues en utilisant des méthodes d’affichage de la couverture spatiale de l’état de l’art. Les deux figures montrent que la zone globale de détection réelle est éloignée de la zone globale de détection théorique souhaitée, ce qui ne permet pas d’assurer une surveillance préventive efficace afin de protéger de la flotte navale et peut représenter un danger en présence de menaces éventuelles.

[0104] La figure 7 représente un exemple d’affichage sur écran d’une couverture spatiale d’un système de détection de type sonar multi-capteur obtenue selon un mode de réalisation avec rendu volumique des probabilités de détection du système de détection. Comme illustré par la figure 7, la représentation en trois dimensions de la couverture spatiale selon l’invention permet d’afficher une vue globale de la zone complète en trois dimensions, de couvrir une zone très importante à l’échelle de la flotte navale, et de mettre en évidence les zones dangereuses non insonifiées et les cuvettes de non détection.

[0105] La figure 8 représente un exemple d’affichage en mode réalité augmentée d’une couverture spatiale multi-capteur obtenue selon les modes de rendu volumique des probabilités de détection du sonar selon les modes de réalisation de l’invention.

[0106] L’invention fournit aussi un dispositif pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le dispositif est configuré pour :

- déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ;

- calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ;

- déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ;

- sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système. [0107] L’invention fournit en outre un produit programme d’ordinateur pour déterminer une couverture spatiale d’un système de détection multi-capteur comprenant une pluralité de capteurs, ladite pluralité de capteurs étant portée par des structures porteuses évoluant dans une zone géographique donnée, certaines au moins des structures porteuses étant mobiles, caractérisé en ce que le produit programme d’ordinateur comprenant des instructions de code de programme informatique qui, lorsqu’elles sont exécutées par un ou plusieurs processeurs amènent le ou les processeurs à:

- déterminer un ensemble de paramètres représentant ladite zone géographique et comprenant des données d’environnement, des données relatives auxdites structures porteuses et des données relatives auxdits capteurs ;

- calculer itérativement les probabilités de détection de ladite pluralité de capteurs dans la zone géographique à partir de certains au moins desdits paramètres ;

- déterminer une représentation en trois dimensions de la couverture spatiale du système de détection pour la pluralité de capteurs ;

- déterminer des zones d’ombre 3D de ladite zone géographique dans lesquelles ladite probabilité de détection est inférieure à au moins un seuil donné ;

sélectionner les zones d’ombres situées dans au moins une zone de sécurité prédéfinie du système.

[0108] La figure 10 représente le dispositif 4000 de détermination d’une représentation en trois dimensions de la couverture spatiale d’un système de détection (par exemple de type sonar) évoluant dans une zone géographique (scène marine par exemple) à partir de l’ensemble de données comprenant les probabilités de détection du système de détection. L’ensemble de données peut être sauvegardé par exemple dans une mémoire 430 ou dans un dispositif de mémoire de masse 420. Le dispositif 4000 peut être tout type de dispositif ou système informatique désigné sous le nom d’ordinateur. Le dispositif 4000 peut comprendre au moins une unité de traitement 4010 configurée pour déterminer un rendu 3D des probabilités de détection à partir de certaines au moins des données de probabilités, des données de position de la zone de calcul et des données de dimension. Dans un mode de réalisation, le rendu 3D (en trois dimensions) des probabilités de détection peut en outre être déterminé à partir des données de visualisation (données de position et d’orientation).

[0109] Le dispositif 4000 peut en outre inclure une mémoire 430, une base de donnée 420 faisant partie d’un dispositif de mémoire de stockage de masse, une interface d’entrée/sortie E/S 470, et une interface Homme-Machine 410 pour recevoir des entrées ou retourner des sorties de/à un opérateur du système de détection. L’interface 410 peut être utilisée par exemple pour configurer ou paramétrer différents paramètres ou fonctions utilisées par le procédé de détermination de représentation selon certains modes de réalisation de l’invention, tels que la configuration du rendu volumique des probabilités de détection. Les ressources externes peuvent inclure, mais sans s’y limiter, des serveurs, des bases de données, des dispositifs de stockage de masse, des dispositifs périphériques, des services de réseau en nuage (cloud), ou toute autre ressource informatique appropriée qui peut être utilisée avec le dispositif 4000.

[01 10] L’unité de traitement 4010 peut inclure un ou plusieurs dispositifs sélectionnés parmi des microprocesseurs, des microcontrôleurs, des processeurs de signal numérique, des micro-ordinateurs, des unités centrales de traitement, des réseaux de portes programmables, des dispositifs logiques programmables, des machines à état défini, des circuits logiques, des circuits analogiques, des circuits numériques, ou tout autre dispositif servant à manipuler des signaux (analogues ou numériques) basé sur des instructions de fonctionnement enregistrées dans la mémoire 430. La mémoire 430 peut inclure un seul dispositif ou une pluralité de dispositifs de mémoire, notamment mais sans s’y limiter, la mémoire à lecture seule (‘read-only memory’ (ROM)), la mémoire à accès aléatoire (‘random access memory’ (RAM)), la mémoire volatile, la mémoire non volatile, la mémoire vive statique (SRAM), la mémoire dynamique à accès aléatoire (DRAM), la mémoire flash, l'antémémoire (cache memory) ou tout autre dispositif capable de stocker des informations. Le dispositif de mémoire de masse 420 peut inclure des dispositifs de stockage de données tels qu'un disque dur, un disque optique, un dérouleur de bande magnétique, un circuit à l'état solide volatile ou non volatile ou tout autre dispositif capable de stocker des informations. Une base de données peut résider sur le dispositif de stockage de mémoire de masse 420.

[01 1 1 ] L’unité de traitement 4010 peut fonctionner sous le contrôle d'un système d'exploitation 440 qui réside dans la mémoire 430. Le système d'exploitation 440 peut gérer les ressources informatiques de telle façon que le code de programme de l'ordinateur, intégré sous forme d'une ou de plusieurs applications logicielles, telles que l'application 450 qui réside dans la mémoire 430, puisse disposer d'instructions exécutées par l’unité de traitement 4010. Le dispositif 4000 peut comprendre une unité de traitement graphique 4030 implémentée sur une carte graphique, sur une carte-mère, ou dans une unité centrale de traitement. L’unité de traitement graphique peut générer un affichage du rendu 3D sur un dispositif d’affichage.

[01 12] En général les routines exécutées pour mettre en oeuvre les modes de réalisation de l'invention, qu'elles soient mises en oeuvre dans le cadre d'un système d'exploitation ou d'une application spécifique, d'un composant, d'un programme, d'un objet, d'un module ou d'une séquence d'instructions, ou même d’un sous-ensemble de ceux-là, peuvent être désignées comme “code de programme informatique” ou simplement“code de programme”. Le code de programme comprend typiquement des instructions lisibles par ordinateur qui résident à divers moments dans des dispositifs divers de mémoire et de stockage dans un ordinateur et qui, lorsqu'elles sont lues et exécutées par un ou plusieurs processeurs dans un ordinateur, amènent l’ordinateur à effectuer les opérations nécessaires pour exécuter les opérations et/ou les éléments propres aux aspects variés des modes de réalisation de l'invention. Les instructions d'un programme, lisibles par ordinateur, pour réaliser les opérations des modes de réalisation de l'invention peuvent être, par exemple, le langage d'assemblage, ou encore un code source ou un code objet écrit en combinaison avec un ou plusieurs langages de programmation.

[01 13] L'invention n'est pas limitée aux modes de réalisation décrits ci-avant à titre d’exemple non limitatif. Elle englobe toutes les variantes de réalisation qui pourront être envisagées par l'homme du métier.