Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
VISION-BASED AUTONOMOUS NAVIGATION SYSTEM AND METHOD FOR A SATELLITE
Document Type and Number:
WIPO Patent Application WO/2023/094347
Kind Code:
A1
Abstract:
The invention relates to a system and method for autonomous navigation of a host satellite equipped with movement and orientation means, a control unit for these means, and at least one on-board image-acquisition camera, said method comprising the following steps: acquiring (E1) a plurality of images; default processing of said images, referred to as long-range processing (E2), configured to detect and identify space objects and to calculate their relative orbits; conditionally processing said acquired images, referred to as short-range processing (E3), configured to estimate the attitude of at least one of said detected space objects, referred to as the target object, during the long-range processing, this step being implemented when said long-range step detects at least one space object located at an estimated distance less than a predetermined threshold distance; determining a possible encounter (E4) between at least said target object and the host satellite; preparing and transmitting instructions (E5) to said control unit of said movement means on the basis of at least one encounter and/or risk of collision determined in the preceding step.

Inventors:
KOUMANDAKIS EMMANUEL (FR)
NEDUNGADI MARCO (SG)
GULATI AKSHAY (SG)
PIAZZA MASSIMO (FR)
AGUINAGA ADRIAN (FR)
Application Number:
PCT/EP2022/082716
Publication Date:
June 01, 2023
Filing Date:
November 22, 2022
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
INFINITE ORBITS (FR)
International Classes:
B64G1/24; B64G1/10; B64G1/36; B64G1/68; G01C21/00; G06T7/00
Domestic Patent References:
WO2021200055A12021-10-07
WO1995003215A11995-02-02
Foreign References:
US20160363451A12016-12-15
US9944412B22018-04-17
EP2360621A12011-08-24
Other References:
OPROMOLLA ROBERTO ET AL: "A review of cooperative and uncooperative spacecraft pose determination techniques for close-proximity operations", PROGRESS IN AEROSPACE SCIENCES, OXFORD, GB, vol. 93, 21 July 2017 (2017-07-21), pages 53 - 72, XP085191302, ISSN: 0376-0421, DOI: 10.1016/J.PAEROSCI.2017.07.001
POMARES JORGE ET AL: "Spacecraft visual servoing with adaptive zooming for non-cooperative rendezvous", 2018 IEEE AEROSPACE CONFERENCE, IEEE, 3 March 2018 (2018-03-03), pages 1 - 8, XP033365234, DOI: 10.1109/AERO.2018.8396472
Attorney, Agent or Firm:
BRINGER IP (FR)
Download PDF:
Claims:
REVENDICATIONS Procédé de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, et d’au moins une caméra embarquée d’acquisition d’images de l’environnement dudit satellite, ledit procédé étant caractérisé en ce qu’il comprend les étapes suivantes :

- une étape d’acquisition (El) d’une pluralité d’images par ladite caméra embarquée,

- une étape de traitement par défaut desdites images acquises, dit traitement longue distance (E2), configuré pour détecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude du satellite hôte,

- une étape de traitement conditionnel desdites images acquises, dit traitement courte distance (E3), configuré pour estimer l’attitude d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, lors du traitement longue distance, ladite étape courte distance étant mise en œuvre lorsque ladite étape longue distance détecte au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,

- une étape de détermination (E4) d’un possible rendez- vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,

- une étape d’élaboration (E5) et de transmission d’instructions de commande à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction d’au moins un rendez- vous déterminé à l’étape précédente. Procédé de navigation selon la revendication 1 , caractérisé en ce que ladite étape de traitement longue distance (E2) comprend en outre : un seuillage des images, un regroupement (302) de différents points des images seuillées, - un calcul des centres (303) des differents regroupements de 1 image,

- un classement et filtrage des différents regroupements formant lesdits objets spatiaux et célestes détectés. Procédé de navigation selon la revendication 2, caractérisé en ce que ladite étape de traitement longue distance (E2) comprend en outre :

- une comparaison (304) desdits objets spatiaux et célestes détectés avec un catalogue (305) prédéterminé d’objets célestes pour identifier au moins un objet céleste parmi les objets détectés,

- une détermination d’attitude (307) dudit satellite hôte à partir d’une position d’au moins un des objets célestes identifiés. Procédé de navigation selon la revendication 3 , caractérisé en ce que ladite étape de traitement longue distance (E2) comprend en outre :

- un calcul de la position (309) d’au moins un objet spatial détecté et identifié au sein de l’image, dit objet cible (308),

- un calcul des caractéristiques orbitales (310) dudit objet cible à partir de la détermination de l’attitude du satellite hôte et de la position dudit objet cible calculé. Procédé de navigation selon l’une des revendications 3 ou 4, caractérisé en ce que ladite étape de détermination d’attitude (307) comprend :

- la mise en œuvre d’un filtre de Kalman étendue à partir d’une première estimation de la vitesse angulaire et d’attitude du satellite hôte et de la position d’au moins un objet céleste identifié. Procédé de navigation selon l’une des revendications 1 à 5, caractérisé en ce que ladite étape de traitement courte distance (E3) comprend :

- une détection d’une zone d’intérêt (402) comprenant l’objet cible d’intérêt par exécution d’un premier réseau de neurones,

- une détection de points de repères régressive (403) dans ladite zone d’intérêt détecté par exécution d’un deuxième réseau de neurones,

- une estimation de la pose (404) de l’objet cible à partir des points de repères détectés à l’étape précédente.

7. Procédé de navigation selon 1 une des revendications 1 a 6, caractérisé en ce que ladite étape de détermination (E4) d’un possible rendez-vous comprend :

- une estimation de la trajectoire du satellite hôte à partir d’un modèle linéarisé de la dynamique du satellite,

- un calcul de probabilité de collision avec un objet spatial identifié.

8. Procédé de navigation selon l’une des revendications 1 à 7, caractérisé en ce que ladite étape d’élaboration et de transmission d’instructions de commande (E5) à destination de ladite unité de commande comprend :

- une simulation dynamique de vol dudit satellite hôte,

- une modélisation des commandes à partir de ladite simulation dynamique,

- une répétition des étapes précédentes jusqu’à atteindre ou éviter ledit objet cible.

9. Système de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, ledit système étant caractérisé en ce qu’il comprend

- au moins une caméra (10) d’acquisitions d’une pluralité d’images de l’environnement dudit satellite hôte,

- un module de traitement par défaut desdites images acquises, dit module longue distance (21), configuré pour détecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude dudit satellite hôte,

- un module de traitement conditionnel desdites images acquises, dit module courte distance (22), configuré pour estimer l’attitude d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, par ledit module longue distance, ledit module courte distance étant mis en œuvre lorsque ledit module longue distance a détecté au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,

- un module de détermination (23) d’un possible rendez-vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,

- un module d’élaboration et de transmission d’instructions de commande (24) à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction desdits rendez- vous déterminés par ledit module de détermination des rendez-vous. Système de navigation selon la revendication 9, caractérisé en ce qu’il comprend une caméra d’acquisitions d’images destinée à fournir des images au module de traitement longue distance et une caméra d’acquisitions d’images destinée à fournir des images au module de traitement courte distance.

Description:
DESCRIPTION

TITRE DE L’INVENTION : SYSTEME ET PROCEDE DE NAVIGATION AUTONOME BASE VISION D’UN SATELLITE

Domaine technique de l’invention

L’invention concerne la navigation autonome de satellites. L’invention concerne plus particulièrement un système et procédé de navigation autonome d’un satellite équipé d’au moins une caméra d’acquisition d’images.

Arrière-plan technologique

On estime à ce jour à plus de 2 700 le nombre de satellites opérationnels en orbite autour de la terre et à plus de 900000 le nombre de débris spatiaux mesurant plus d’ 1 cm. L’ensemble de ces objets spatiaux (satellites et débris) se déplacent à très hautes vitesses (de l’ordre de 3 000 m/s en orbite géo stationnaire).

Dans tout le texte, on désigne par la terminologie de « débris spatial » un objet artificiel en orbite non fonctionnel. Il peut s’agir d’un boulon, d’un éclat de peinture, d’un étage de lanceur, d’un satellite « mort », d’un reste d’une explosion d’un engin spatial, etc.

Dans tout le texte, on désigne par la terminologie « objet spatial » ou « cible », tout objet en orbite tel qu’un débris spatial ou un satellite fonctionnel. En d’autres termes, la notion d’objet spatial ou de cible couvre à la fois les satellites opérationnels et les débris spatiaux.

Dans tout le texte, on désigne par la terminologie « objet céleste », tout objet non artificiel tel qu’une étoile, une comète, une galaxie susceptible d’être présent dans une image acquise.

Dans tout le texte, la terminologie « objet », sans précision, fait référence soit à un « objet céleste » soit à un « objet spatial ».

La grande quantité de ces objets spatiaux résidants en orbite ainsi que leur forte augmentation impose de disposer de solutions permettant un pilotage réactif des satellites opérationnels pour éviter notamment les collisions avec ces objets spatiaux.

De même, la diversification et massification des satellites en orbite génère 1 emergence d un marche de services en orbite, particulièrement de 1 extension de vie pour les satellites commercialement opérationnels en fin de cycle de vie.

Aussi, un système de navigation assurant le déplacement du satellite de service vers des éventuels points de rendez-vous ainsi que le maintien à poste du satellite hôte s’avère désormais nécessaire.

A ce jour, la plupart des satellites sont pilotés depuis des stations-sol par des opérateurs humains. Or, l’environnement encombré susmentionné rend aujourd’hui l’intervention humaine peu compatible avec l’exigence de très grande réactivité nécessaire à la conservation de l’intégrité des satellites.

H existe donc un besoin de disposer d’une solution totalement autonome permettant une navigation sans intervention humaine des satellites en orbite.

Il existe déjà des tentatives de proposer des solutions de navigation semi- autonome faisant intervenir plusieurs capteurs complexes tels que des LiDAR, mais la présence humaine reste souvent nécessaire, par exemple pour valider les trajectoires de navigation déterminées à partir des données issues des différents capteurs. En outre ces solutions équipées de LiDAR sont volumineuses, massives, consomment beaucoup d’énergie de telle sorte que les coûts correspondants sont élevés.

Les inventeurs ont donc cherché à proposer une nouvelle solution de pilotage automatique des satellites à partir d’images fournies par des caméras monoculaires, monochromatiques ou poly chromatiques.

Objectifs de l’invention

L’invention vise à fournir un système et procédé de navigation autonome de satellites.

L’invention vise en particulier à fournir un tel système et procédé qui permettent une navigation autonome d’un satellite à partir d’un lot d’images, par exemple monochromatiques, acquises par au moins une caméra embarquée à bord du satellite.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui concourent au déplacement du satellite vers un point de rendez- vous prédéterminé ou vers un objet cible spatial non-coopératif. L invention vise aussi a fournir, dans au moms un mode de realisation, un tel système et procédé, qui permettent une inspection de l’environnement du satellite.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent la détermination de l’attitude du satellite.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent une inspection et un suivi d’un objet cible.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent une détermination de pose (attitude et position relative) d’un objet cible.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé, qui permettent de détecter des débris spatiaux et d’éviter les collisions avec les objets spatiaux environnants.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui ne nécessitent pas d’embarquer des capteurs complexes tels que des LiDAR, des radars et équipements équivalents.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui limitent l’encombrement et poids des équipements nécessaires à sa mise en œuvre.

L’invention vise aussi à fournir, dans au moins un mode de réalisation, un tel système et procédé qui limitent l’énergie nécessaire pour sa mise en œuvre.

Enfin, l’invention vise un satellite équipé d’un système selon l’invention et mettant en œuvre un procédé selon l’invention.

Exposé de l’invention

Pour ce faire, l’invention concerne un procédé de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, et d’au moins une caméra embarquée d’acquisition d’images de l’environnement dudit satellite.

Le procédé selon l’invention est caractérisé en ce qu’il comprend les étapes suivantes : une étape d’acquisition d’une pluralité d’images par ladite caméra embarquee,

- une étape de traitement par défaut desdites images acquises, dit traitement longue distance, configuré pour détecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude du satellite hôte,

- une étape de traitement conditionnel desdites images acquises, dit traitement courte distance, configuré pour estimer la pose d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, lors du traitement longue distance, ladite étape courte distance étant mise en œuvre lorsque ladite étape longue distance détecte au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,

- une étape de détermination d’un possible rendez-vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,

- une étape d’élaboration et de transmission d’instructions de commande à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction d’au moins un rendez-vous déterminé à l’étape précédente.

Le procédé selon l’invention permet donc une navigation totalement autonome du satellite sans intervention humaine à partir d’images de l’environnement du satellite acquises par une caméra embarquée. L’ensemble des opérations d’acquisition des images, de traitement des images, de calcul et de détermination des trajectoires et paramètres de vol est fait à bord du satellite hôte sans intervention extérieure.

Le procédé selon l’invention permet de conférer au satellite hôte une conscience situationnelle dans l’espace, c’est-à-dire qu’il peut obtenir des informations de son environnement et adapter sa trajectoire et/ou orientation en fonction de ces informations. Ces informations sont exclusivement issues des images acquises par au moins une caméra embarquée sur le satellite. Le procédé selon 1 invention n utilise aucun capteur autre que des cameras d acquisition d’images pour assurer la navigation autonome du satellite.

Le procédé selon l’invention met en œuvre deux étapes de traitement d’images distinctes selon la distance des objets cibles identifiés, ce qui permet une navigation fine du satellite en fonction des objets identifiés. A proximité d’un objet cible (en pratique, la distance seuil est fixée à 250 mètres pour les dimensions typiques des satellites géostationnaires - de l’ordre de 2 mètres de diamètre), le procédé bascule d’un mode de traitement longue distance à un traitement courte distance qui permet d’estimer la position, l’orientation et la vitesse de l’objet cible afin de manœuvrer le satellite en conséquence (approche ou évitement).

Avantageusement et selon l’invention ladite étape de traitement longue distance comprend en outre :

- un seuillage des images,

- un regroupement de différents points des images seuillées,

- un calcul des centres des différents regroupements de l’image,

- un classement et filtrage des différents regroupements formant lesdits objets spatiaux et célestes détectés.

Selon cette variante avantageuse, la détection initiale des objets spatiaux et/ou célestes consiste à reconnaitre des regroupements (plus connus sous la dénomination anglais de « clusters ») au sein des images acquises et à les classer et filtrer pour supprimer notamment les reflets et points chauds. Ces étapes sont mises en œuvre par exemple par un algorithme de partitionnement des données tel que celui connu sous l’acronyme anglais DBSCAN pour « Density -based spatial clustering of applications with noise ».

Avantageusement et selon l’invention, ladite étape de traitement longue distance comprend en outre : une comparaison desdits objets spatiaux et célestes détectés avec un catalogue prédéterminé d’objets célestes pour identifier au moins un objet céleste parmi les objets détectés, - une determination d attitude dudit satellite hôte a partir d une position d’au moins un des objets célestes identifiés.

Selon cette variante avantageuse, la détermination de l’attitude du satellite hôte s’appuie sur la détection et la reconnaissance d’objets célestes au sein des images acquises. Cela est rendu possible en identifiant des étoiles au sein des images par comparaison des objets détectés à un catalogue de référence, par exemple le catalogue Hipparcos-2. On analyse les angles entre les étoiles potentielles identifiées pour reconnaitre une configuration similaire à une configuration du catalogue susmentionné. Cette technique fondée sur les angles permet de déterminer que tel objet céleste identifié au sein de l’image correspond à tel objet céleste du catalogue de référence.

Une fois les étoiles identifiées, on procède à une estimation de l’attitude.

Avantageusement et selon l’invention, ladite étape de détermination d’attitude comprend la mise en œuvre d’un filtre de Kalman étendue (EKF) à partir d’une première estimation de la vitesse angulaire et d’attitude du satellite hôte et de la position d’au moins un objet céleste identifié (de préférence de trois objets célestes identifiés).

En d’autres termes, selon cette variante, la détermination de l’attitude du satellite hôte consiste à utiliser un filtre de Kalman étendue à qui est présenté, en entrée, la position d’au moins une étoile (de préférence de trois étoiles) et une première estimation de la vitesse angulaire du satellite hôte, et qui fournit en sortie une estimation de l’attitude du satellite hôte.

Cette première estimation de la vitesse angulaire peut par exemple être obtenue par la mise en œuvre successive (deux fois au minimum) d’un scénario connu sous la dénomination anglaise de « Lost In Space » qui consiste à comparer la totalité d’un catalogue d’étoiles avec les étoiles détectées dans les images acquises. On peut ainsi déterminer la variation de position du satellite hôte entre les deux scénarios, ce qui permet de dériver une première estimation de la vitesse angulaire du satellite hôte. Avantageusement et selon 1 invention, ladite etape de traitement longue distance comprend :

- un calcul de la position d’ au moins un objet spatial détecté et identifié au sein de l’image, dit objet cible,

- un calcul de caractéristiques orbitales dudit objet cible à partir de la détermination de l’attitude du satellite hôte et de la position dudit objet cible calculé.

Selon cette variante avantageuse, le calcul de l’orbite relative de chaque objet cible consiste à utiliser des filtres de navigation basés sur les angles de l’objet cible. Lors du traitement longue distance, la cible étant située à une distance supérieure à la distance seuil prédéterminée et donc trop loin de la caméra pour percevoir les angles de l’objet cible, on utilise les angles apparents au sein du champ de vision de la caméra pour déterminer la navigation relative du satellite hôte.

Avantageusement et selon l’invention, ladite étape de traitement courte distance comprend :

- une détection d’une zone d’intérêt comprenant l’objet cible d’intérêt par exécution d’un premier réseau de neurones,

- une détection de points de repères régressive dans ladite zone d’intérêt détecté par exécution d’un deuxième réseau de neurones,

- une estimation de pose de l’objet cible à partir des points de repères détectés à l’étape précédente.

Selon cette variante avantageuse, l’étape de traitement courte distance commence par la séparation de l’objet cible d’intérêt (satellite cible, débris, etc.) de son arrière-plan. Cela est réalisé par un modèle de réseau neuronal par apprentissage (plus connu sous la dénomination anglaise de « deep learning »). Il peut par exemple mettre en œuvre l’algorithme connu sous l’acronyme YOLO pour « You Only Look Once » qui permet de détecter des objets en divisant l’image en un système de grille dont chaque cellule est traitée pour la détection d’un objet. La première étape permet ainsi de reconnaitre la région d’intérêt et de fournir une première estimation de la position de l’objet cible. Une deuxième étape permet de detecter des points d intérêt de 1 objet cible. Cela est obtenu par un deuxieme reseau neuronal entraîné pour réaliser une détection des points de repère régressive (aussi désigné dans le texte par l’acronyme anglais LRN pour « Landmark Regressive Network »). Cette sous-étape peut par exemple mettre en œuvre l’architecture connue sous l’acronyme anglais HRNet pour « High Resolution Network ».

Enfin, une troisième étape permet d’estimer la pose de l’objet cible à partir des points d’intérêts décelés à l’étape précédente et en cherchant la meilleure estimation de pose possible à partir, par exemple, d’une connaissance a priori de l’architecture 3D de la cible. Cela peut être obtenu par la mise en œuvre de l’algorithme connu sous l’acronyme anglais EPnP pour « Efficient Perspective-n- Point ».

Selon une autre variante, il est possible de déterminer l’architecture 3D de l’objet cible par des techniques de photogrammétrie, ce qui permet de se passer d’une connaissance a priori de l’architecture 3D de l’objet cible.

Le traitement courte distance est effectué uniquement si un objet cible détecté et identifié au cours de l’étape de traitement longue distance est situé à une distance du satellite cible inférieure à une distance seuil prédéterminée. Cette étape de traitement courte distance vise à déterminer la pose de l’objet cible pour pouvoir déterminer les consignes de navigation du satellite hôte.

Avantageusement et selon l’invention, ladite étape de détermination d’un possible rendez-vous comprend :

- une estimation de la trajectoire du satellite hôte à partir d’un modèle linéarisé de la dynamique du satellite,

- un calcul de probabilité de collision avec un objet spatial identifié.

Selon cette variante, l’estimation de trajectoire s’appuie sur un modèle linéarisé de la dynamique du satellite hôte à partir, par exemple, des équations de Clohessy-Wiltshire. Un calcul de probabilité de collision peut également être effectué dans le cas d’un débris pour estimer une probabilité de collision entre le satellite hôte et le débris. Avantageusement et selon 1 invention, ladite etape d elaboration et de transmission d’instructions de commande à destination de ladite unité de commande comprend :

- une simulation dynamique de vol dudit satellite hôte,

- une modélisation des commandes à partir de ladite simulation dynamique,

- une répétition des étapes précédentes jusqu’à atteindre ou éviter ledit objet cible.

Selon cette variante avantageuse, la dernière étape du procédé consiste à élaborer les commandes de pilotage du satellite pour éviter la collision dans le cas d’un débris ou au contraire pour assurer le rendez-vous dans le cas d’un satellite à rejoindre. Cette étape s’appuie sur les trajectoires déterminées à l’étape précédente et met en œuvre une simulation dynamique du vol du satellite hôte et un modèle de commande. Dans le cas d’un rendez-vous souhaité, les commandes sont optimisées pour minimiser différents paramètres tels que la distance à parcourir, la consommation d’ergols ou le nombre de manœuvres. Cette optimisation peut dépendre de contraintes fonctions des objets cibles ou d’état du satellite hôte (réserves d’ergols, état des batteries, sûreté renforcée, etc.).

Selon une variante de l’invention, cette étape de détermination et de transmission des commandes vise à répondre aux trois objectifs suivants : éviter un objet cible (manœuvre d’évitement), approcher l’objet cible (manœuvre de rendez- vous) ou maintenir le satellite dans la configuration actuelle (pas de manœuvre spécifique).

L’invention concerne aussi un système de navigation autonome d’un satellite, dit satellite hôte, équipé de moyens de déplacement et d’orientation dudit satellite, d’une unité de commande de ces moyens, ledit système étant caractérisé en ce qu’il comprend : au moins une caméra d’acquisitions d’une pluralité d’images de l’environnement dudit satellite hôte, un module de traitement par défaut desdites images acquises, dit module longue distance, configure pour detecter et identifier des objets spatiaux au sein desdites images, calculer leurs orbites relatives et distances par rapport au satellite hôte, et déterminer l’attitude dudit satellite hôte,

- un module de traitement conditionnel desdites images acquises, dit module courte distance, configuré pour estimer l’attitude d’au moins un desdits objets spatiaux détectés et identifiés, dit objet cible, par ledit module longue distance, ledit module courte distance étant mis en œuvre lorsque ledit module longue distance a détecté au moins un objet spatial situé à une distance estimée inférieure à une distance seuil prédéterminée,

- un module de détermination d’un possible rendez- vous entre au moins ledit objet cible, et le satellite hôte à partir d’une estimation de trajectoire dudit objet cible et dudit satellite hôte,

- un module d’élaboration et de transmission d’instructions de commande à destination de ladite unité de commande desdits moyens de déplacement et d’orientation dudit satellite en fonction desdits rendez-vous déterminés par ledit module de détermination des rendez-vous.

Le système de navigation autonome selon l’invention met avantageusement en œuvre le procédé de navigation autonome selon l’invention et le procédé de navigation autonome selon l’invention est avantageusement mis en œuvre par un système selon l’invention.

Les avantages et effets techniques du procédé selon l’invention s’appliquent mutatis mutandis au système selon l’invention.

Dans tout le texte, on désigne par module, un élément logiciel, un sous- ensemble d’un programme logiciel, pouvant être compilé séparément, soit pour une utilisation indépendante, soit pour être assemblé avec d’autres modules d’un programme, ou un élément matériel, ou une combinaison d’un élément matériel et d’un sous-programme logiciel. Un tel élément matériel peut comprendre un circuit intégré propre à une application (plus connue sous l’acronyme ASIC pour la denomination anglaise Application-Specific Integrated Circuit) ou un circuit logique programmable (plus connue sous F acronyme FPGA pour la dénomination anglaise Field-Programmable Gate Array) ou un circuit de microprocesseurs spécialisés (plus connue sous l’acronyme DSP pour la dénomination anglaise Digital Signal Processor) ou tout matériel équivalent ou toute combinaison des matériels précités. D’une manière générale, un module est donc un élément (logiciel et/ou matériel) qui permet d’assurer une fonction.

Dans le cas présent, les modules du système selon l’invention sont de préférence mis en œuvre par des moyens logiciels, c’est-à-dire par une séquence d’instructions d’un programme informatique, cette séquence d’instructions pouvant être stockée sur tout type de support lisible partiellement ou totalement par un ordinateur ou par un microprocesseur embarqué sur le satellite.

Avantageusement et selon l’invention, le système comprend une caméra d’acquisition d’images destinée à fournir des images au module de traitement longue distance et une caméra d’acquisitions d’images destinée à fournir des images au module de traitement courte distance.

Selon cette variante avantageuse, le système comprend deux caméras distinctes dédiées respectivement à fournir des images au module de traitement longue distance et au module de traitement courte distance. Cette variante permet de bénéficier d’une caméra spécifique adaptée au traitement correspondant.

L’invention concerne également un procédé et système de navigation autonome d’un satellite, caractérisés en combinaison par tout ou partie des caractéristiques mentionnées ci-dessus ou ci-après.

Liste des figures

D'autres buts, caractéristiques et avantages de l'invention apparaîtront à la lecture de la description suivante donnée à titre uniquement non limitatif et qui se réfère aux figures annexées dans lesquelles :

[Fig. 1] est une vue schématique des principales étapes du procédé de navigation selon l’invention, [Fig. 2] est une vue schématique du système de navigation autonome selon un mode de réalisation de l’invention,

[Fig. 3] est une vue schématique fonctionnelle des étapes de traitement longue distance des images selon un mode de réalisation de l’invention,

[Fig. 4] est une vue schématique fonctionnelle des étapes de traitement courte distance des images selon un mode de réalisation de l’invention.

Description détaillée d’un mode de réalisation de l’invention

La figure 1 illustre de manière schématique les principales étapes du procédé de navigation selon l’invention.

La première étape El du procédé de navigation selon l’invention consiste à faire l’acquisition d’une pluralité d’images de l’environnement du satellite hôte à partir d’une caméra embarquée sur le satellite. Les caractéristiques de la prise de vue (temps d’exposition, etc.) peuvent être adaptées aux conditions d’opération. Les données brutes sont stockées dans une mémoire de l’ordinateur de bord pour être ensuite traitées au cours des étapes suivantes.

La deuxième étape E2 du procédé de navigation selon l’invention consiste à effectuer un traitement, dit longue distance, des images acquises. Ce traitement a pour principale fonction de détecter et identifier des objets spatiaux au sein desdites images, de calculer les orbites relatives et distances des objets spatiaux par rapport au satellite hôte, et de déterminer l’attitude du satellite hôte. Ces étapes seront décrites plus précisément en lien avec la figure 3.

La troisième étape E3 du procédé de navigation selon l’invention consiste à effectuer un traitement, dit courte distance, des images acquises, lorsqu’au moins un objet cible situé à une distance inférieure à une distance prédéterminée (par exemple 250 mètres) a été détecté à l’étape précédente. Ce traitement a pour principale fonction d’estimer la pose de cet objet cible. Cette étape sera décrite plus précisément en lien avec la figure 4.

La quatrième étape E4 du procédé de navigation selon l’invention consiste à déterminer un possible rendez-vous entre l’objet cible et le satellite hôte, à partir des différentes informations déterminées au cours des étapes précédentes.

La cinquième et dernière étape E5 du procédé de navigation selon 1 invention consiste a elaborer et de transmettre des instructions de commande a destination de l’unité de commande qui pilote les moyens de déplacement et d’orientation du satellite. Ces commandes dépendent des rendez-vous déterminés à l’étape précédente.

La figure 2 est une vue schématique d’un système de navigation selon un mode de réalisation de l’invention mettant en œuvre le procédé selon l’invention.

Le système comprend une caméra d’acquisition d’images 10. Cette caméra peut être une caméra monoculaire, monochromatique ou poly chromatique. Cette caméra est par exemple une caméra capable de faire l’acquisition de trois images par seconde. Elle peut par exemple présenter un champ de vision de 11° en vertical et de 16° en horizontal. Bien entendu, d’autres caméras peuvent être utilisées sans que cela ne remette en cause le principe de l’invention. La caméra du mode de réalisation décrit permet de détecter des objets cibles à une distance de 3000 km pour des objets de 2m de diamètre. A titre d’exemple, une caméra de 5400x3600 pixels présentant une focale 16mm permet de détecter des objets de 2m de diamètre jusqu’à 3000 km de distance. Bien entendu, d’autres types de caméra peuvent être utilisées en fonction des objectifs visés par le système sans remettre en cause le principe de l’invention.

Le système comprend également un ordinateur de bord 20 qui est équipé d’un microprocesseur, d’une mémoire de stockage et qui héberge des modules d’analyse et de traitement des données. Cet ordinateur de bord est par exemple équipé d’une carte commercialisée sous la référence Q7S Xiphos®, dédiée aux applications spatiales.

Comme indiqué précédemment, ces modules sont de préférence mis en œuvre sous la forme d’éléments logiciels embarqués sur la carte électronique de l’ordinateur de bord.

L’ordinateur de bord 20 comprend ainsi un module de traitement longue distance 21 qui est configuré pour mettre en œuvre l’étape E2 du procédé selon l’invention et qui sera décrite plus en détail en lien avec la figure 2.

L’ordinateur de bord 20 comprend aussi un module de traitement courte distance 22 qui est configure pour mettre en œuvre 1 etape E3 du procédé selon l’invention et qui sera décrite plus en détail en lien avec la figure 3.

L’ordinateur de bord 20 comprend aussi un module 23 de détermination d’un possible rendez-vous entre un objet cible et le satellite hôte.

Enfin, l’ordinateur de bord 20 comprend un module d’élaboration de commandes 24 à destination d’une unité de commande qui pilote les moyens de déplacement et d’orientation 30 du satellite hôte.

Le système selon l’invention peut également comprendre un gyroscope 41, un accéléromètre 42 et une mémoire flash 43. L’utilisation du gyroscope 41 permet de réduire le nombre de variables nécessaires à la mise en œuvre du filtre de Kalman (EKF) étant donné que la vitesse angulaire est alors connue. La mémoire flash 43 permet de stocker les données et de les envoyer au sol lorsqu’un lien se fait. Le gyroscope 41 et F accéléromètre 42 sont destinés au logiciel de navigation et peuvent être utilisés pour améliorer les précisions des estimations. A noter néanmoins que ces capteurs ne sont pas indispensables à la mise en œuvre de l’invention. Ils permettent néanmoins d’améliorer la précision des mesures et/ou des estimations.

La figure 3 illustre de manière schématique les sous-étapes mises en œuvre lors de l’étape E2 de traitement longue distance mise en œuvre par le module 21 de traitement longue distance.

A l’étape 301, une image acquise par la caméra 10 est mise en traitement. Cette image subit un seuillage, suivi d’un partitionnement de l’image (détection des clusters) par un algorithme du type DBSCAN à l’étape 302 comme indiqué précédemment en vue de détecter des objets spatiaux cibles potentiels (aussi désignés par l’acronyme anglais RSO pour « Resident Space Objects »), suivi d’un calcul à l’étape 303 des centres des clusters formés à l’étape 302.

Le procédé comprend ensuite une étape 304 d’identification des objets spatiaux présents dans l’image. Cette étape 304 permet d’une part de détecter des objets célestes présents dans l’image par comparaison avec un catalogue d’étoiles du type Hipparcos-2 ou catalogue 305. La magnitude apparente des objets célestes détectables au cours de cette sous-étape de suivi stellaire est de maximum 6, par exemple (bien entendu, cette valeur depend du capteur, du temps d exposition, etc.). Cette étape 304 permet d’autre part de détecter des objets cibles potentiels. Ces objets cibles potentiels sont formés par les objets spatiaux qui n’ont pas trouvé de correspondance dans le catalogue d’étoiles.

Une fois les étoiles identifiées à l’étape 306, le procédé peut déterminer l’attitude du satellite hôte à l’étape 307. Cette détermination d’attitude peut par exemple et comme indiqué précédemment être effectuée par l’utilisation d’un filtre de Kalman étendu.

A l’étape 308, si un objet cible potentiel a été détecté à l’étape 304 de détection des objets spatiaux, le procédé calcule la position de cet objet cible à l’étape 309 et calcule les caractéristiques orbitales ce cet objet cible à partir de la détermination de l’attitude du satellite hôte et de la position de l’objet cible calculé à l’étape 310. Les détails de ces calculs, qui sont également mis en œuvre dans l’étape de traitement courte distance, sont précisés ci-après en lien avec la description détaillée de l’étape de traitement courte distance.

Si la distance de l’objet est estimée inférieure à la distance seuil, le traitement d’images courte distances est activé et le procédé bascule dans l’étape E3.

La figure 4 illustre de manière schématique les sous-étapes mises en œuvre lors de l’étape E3 de traitement courte distance mise en œuvre par le module 22 de traitement courte distance.

A l’étape 401, une image acquise par la caméra 10 est mise en traitement. A l’étape 402, une détection d’une zone d’intérêt est réalisée par la mise en œuvre d’un premier réseau de neurones entrainé pour reconnaitre des objets cibles prédéterminés, comme expliqué précédemment. Pour ce faire, l’image est redimensionnée pour présenter un format identique à celui des images utilisées pour entrainer le réseau de neurones. Comme indiqué précédemment, cette étape peut mettre en œuvre l’algorithme connu sous l’acronyme YOLO pour « You Only Look Once » qui permet de détecter des objets en divisant l’image en un système de grille dont chaque cellule est traitée pour la détection d’un objet. Le résultat de cette premiere sous-etape est la detection d une region d intérêt comprenant 1 objet cible.

A l’étape 403, le procédé réalise une détection de points de repères régressive dans la zone d’intérêt détectée par exécution d’un deuxième réseau de neurones entrainé pour réaliser une détection des points de repère régressive comme expliqué précédemment. Pour ce faire, la donnée d’entrée de ce deuxième réseau de neurones est l’image de la région d’intérêt détecté à l’étape précédente. A l’instar de l’étape précédente, l’image peut être redimensionnée pour présenter un format identique à celui des images utilisées pour entrainer le réseau de neurones. Cette sous-étape permet de détecter les points d’intérêts de l’objet cible présent dans la région d’intérêt. Cette sous-étape peut par exemple mettre en œuvre l’architecture connue sous l’acronyme anglais HRNet pour (High Resolution Network).

N l’étape 404, le procédé estime la pose de l’objet cible à partir des points d’intérêt décelés à l’étape précédente et en cherchant la meilleure estimation de pose possible à partir, par exemple, d’une connaissance a priori de l’architecture 3D de la cible. Cela peut être obtenu par la mise en œuvre de l’algorithme connu sous l’acronyme anglais EPnP pour « Efficient Perspective-n-Point ». Le but de l’algorithme est de chercher quelle orientation et distance permet de faire coïncider les points d’intérêts décelés avec la connaissance a priori de l’architecture 3D de l’objet cible.

A l’étape 404, le procédé peut affiner la détermination de la pose. En particulier, la méthode EPnP est une formule explicite, solution d’un problème linéaire, permettant une première estimation de la pose de la cible. Cependant, même si cela représente une bonne première estimation, elle n’est pas assez robuste à la présence d’aberrances dans les données. Cette méthode est ainsi et de préférence raffinée en appliquant de manière itérative une méthode Levenbert- Marquardt, connue sous l’acronyme LMM, qui nécessite une initialisation avec une première estimation. C’est une méthode d’optimisation visant à minimiser l’erreur de reprojection, c’est-à-dire de réduire au maximum la distance entre les points d’intérêt et leur reprojection à partir de l’architecture connue ou reconstruite, pour ainsi obtenir une meilleure estimation de pose. C’est une technique de moindre carrées non-lineaire utilisant une interpolation basee sur les methodes de gauss- newton et la méthode du gradient descendant.

Cette succession d’étapes, qui forme l’étape de traitement courte distance E2, permet d’estimer la pose (attitude et distance) d’un objet à partir d’un lot d’images monoculaires, et d’une connaissance a priori de l’architecture 3D de l’objet cible. Cela étant et comme indiqué précédemment, il est possible selon un autre mode de réalisation de déterminer l’architecture 3D de l’objet à partir de technique de photogrammétrie, ce qui permet alors de se passer de la connaissance a priori de l’architecture 3D de l’objet cible.

Une fois la pose de l’objet cible identifié, le procédé estime la trajectoire du satellite hôte à partir d’un modèle linéarisé de la dynamique du satellite et calcul une probabilité de collision avec l’objet cible (Il convient de noter que cette étape est également mise en œuvre lors du traitement longue distance dès qu’un objet cible a été identifié).

L’estimation de trajectoire s’appuie sur un modèle linéarisé de la dynamique du satellite hôte à partir, par exemple, des équations de Clohessy-Wiltshire (dans le cas le plus simple d’une orbite Képlérienne, circulaire et sans perturbation). Un calcul de probabilité de collision peut également être effectué dans le cas d’un débris pour estimer une probabilité de collision entre le satellite hôte et le débris.

Pour ce faire et selon un mode préférentiel de réalisation, on détermine l’azimut et l’élévation de la cible à partir de mesures optiques. Ensuite, on corrige cette détermination par l’utilisation d’un filtre UKF :

Mesure : La fonction de mesure prend en compte la nature non-linéaire de la mesure d’angles et transforme les éléments en éléments moyens, Prédiction : La fonction de transition prend en compte les éléments dynamiques relatifs des deux objets ainsi que d’autres paramètres comme la pression solaire, le différentiel gravitationnel, etc.

La probabilité de collision est calculée à partir des éléments dynamiques orbitaux relatifs des deux objets ainsi que des covariances issues d’un filtre de navigation et en appliquant la méthode de Chan pour déterminer de façon analytique la densite de probabilité de la fonction de collision. Le filtre peut aussi être utilisé de façon découplée pour raffiner l’estimation des éléments cinématiques rotationnels de l’objet cible.

La dernière étape du procédé consiste à élaborer et à transmettre des instructions de commande à destination de l’unité de commande qui pilote les moyens de déplacement et d’orientation du satellite (ordinateur de navigation, propulseurs et roues à réaction). Ces commandes dépendent des rendez-vous déterminés à l’étape précédente. Le mode de réalisation de cette étape est connu de l’homme du métier et consiste à piloter les organes de commande du satellite pour atteindre l’objectif visé.

Selon l’invention et grâce au calcul des caractéristiques orbitales relatives de l’objet à l’étape précédente, cette étape revient à résoudre un problème de minimisation de la séparation avec la cible. Cette technique se base sur le vecteur d’inclinaison-excentricité dans le plan radial/Normal et de séparation longitudinale dans le plan tangentiel.

L’invention ne se limite pas aux seuls modes de réalisation décrits et peut faire l’objet de variante sans sortir du périmètre de protection visé. En particulier, selon un mode de réalisation non décrit, le système peut comprendre deux caméras (ou plus) distinctes dédiées respectivement à fournir des images au module de traitement longue distance et au module de traitement courte distance. Cette variante permet de bénéficier d’une caméra spécifique adaptée au traitement correspondant.