Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND ELECTRONIC DEVICE FOR DETERMINING AT LEAST ONE RECOMMENDED ACTION FOR AN AIRCRAFT, ASSOCIATED COMPUTER PROGRAM AND ASSOCIATED ELECTRONIC DISPLAY SYSTEM
Document Type and Number:
WIPO Patent Application WO/2021/214098
Kind Code:
A1
Abstract:
This method for determining at least one recommended action for an aircraft is implemented by an electronic determination device and comprises the following steps: - acquiring a set of one or more images (24) of one or more georeferenced areas in relation to the aircraft, - receiving a group (28) of one or more contextual data items in relation to the aircraft, - computing a list (32) of one or more recommended actions for the aircraft via an artificial intelligence algorithm and based on the set of one or more images (24) of one or more georeferenced areas and on the group (28) of one or more contextual data items, the artificial intelligence algorithm comprising, as input variables, firstly the set of one or more images (24) of one or more georeferenced areas and secondly the group (28) of one or more contextual data items and, as output variable, the list (32) of one or more recommended actions.

Inventors:
GOUT AMANDINE (FR)
MENNECHET FLORENT (FR)
Application Number:
PCT/EP2021/060308
Publication Date:
October 28, 2021
Filing Date:
April 21, 2021
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
THALES SA (FR)
International Classes:
G01C23/00
Foreign References:
US8600587B12013-12-03
US9019128B12015-04-28
Attorney, Agent or Firm:
HABASQUE, Etienne et al. (FR)
Download PDF:
Claims:
REVENDICATIONS

1. Procédé de détermination d’au moins une action préconisée pour un aéronef (10), le procédé étant mis en œuvre un dispositif électronique de détermination (20) et comprenant les étapes suivantes :

- acquisition (100) d’un ensemble d’image(s) (24) de zone(s) géo-référencée(s) relative(s) à l’aéronef (10),

- réception (110) d’un groupe (28) de donnée(s) contextuelle(s) relative(s) à l’aéronef (10),

- calcul (120) d’une liste (32) d’action(s) préconisée(s) pour l’aéronef (10), via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) (24) de zone(s) géo-référencée(s) et du groupe (28) de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), et d’autre part, le groupe (28) de donnée(s) contextuelle(s), et en variable de sortie la liste (32) d’action(s) préconisée(s).

2. Procédé selon la revendication 1 , dans lequel le procédé comprend en outre une étape (130) d’affichage, sur un écran d’affichage (18), de la liste (32) d’action(s) préconisée(s) pour l’aéronef (10).

3. Procédé selon la revendication 1 ou 2, dans lequel l’ensemble d’image(s) (24) de zone(s) géo-référencée(s) comporte au moins une image (24) parmi le groupe consistant en : une image d’une zone d’intérêt, telle qu’une image contenant une ou plusieurs informations météorologiques géo-référencées ; une image d’une zone de menace, telle qu’une image contenant une ou plusieurs informations d’obstacles géo- référencés ; une image d’une zone d’incertitude contenant une information géo- référencée indiquant, pour une position donnée, la probabilité qu’un objet puisse être présent à cette position.

4. Procédé selon l’une quelconque des revendications précédentes, dans lequel le groupe (28) de donnée(s) contextuelle(s) comporte au moins une donnée parmi le groupe consistant en : une quantité de ressource(s) disponible(s), telle qu’une quantité de carburant, un nombre d’équipement(s) emporté(s) ; un nombre d’entité(s) identifiée(s) présente(s) dans une zone géo-référencée respective ; et un nombre d’entité(s) inconnue(s) présente(s) dans une zone géo-référencée respective.

5. Procédé selon l’une quelconque des revendications précédentes, dans lequel la liste (32) d’action(s) préconisée(s) comporte au moins une action parmi le groupe consistant en : une consigne de cap, une consigne de vitesse, une consigne de position, une consigne d’altitude, une utilisation d’un capteur respectif, une utilisation d’un équipement respectif, une sélection d’un mode/paramètre d’usage d’un capteur ou équipement.

6. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones (60) ; l’algorithme d’intelligence artificielle comportant de préférence un réseau de neurones (60) avec, en tête, un premier sous-réseau de neurones (62) ayant pour variable d’entrée l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), un deuxième sous-réseau de neurones (64) ayant pour variable d’entrée le groupe (28) de donnée(s) contextuelle(s), et en queue, un troisième sous-réseau de neurones (66) connecté en sortie des premier (62) et deuxième (64) sous-réseaux de neurones et ayant pour variable de sortie la liste (32) d’action(s) préconisée(s) ; le premier sous-réseau de neurones (62) comportant de préférence des couches de convolutions, les deuxième (64) et troisième (66) sous-réseaux de neurones étant chacun un perceptron multicouche (MLP) comportant des couches denses.

7. Procédé selon l’une quelconque des revendications précédentes, dans lequel l’algorithme d’intelligence artificielle est obtenu via un apprentissage par renforcement ; l’apprentissage par renforcement étant de préférence choisi parmi le groupe consistant en : un algorithme de Q-learning avec un estimateur neuronal (DQN) ; un algorithme de gradient de politique de type acteur-critique, tel qu’un algorithme DDPG, un algorithme PPO ou un algorithme SAC ; lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comportant de préférence encore au moins un réseau de neurones (60) dit(s) acteur(s) et l’apprentissage par renforcement comportant au moins un autre réseau de neurones dit(s) critique(s).

8. Programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé selon l’une quelconque des revendications précédentes.

9. Dispositif électronique (20) de détermination d’au moins une action préconisée pour un aéronef (10), le dispositif (20) comprenant :

- un module d’acquisition (22) configuré pour acquérir un ensemble d’image(s) (24) de zone(s) géo-référencée(s) relative(s) à l’aéronef (10), - un module de réception (26) configuré pour recevoir un groupe (28) de donnée(s) contextuelle(s) relative(s) à l’aéronef (10),

- un module de calcul (30) configuré pour calculer une liste (32) d’action(s) préconisée(s) pour l’aéronef (10), via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) (24) de zone(s) géo-référencée(s) et du groupe (28) de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) (24) de zone(s) géo-référencée(s), et d’autre part, le groupe (28) de donnée(s) contextuelle(s), et en variable de sortie la liste (32) d’action(s) préconisée(s). 10. Système électronique d’affichage (16) pour un aéronef (10), le système (16) comprenant :

- un écran d’affichage (18), et

- un dispositif électronique (20) de détermination d’au moins une action préconisée pour l’aéronef (10), caractérisé en ce que le dispositif (20) est selon la revendication précédente, et comprend en outre un module d’affichage (34) configuré pour afficher, sur l’écran d’affichage (18), une liste (32) d’action(s) préconisée(s) pour l’aéronef (10).

Description:
Procédé et dispositif électronique de détermination d’au moins une action préconisée pour un aéronef, programme d’ordinateur et système électronique d’affichage associés

La présente invention concerne un procédé de détermination d’au moins une action préconisée pour un aéronef, le procédé étant mis en œuvre un dispositif électronique de détermination.

L’invention concerne également un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un tel procédé de détermination.

L’invention concerne aussi un dispositif électronique de détermination d’au moins une action préconisée pour un aéronef, et un système électronique d’affichage comprenant un tel dispositif de détermination.

L’invention concerne le domaine des systèmes d’aide à la décision pour un utilisateur d’un aéronef, tel qu’un pilote d’aéronef, en particulier pour la gestion temps réel de problèmes complexes, tels qu’un atterrissage d’urgence.

Le contexte aéronautique se complexifiant (densité trafic aérien, situations ambigües, rapidité des moyens technologiques, nombre d’acteurs sur un théâtre d’opération, etc.), un système d’aide à la résolution de problème est souhaitable pour les opérateurs.

Les systèmes d’aide à la décision actuels reposent essentiellement sur une analyse fine du savoir-faire métier humain et de capture de ses connaissances, afin que le système puisse gérer le plus grand nombre de cas possibles déjà vus par l’humain.

Ces systèmes d’aide à la décision sont cependant peu robustes à la rencontre de nouveaux contextes ou situations.

Le but de l’invention est alors de proposer un procédé, et un dispositif électronique associé, de détermination d’au moins une action préconisée pour un aéronef, qui soit plus robuste et efficace vis-à-vis de nouveaux contextes ou situations.

A cet effet, l’invention a pour objet un procédé de détermination d’au moins une action préconisée pour un aéronef, le procédé étant mis en œuvre un dispositif électronique de détermination et comprenant les étapes suivantes : - acquisition d’un ensemble d’image(s) de zone(s) géo-référencée(s) relative(s) à l’aéronef,

- réception d’un groupe de donnée(s) contextuelle(s) relative(s) à l’aéronef,

- calcul d’une liste d’action(s) préconisée(s) pour l’aéronef, via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) de zone(s) géo-référencée(s) et du groupe de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) de zone(s) géo- référencée(s), et d’autre part, le groupe de donnée(s) contextuelle(s), et en variable de sortie la liste d’action(s) préconisée(s).

Ainsi, avec le procédé selon l’invention, le calcul de liste d’action(s) préconisée(s) à partir de l’algorithme d’intelligence artificielle et de l’ensemble d’image(s) de zone(s) géo- référencée(s) et du groupe de donnée(s) contextuelle(s) permet une plus grande robustesse et une plus grande efficacité vis-à-vis de nouveaux contextes ou situations. L’algorithme d’intelligence artificielle s’adapte alors à de nouveaux contextes ou situations, en traitant en variables d’entrée l’ensemble d’image(s) de zone(s) géo- référencée(s) et le groupe de donnée(s) contextuelle(s), et en délivrant en sortie la liste d’action(s) préconisée(s) à partir de ces variables d’entrée.

De préférence, l’algorithme d’intelligence artificielle est entraîné via un apprentissage par renforcement, par exemple via un algorithme de Q-learning avec un estimateur neuronal (DQN) ou encore un algorithme de gradient de politique de type acteur-critique, tel qu’un algorithme DDPG, un algorithme PPO ou un algorithme SAC.

Lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comporte de préférence encore au moins un réseau de neurones et l’apprentissage par renforcement comportant au moins un autre réseau de neurones.

Suivant d’autres aspects avantageux de l’invention, le procédé de détermination comprend une ou plusieurs des caractéristiques suivantes, prises isolément ou suivant toutes les combinaisons techniquement possibles :

- le procédé comprend en outre une étape d’affichage, sur un écran d’affichage, de la liste d’action(s) préconisée(s) pour l’aéronef ;

- l’ensemble d’image(s) de zone(s) géo-référencée(s) comporte au moins une image parmi le groupe consistant en : une image d’une zone d’intérêt, telle qu’une image contenant une ou plusieurs informations météorologiques géo-référencées ; une image d’une zone de menace, telle qu’une image contenant une ou plusieurs informations d’obstacles géo-référencés ; une image d’une zone d’incertitude contenant une information géo-référencée indiquant, pour une position donnée, la probabilité qu’un objet puisse être présent à cette position ;

- le groupe de donnée(s) contextuelle(s) comporte au moins une donnée parmi le groupe consistant en : une quantité de ressource(s) disponible(s), telle qu’une quantité de carburant, un nombre d’équipement(s) emporté(s) ; un nombre d’entité(s) identifiée(s) présente(s) dans une zone géo-référencée respective ; et un nombre d’entité(s) inconnue(s) présente(s) dans une zone géo-référencée respective ;

- la liste d’action(s) préconisée(s) comporte au moins une action parmi le groupe consistant en : une consigne de cap, une consigne de vitesse, une consigne de position, une consigne d’altitude, une utilisation d’un capteur respectif, une utilisation d’un équipement respectif, une sélection d’un mode/paramètre d’usage d’un capteur ou équipement ;

- l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones ; l’algorithme d’intelligence artificielle comportant de préférence un réseau de neurones avec, en tête, un premier sous-réseau de neurones ayant pour variable d’entrée l’ensemble d’image(s) de zone(s) géo-référencée(s), un deuxième sous-réseau de neurones ayant pour variable d’entrée le groupe de donnée(s) contextuelle(s), et en queue, un troisième sous-réseau de neurones connecté en sortie des premier et deuxième sous-réseaux de neurones et ayant pour variable de sortie la liste d’action(s) préconisée(s) ; le premier sous-réseau de neurones comportant de préférence des couches de convolutions, les deuxième et troisième sous-réseaux de neurones étant chacun un perceptron multicouche comportant des couches denses ;

- l’algorithme d’intelligence artificielle est obtenu via un apprentissage par renforcement ; l’apprentissage par renforcement étant de préférence choisi parmi le groupe consistant en : un algorithme de Q-learning avec un estimateur neuronal ; un algorithme de gradient de politique de type acteur-critique, tel qu’un algorithme DDPG, un algorithme PPO ou un algorithme SAC ; lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comportant de préférence encore au moins un réseau de neurones dit(s) acteur(s) et l’apprentissage par renforcement comportant au moins un autre réseau de neurones dit(s) critique(s) ;

- l’apprentissage par renforcement comporte la résolution d’un problème d’optimisation d’au moins une fonction de récompense, l’apprentissage par renforcement mettant de préférence en œuvre une pluralité de fonctions de récompense avec un apprentissage respectif de l’algorithme d’intelligence artificielle pour chaque fonction de récompense, lorsque l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones l’apprentissage par renforcement comportant alors de préférence encore l’obtention d’un ensemble de poids de réseau pour chaque fonction de récompense ;

- le procédé comporte en outre une étape de sélection d’une fonction de récompense parmi la pluralité de fonctions de récompense, par exemple à partir d’une interaction d’un utilisateur ;

- l’étape de calcul comporte plusieurs itérations successives de l’algorithme d’intelligence artificielle, afin d’avoir une mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs ;

- le procédé comporte en outre une étape d’évaluation, via un algorithme de théorie des jeux, d’un ou plusieurs paramètres prépondérants dans le calcul de la liste d’action(s) préconisée(s).

L’invention a également pour objet un programme d’ordinateur comportant des instructions logicielles qui, lorsqu’elles sont exécutées par un ordinateur, mettent en œuvre un procédé de détermination tel que défini ci-dessus.

L’invention a également pour objet un dispositif électronique de détermination d’au moins une action préconisée pour un aéronef, le dispositif comprenant :

- un module d’acquisition configuré pour acquérir un ensemble d’image(s) de zone(s) géo-référencée(s) relative(s) à l’aéronef,

- un module de réception configuré pour recevoir un groupe de donnée(s) contextuelle(s) relative(s) à l’aéronef,

- un module de calcul configuré pour calculer une liste d’action(s) préconisée(s) pour l’aéronef, via un algorithme d’intelligence artificielle et à partir de l’ensemble d’image(s) de zone(s) géo-référencée(s) et du groupe de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, l’ensemble d’image(s) de zone(s) géo-référencée(s), et d’autre part, le groupe de donnée(s) contextuelle(s), et en variable de sortie la liste d’action(s) préconisée(s).

L’invention a également pour objet un système électronique d’affichage pour un aéronef, le système comprenant :

- un écran d’affichage,

- un dispositif électronique de détermination d’au moins une action préconisée pour l’aéronef, le dispositif de détermination étant tel que défini ci-dessus, et - un module d’affichage, sur l’écran d’affichage, d’une liste d’action(s) préconisée(s) pour l’aéronef.

Ces caractéristiques et avantages de l’invention apparaîtront plus clairement à la lecture de la description qui va suivre, donnée uniquement à titre d’exemple non limitatif, et faite en référence aux dessins annexés, sur lesquels :

- la figure 1 est une représentation schématique d’un aéronef comprenant un système électronique d’affichage selon l’invention, le système comportant un dispositif électronique de détermination d’au moins une action préconisée pour l’aéronef, relié à un écran d’affichage, à des systèmes avioniques et à une base de données,

- la figure 2 est une représentation schématique d’un algorithme d’intelligence artificielle mis en œuvre par le dispositif électronique de détermination de la figure 1 , afin de déterminer au moins une action préconisée pour l’aéronef ;

- la figure 3 est un organigramme d’un procédé, selon l’invention, de détermination d’au moins une action préconisée pour l’aéronef, le procédé étant mis en œuvre par le dispositif de détermination de la figure 1 ; et

- la figure 4 est un organigramme représentant plusieurs itérations successives de l’algorithme d’intelligence artificielle lors du calcul de la liste d’actions préconisées pour l’aéronef, ceci pour mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs.

Sur la figure 1 , un aéronef 10 comprend plusieurs systèmes avioniques 12, une base de données 14, telle qu’une base de données cartographiques, et un système électronique d’affichage 16 connecté au système avionique 12 et à la base de données 14, le système d’affichage 16 comportant un écran d’affichage 18 et un dispositif électronique 20 de détermination d’au moins une action préconisée pour l’aéronef 10.

L’aéronef 10 est par exemple un avion, comme représenté dans l’exemple de la figure 2. En variante, l’aéronef 10 est un hélicoptère, un drone pilotable à distance par un pilote, ou encore un aéronef autonome sans opérateur. L’homme du métier observera que dans le cas où l’aéronef 10 est un aéronef autonome sans opérateur, il ne comprend de préférence pas de système d’affichage embarqué à l’intérieur de l’aéronef, le système d’affichage étant alors disposé au sol.

Les systèmes avioniques 12 sont connus en soi et sont aptes à transmettre au système d’affichage 16, et en particulier au dispositif électronique de détermination 20, différentes données avioniques, par exemple des données dites « aéronefs », telles que la position, la vitesse, l’accélération, l'orientation, le cap ou encore l’altitude de l’aéronef 10, et/ou des données dites « navigation », telles qu’un plan de vol.

Les systèmes avioniques 12 sont également aptes à recevoir des consignes, ou encore des commandes, de la part du dispositif de détermination 20. Ces systèmes avioniques 12 aptes à recevoir des consignes, comportent par exemple au moins un système parmi :

- un système de commandes de vol, également noté FCS (de l’anglais Flight Control System) ou FBW (de l’anglais Fly By Wire), pour agir sur un ensemble de gouvernes et d’actionneurs de l’aéronef. Dans le cas d’un aéronef à voilure fixe, les gouvernes sont, par exemple, des ailerons, la gouverne de profondeur ou la gouverne de direction. Dans le cas d’un aéronef à voilure tournante, les gouvernes sont, par exemple, le pas collectif, le pas cyclique ou le pas du rotor de queue ;

- un système de contrôle moteur, également noté ECU (de l’anglais Engine Control Unit) pour faire varier l’énergie délivrée par un moteur de l’aéronef, tel qu’un réacteur, un turbopropulseur ou encore une turbine ;

- au moins un système de guidage, tel qu’un dispositif de pilotage automatique, également noté AFCS (de l’anglais Auto-Flight Control System), également appelé pilote automatique et noté PA ou AP (de l’anglais Automatic Pilot), tel qu’un système de gestion du vol de l’aéronef, également noté FMS (de l’anglais Flight Management System). En complément, le système de guidage est un dispositif d’auto-poussée, également appelé auto-manette.

La base de données 14 est optionnelle, typiquement une base de données de navigation, et est connue en soi. La base de données de navigation est également appelée NAVDB (de l’anglais NAVigation Data Base), et comporte notamment des données relatives à des espaces ou zones de vol interdits, des données relatives à des pistes d’atterrissage sur lesquelles l’aéronef 10 est susceptible d’atterrir, ces données étant typiquement une position d’un seuil de la piste d’atterrissage, une orientation de la piste d’atterrissage, une longueur de piste, une altitude ou un point de décision, etc.

Dans l’exemple de la figure 1, la base de données 14 est une base de données externe au dispositif de détermination 20. En variante, non représentée, la base de données 14 est une base de données interne au dispositif de détermination 20.

Le système d’affichage 16 est, par exemple, un système d’affichage tête basse et/ou un système d’affichage tête haute, également appelé HUD (de l’anglais Head-Up Displaÿ). Le système d’affichage tête basse est, par exemple, un système d’affichage de données de navigation (de l’anglais Navigation Displaÿ). Lorsque le système d’affichage 16 est un système d’affichage tête basse, l’écran d’affichage 18 est un écran d’affichage tête basse, et lorsque le système d’affichage 16 est un système d’affichage tête haute, l’écran d’affichage 18 est un écran d’affichage tête haute. En variante, le système d’affichage 16 est un système d’affichage déporté, en particulier un système d’affichage externe à l’aéronef 10, tel qu’un système d’affichage dans une station au sol, ou encore la télécommande ou les lunettes de vision d’un opérateur drone, notamment lorsque l’aéronef 10 est un aéronef autonome sans opérateur.

Le dispositif électronique de détermination 20 est configuré pour déterminer au moins une action préconisée pour l’aéronef 10. Le dispositif de détermination 20 forme alors un dispositif d’aide à décision, notamment pour un opérateur, tel que le pilote de l’aéronef 10. Ce dispositif d’aide à la décision est particulièrement utile pour la gestion en temps réel de problème(s) complexe(s), et vise notamment à aider le pilote à améliorer la gestion de situation(s) critique(s) ou complexe(s), telle(s) qu’un atterrissage d’urgence.

Le dispositif électronique de détermination 20 comprend un module 22 d’acquisition d’un ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, un module 26 de réception d’un groupe de donnée(s) contextuelle(s) 28 relative(s) à l’aéronef 10, et un module 30 de calcul d’une liste d’action(s) préconisée(s) 32 pour l’aéronef 10.

En complément facultatif, le dispositif de détermination 20 comprend un module 34 d’affichage de la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18 et/ou un module 36 de transmission de la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 correspondant.

En complément facultatif encore ou en variante, le dispositif de détermination 20 comprend un module 38 d’évaluation de paramètre(s) prépondérant(s) dans le calcul de la liste 32 d’action(s) préconisée(s).

En complément facultatif encore ou en variante, le dispositif de détermination 20 comprend un module 40 de sélection d’une fonction de récompense parmi une pluralité de fonctions de récompense, la fonction de récompense étant associée à un algorithme d’intelligence artificielle mis en œuvre par le module de calcul 30 pour l’obtention de la liste 32 d’action(s) préconisée(s).

Dans l’exemple de la figure 1, le dispositif électronique de détermination 20 comprend une unité de traitement d’information(s) 50 formée par exemple d’une mémoire 52 et d’un processeur 54 associé à la mémoire 52.

Dans l’exemple de la figure 1, le module d’acquisition 22, le module de réception 26 et le module de calcul 30, ainsi qu’en complément facultatif le module d’affichage 34, le module de transmission 36, le module d’évaluation 38 et le module de sélection 40, sont réalisés chacun sous forme d’un logiciel, ou d’une brique logicielle, exécutable par le processeur 54. La mémoire 52 du dispositif électronique de détermination 20 est alors apte à stocker un logiciel d’acquisition de l’ensemble d’image(s) 24 de zone(s) géo- référencée(s) relative(s) à l’aéronef, un logiciel de réception du groupe 28 de donnée(s) contextuelle(s) et un logiciel de calcul de la liste 32 d’action(s) préconisée(s) pour l’aéronef. En complément facultatif, la mémoire 52 du dispositif électronique de détermination 20 est apte à stocker un logiciel d’affichage de la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18, un logiciel de transmission de la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 respectif, un logiciel d’évaluation de paramètre(s) prépondérant(s) dans le calcul de la liste 32 d’action(s) préconisée(s) et un logiciel de sélection de la fonction de récompense parmi la pluralité de fonctions de récompense. Le processeur 54 est alors apte à exécuter chacun des logiciels parmi le logiciel d’acquisition, le logiciel de réception et le logiciel de calcul, ainsi qu’en complément facultatif le logiciel d’affichage, le logiciel de transmission, le logiciel d’évaluation et/ou le logiciel de sélection.

Lorsqu’en variante, non représentée, la base de données 14 est une base de données interne du dispositif de détermination 20, elle est typiquement apte à être stockée dans une mémoire du dispositif de détermination 20, telle que la mémoire 52.

En variante non représentée, le module d’acquisition 22, le module de réception 26, et le module de calcul 30, ainsi qu’en complément facultatif le module d’affichage 34, le module de transmission 36, le module d’évaluation 38 et le module de sélection 40, sont réalisés chacun sous forme d’un composant logique programmable, tel qu’un FPGA (de l’anglais Field Programmable Gâte Array), ou encore sous forme d’un circuit intégré dédié, tel qu’un ASIC (de l’anglais Application Spécifie Integrated Circuit).

Lorsque le dispositif électronique de détermination 20 est réalisé sous forme d’un ou plusieurs logiciels, c’est-à-dire sous forme d’un programme ordinateur, il est en outre apte à être enregistré sur un support, non représenté, lisible par ordinateur. Le support lisible par ordinateur est par exemple un médium apte à mémoriser des instructions électroniques et à être couplé à un bus d’un système informatique. A titre d’exemple, le support lisible est un disque optique, un disque magnéto-optique, une mémoire ROM, une mémoire RAM, tout type de mémoire non volatile (par exemple EPROM, EEPROM, FLASH, NVRAM), une carte magnétique ou une carte optique. Sur le support lisible est alors mémorisé un programme d’ordinateur comprenant des instructions logicielles.

Le module d’acquisition 22 est configuré pour acquérir l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, par exemple à partir de la base de données 14. L’ensemble d’image(s) 32 est typiquement construit préalablement à la mise en œuvre du dispositif de détermination 20.

Chaque image 24 est par exemple une carte géo-référencée, ou encore une cartographie aéronautique, et est typiquement construite à partir de données brutes, telles que des données issues d’une base de données de navigation, et/ou à partir de représentations virtuelles d’un contexte environnant de l’aéronef 10. La ou les images 24 sont par exemple construites par niveau d’importance en fonction d’une mission à effectuer par l’aéronef 10, ou encore par fonction aéronautique. Une première image 24 représente ainsi par exemple la ou les zones aéronautiques importantes, notamment celles où se situe un état final ou un objectif recherché. Une deuxième image 24 représente alors une zone d’importance intermédiaire, et une troisième image 24 représente une zone de faible importance. En complément, d’autres images 24 représentent typiquement une zone géographique à éviter, déterminée par exemple à partir d’informations météorologiques, ou encore une zone interdite de vol.

En complément, lors de la construction préalable de ces images 24, des données métier issues de modèles d’analyse comportementaux haut niveau, tels que des doctrines, des usages métier, etc., sont en outre prises en compte pour enrichir ces images 24 afin d’obtenir des cartes graphiques géo-référencées contenant des critères métier. En complément ou en variante, ces cartes graphiques sont construites également à partir de données physiques et comportementales d’un niveau de simulation, telles que des données relatives à la position de l’aéronef, des informations météorologiques, etc...

En complément facultatif encore, ces images 24, ou cartes, sont interactives, et sont alors modifiables par un utilisateur, typiquement par l’intermédiaire d’une interface homme-machine, telle qu’une interface graphique.

En variante, la ou les images 24 sont des images acquises via un ou plusieurs capteurs, non représentés.

L’ensemble d’image(s) 24 de zone(s) géo-référencée(s) comporte alors au moins une image 24 parmi le groupe consistant en : une image d’une zone d’intérêt, telle qu’une image contenant une ou plusieurs informations météorologiques géo-référencées ; une image d’une zone de menace, telle qu’une image contenant une ou plusieurs informations d’obstacle(s) géo-référencé(s) ; une image d’une zone d’incertitude contenant une information géo-référencée indiquant, pour une position donnée, la probabilité qu’un objet puisse être présent à cette position.

L’ensemble d’images 24 comporte par exemple M images 24. Les images 24 sont par exemple des images en deux dimensions, et sont représentées soit en couleur, par exemple sur trois canaux RGB, soit en niveau de gris. Les images 24 sont par exemple des images de forme rectangulaire et de dimension Ni x N 2 , où Ni, N 2 représentent des nombres respectifs de pixels, voire carrée auquel cas Ni est bien entendu égal à N 2 .

Le module de réception 26 est configuré pour recevoir le groupe 28 de donnée(s) contextuelle(s) relative(s) à l’aéronef 10, par exemple de la part de la base de données 14.

Le groupe 28 de donnée(s) contextuelle(s) comporte par exemple au moins une donnée parmi le groupe consistant en : une quantité de ressource(s) disponible(s), telle qu’une quantité de carburant, un nombre d’équipement(s) emporté(s) ; un nombre d’entité(s) identifiée(s) présente(s) dans une zone géo-référencée respective ; et un nombre d’entité(s) inconnue(s) présente(s) dans une zone géo-référencée respective.

Le groupe 28 de donnée(s) contextuelle(s) est par exemple en forme d’un vecteur de dimension Pi. Ce vecteur sert alors à concaténer toutes les données contextuelles sous forme d’une unique représentation.

Le module de calcul 30 est configuré pour calculer, la liste 32 d’action(s) préconisée(s) via un algorithme d’intelligence artificielle à partir de l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) et du groupe 28 de donnée(s) contextuelle(s), l’algorithme d’intelligence artificielle comportant en variables d’entrée, d’une part, ledit ensemble d’image(s) 24, et d’autre part, le groupe 28 de donnée(s) contextuelle(s), et en variable de sortie la liste 32 d’action(s) préconisée(s).

En sortie de l’algorithme d’apprentissage, la liste 32 d’action(s) préconisée(s) est par exemple en forme d’un vecteur de taille P 2 concaténant un ensemble d’action(s) préconisée(s) pour l’aéronef 10, c’est-à-dire un ensemble d’action(s), telle(s) que des consignes ou commandes, recommandée(s) pour l’aéronef 10.

Par action préconisée, on entend typiquement une consigne ou une commande qu’il est conseillé de suivre ou d’effectuer pour l’aéronef 10, par exemple via un système avionique 12 correspondant.

La liste 32 d’action(s) préconisée(s) comporte alors par exemple au moins une action choisie parmi le groupe consistant en : une consigne de cap, une consigne de vitesse, une consigne de position, une consigne d’altitude, une utilisation d’un capteur respectif, une utilisation d’un équipement respectif, une sélection d’un mode/paramètre d’usage d’un capteur ou équipement.

L’algorithme d’intelligence artificielle est configuré pour recevoir en entrée M images 24 de dimensions Ni x N 2 et un vecteur de dimension Pi représentant le groupe 28 de donnée(s) contextuelle(s), et délivrer en sortie un vecteur de dimension P 2 représentant la liste 32 d’action(s) préconisée(s), où M, Ni, N 2 , Pi et P 2 sont chacun un nombre entier supérieur ou égal à 1. L’algorithme d’intelligence artificielle comporte par exemple au moins un réseau de neurones 60, visible sur la figure 2.

Dans l’exemple de la figure 2, l’algorithme d’intelligence artificielle est le réseau de neurones 60 avec, en tête, un premier sous-réseau de neurones 62 ayant pour variable d’entrée l’ensemble d’image(s) 24 de zone(s) géo-référencée(s), un deuxième sous- réseau de neurones 64 ayant pour variable d’entrée le groupe 28 de donnée(s) contextuelle(s), et en queue, un troisième sous-réseau de neurones 66 connecté en sortie des premier 62 et deuxième 64 sous-réseaux de neurones et ayant pour variable de sortie la liste 32 d’action(s) préconisée(s). Le premier sous-réseau de neurones 62 comporte typiquement des couches de convolution, et est également noté CNN (de l’anglais Convolutional Neural Network). Les deuxième 64 et troisième 66 sous-réseaux de neurones sont typiquement chacun un perceptron multicouche, également noté MLP (de l’anglais Multi Layer Perceptron) comportant des couches denses.

L’algorithme d’intelligence artificielle est par exemple obtenu via un apprentissage à partir de variables d’entrée de référence, c’est-à-dire à partir d’une part d’image(s) de zone(s) géo-référencée(s) de référence, et d’autre part de donnée(s) contextuelle(s) de référence, et avec pour variables de sortie une liste d’action(s) préconisée(s) de référence.

L’algorithme d’intelligence artificielle est de préférence obtenu via un apprentissage par renforcement, tel qu’un apprentissage par renforcement profond permettant d’apprendre une politique d’action(s) pour un problème de contrôle donné et ayant pour objectif de maximiser une fonction de retour G.

La fonction de retour G d’un tel apprentissage par renforcement vérifie par exemple l’équation suivante :

[Math 1]

G t = R t+ 1 + Y ' R t+ 2 où G t représente la fonction de retour

R représente la récompense à l’instant t, et y représente un facteur, de valeur comprise entre 0 et 1 et pénalisant les récompenses futures.

Une politique d’action optimale permet alors de maximiser une fonction de valeur d’état (de l’anglais state-value function), telle que la fonction de valeur d’état V, et la politique d’action optimale, notée TT * vérifie alors par exemple l’équation suivante :

[Math 2] p * = argmax n V n (s) où la fonction de valeur d’état V vérifie par exemple l’équation suivante : [Math 3]

V„ 00 = E G t lS t = s]

En variante ou en complément, la politique d’action optimale TT * permet de maximiser une fonction de valeur d’action (de l’anglais action-value function) Q, par exemple selon l’équation suivante :

[Math 4]

7G * = argmax n Q n (s, a) où la fonction de valeur d’action Q vérifie par exemple l’équation suivante :

[Math 5]

Q n (s, a) = E re [G t |5 t = s, A t = a ] où S t représente l’état d’observation du système à l’instant t, s représente une valeur prise par l’état d’observation dans un espace d’états,

A représente l’action que doit prendre le système à l’instant t ; et

A représente la valeur de cette action dans un espace d’actions.

Autrement dit, l’apprentissage par renforcement de l’algorithme d’intelligence artificielle comporte la résolution d’un problème d’optimisation d’au moins une fonction de récompense (de l’anglais reward), notée R.

L’apprentissage par renforcement est par exemple choisi parmi le groupe consistant en : un algorithme de Q-learning avec un estimateur neuronal, également appelé DQN (de l’anglais Deep Q learning) ; un algorithme de gradient de politique de type acteur- critique (de l’anglais Actor-Critic) .

L’algorithme de gradient de politique de type acteur-critique comporte typiquement un réseau de neurones afin d’apprendre quelles sont les actions définies par la politique optimale, correspondant à l’acteur, tout en jugeant de la politique choisie, correspondant aux critiques.

L’algorithme de gradient de politique de type acteur-critique est par exemple l’algorithme DDPG (de l’anglais Deep Determistic Policy Gradient), l’algorithme PPO (de l’anglais Proximal Policy Optimization), ou encore l’algorithme SAC (de l’anglais SoftActor Critic).

Lorsque l’apprentissage par renforcement est un algorithme de gradient de politique de type acteur-critique, l’algorithme d’intelligence artificielle comporte alors typiquement au moins un réseau de neurones 60 dit acteur(s), et l’apprentissage par renforcement comporte au moins un autre réseau de neurones, non représenté, dit critique(s). Dans le cas d’un algorithme de type acteur-critique, la fonction de valeur(s), telle que la fonction de valeur d’état V ou la fonction de valeur d’action Q est alors apprise par l’entité critique, telle que le réseau de neurones critique, et l’entité acteur, telle que le réseau de neurones acteur, apprend la politique, c’est-à-dire l’ensemble des actions à prendre dans un état donné, afin d’aller dans la direction suggérée par l’entité critique.

Ainsi, et autrement dit, en apprentissage par renforcement profond de type acteur- critique, un premier réseau de neurones apprend la fonction de valeur, soit la fonction de valeur d’état V, soit la fonction de valeur d’action Q, et un deuxième réseau de neurones apprend la politique TT.

L’homme du métier comprendra en outre que le réseau de neurones dit acteur et le réseau de neurones dit critique ont de préférence des architectures similaires, à la différence que le réseau de neurones dit critique prend en entrée l’action en plus de l’état courant, et que leurs sorties sont de nature différente. La sortie du réseau de neurones critique correspond à une estimation de la fonction valeur d’état ou de la fonction valeur d’action pour une transition donnée. Cette estimation est par exemple formée de l’état à l’instant t, de l’action prise à l’instant t, de la récompense obtenue par cette action, et de l’état obtenu à l’instant suivant t+1. La sortie réseau de neurones acteur correspond quant à elle à la liste d’actions à prendre à l’instant t.

L’homme du métier observera alors que le réseau de neurones 60 représenté à la figure 2 est le réseau de neurones acteur, le réseau de neurones critique n’étant pas représenté.

En complément facultatif, l’apprentissage par renforcement met de préférence en œuvre une pluralité de fonctions de récompense avec un apprentissage respectif de l’algorithme d’intelligence artificielle pour chaque fonction de récompense. La fonction de récompense est typiquement décidée en fonction de l’objectif recherché, et est par exemple liée au type d’images 24 et/ou de données contextuelles du groupe 28 fourni en variables d’entrée de l’algorithme d’intelligence artificielle, et au type d’objectif fixé pour la mission, notamment au type d’action préconisée attendue en sortie de l’algorithme d’intelligence artificielle.

Lorsque l’algorithme d’intelligence artificielle comporte au moins un réseau de neurones 60, l’apprentissage par renforcement comporte alors de préférence l’obtention d’un ensemble de poids de réseau pour chaque fonction de récompense.

A titre d’exemple, si la mission correspondant à l’objectif fixé est une mission d’atterrissage en urgence, alors la politique devra pénaliser le passage dans des zones météo de turbulence, et au contraire récompenser le choix d’une zone d’atterrissage la plus proche du point d’accès. En prenant alors typiquement une première métrique correspondant à la proximité avec les zones météorologiques à éviter, une deuxième métrique correspondant à la distance à la piste sélectionnée et une troisième métrique correspondant à la durée de disponibilité de la piste, la fonction de récompense R vérifiera l’équation suivante :

[Math 6]

R t = Y(Fi,F 2 ,F 3 ) où R t représente la fonction de récompense à l’instant temporel t. y représente une fonction d’agrégation paramétrée, linéaire ou non,

Fi représente une fonction d’utilité de la première métrique correspondant à la proximité avec les zones météorologiques à éviter,

F 2 représente une fonction d’utilité de la deuxième métrique correspondant à la proximité à la piste d’atterrissage ;

F 3 représente une fonction d’utilité de la troisième métrique correspondant à la durée de disponibilité de la piste.

Le module d’affichage 34 est configuré pour afficher la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18. Le module d’affichage 34 est par exemple configuré pour afficher cette liste 32 d’action(s) préconisée(s) sous forme de symbole(s) ou icône(s) en superposition par rapport à une ou plusieurs images 24 de l’ensemble d’image(s) de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, afin d’obtenir une image résultante 70.

Dans l’exemple de la figure 2, l’action préconisée est une consigne de position, représentée sous la forme d’une flèche sur l’image résultante 70, la position objet de ladite consigne correspondant à l’extrémité de la flèche.

En variante ou en complément, le module de transmission 36 est configuré pour transmettre la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 respectif. Le module de transmission 36 permet alors de transmettre directement une ou plusieurs consignes ou commandes, incluses dans ladite liste 32 d’action(s) préconisée(s), à au moins un système avionique 12 correspondant, afin d’agir sur le comportement de l’aéronef 10.

En complément facultatif encore, le module d’évaluation 38 est configuré pour évaluer, via un algorithme de théorie des jeux, un ou plusieurs paramètres prépondérants dans le calcul de la liste 32 d’action(s) préconisée(s). L’algorithme de théorie des jeux est alors par exemple adapté pour recevoir en entrée l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, d’une part, et d’autre part, la liste 32 d’action(s) préconisée(s), puis à délivrer en sortie un ou plusieurs paramètres prépondérants dans le calcul effectué par l’algorithme d’intelligence artificielle. Le ou les paramètres prépondérants fournis par le module d’évaluation 38 sont par exemple une ou plusieurs images 24, c’est-à-dire ou plusieurs cartes graphiques, qui ont été particulièrement prises en compte dans le calcul effectué par l’algorithme d’intelligence artificielle.

Le module d’évaluation 28 permet alors de fournir à l’utilisateur l’explication causale des propositions de l’algorithme d’intelligence artificielle, en particulier des propositions du réseau de neurones 60, et permet alors de confronter la vision du problème du point de vue de l’algorithme d’intelligence artificielle avec la vision métier de l’utilisateur et des critères que celui-ci aurait considéré comme prépondérants au vu de la situation courante de l’aéronef 10.

L’algorithme de théorie des jeux mis en œuvre par le module d’évaluation 38 est par exemple l’algorithme basé sur la valeur de Shapley permettant de donner la contribution de chaque joueur à un score global. De manière plus générale, lorsque plusieurs attributs contribuent à un même score ou résultat global, la valeur de Shapley permet de calculer la contribution de chaque attribut à ce score global. Le calcul de cette valeur correspond à la moyenne des contributions obtenues grâce à cet attribut, en prenant toutes les combinaisons possibles d’attribut.

La valeur de Shapley est par exemple calculée suivant l’équation suivante :

[Math où Xi, ... , Xp représentent les différents attributs.

Val correspond à la fonction de score global.

L’homme du métier comprendra alors que les attributs correspondent aux différents paramètres influant sur le choix de l’algorithme d’intelligence artificielle, tel que le réseau de neurones 60, ces paramètres influant étant notamment les images 24 ou cartes graphiques, de l’ensemble fourni en variable d’entrée de l’algorithme d’intelligence artificielle. La fonction de valeur Val correspond alors à la probabilité que l’algorithme d’intelligence artificielle, tel que le réseau de neurones 60, choisisse l’action sélectionnée en sortie.

Autrement dit, l’algorithme de théorie des jeux, tel que l’algorithme basé sur la valeur Shapley, permet - pour une décision d’action donnée par l’algorithme d’intelligence artificielle, c’est-à-dire par exemple par le réseau de neurones dit acteur - de retrouver la contribution de chaque paramètre, par exemple de chaque image 24 de l’ensemble fourni en entrée de l’algorithme d’intelligence artificielle, et ainsi de sélectionner celle ayant le plus fort impact. Selon ce complément facultatif, l’image 24 ayant eu le plus fort impact sur la liste 32 d’action(s) préconisée(s) fournie par l’algorithme d’intelligence artificielle est en complément affichée sur l’écran d’affichage 18 par le module d’affichage 34.

L’homme du métier comprendra alors que, dans l’exemple de la figure 2, l’image résultante 70, affichée par le module d’affichage 24, correspond à l’image 24 ayant eu le plus fort impact sur laquelle est superposée la liste 32 d’actions préconisées par le module du calcul 30.

En complément facultatif encore, le module de sélection 40 est configuré pour sélectionner une fonction de récompense parmi la pluralité de fonctions de récompense R, par exemple à partir d’une interaction de l’utilisateur. La sélection ainsi effectuée influence alors l’apprentissage de l’algorithme d’intelligence artificielle mis en œuvre par le module de calcul 30.

Selon ce complément facultatif, le module de sélection 40 est en effet configuré pour sélectionner alors la fonction de récompense R qui sera utilisée pour l’apprentissage par renforcement de l’algorithme d’intelligence artificielle, comme décrit précédemment.

L’homme du métier comprendra alors que cette sélection a au final une influence sur la liste 32 d’action(s) préconisée(s) qui sera calculée par le module de calcul 30.

En complément facultatif encore, le module de calcul 30 est configuré pour effectuer plusieurs itérations successives de l’algorithme d’intelligence artificielle, afin d’avoir une mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs, et calculer alors différentes listes 32 successives d’action(s) préconisée(s), ces listes 32 successives étant associées aux instants ultérieurs successifs.

Selon ce complément facultatif, le module de calcul 30 est alors configuré pour, partant d’une situation, c’est-à-dire d’un état, à un instant temporel t, calculer une liste 32 d’actions préconisées à un premier instant ultérieur, noté t+1 , et alors donner une situation ou état de l’aéronef à cet instant ultérieur t+1. La liste 32 d’actions(s) préconisée(s) à cet instant ultérieur t+1 est notamment susceptible d’être affichée dans le module d’affichage 34 sur l’écran d’affichage 18. De manière itérative et partant de la situation calculée de l’aéronef à cet instant ultérieur t+1 , le module de calcul 30 est alors configuré pour calculer lors d’une nouvelle itération une liste 32 d’action(s) préconisée(s) à un deuxième instant ultérieur, noté t+2, afin d’obtenir la situation de l’aéronef à ce deuxième instant ultérieur t+2, et ainsi de suite, comme représenté sur la figure 4.

Le fonctionnement du système électronique d’affichage 16 selon l’invention, et en particulier du dispositif électronique de détermination 20, va être à présent décrit en regard de la figure 3 représentant un organigramme du procédé selon l’invention de détermination d’au moins une action préconisée pour l’aéronef 10, ainsi qu’en complément facultatif en regard de la figure 4 représentant un organigramme du calcul de la liste 32 d’actions préconisées lorsque ce calcul comporte plusieurs itérations successives de l’algorithme d’intelligence artificielle.

Lors d’une étape initiale 100, le dispositif de détermination 20 acquiert, via son module d’acquisition 22, l’ensemble d’image(s) 24 de zone(s) géo-référencée(s) relative(s) à l’aéronef 10, par exemple à partir de la base de données 14. Ces images 24 stockées dans la base de données 14 ont typiquement été préalablement construites via une interface homme-machine respective, telle qu’une interface graphique.

Ces images 24 sont alors typiquement des données spatiales discrétisées sur la zone d’intérêt, telles que des données météorologiques, les zones de menace, les zones d’intérêt, la direction dans laquelle se situe une menace, des trajectoires d’obstacles passés ou futurs, des zones d’incertitude dans lesquelles aucune information n’est disponible, ou encore des représentations des liens entre entités connectées sur un même réseau par un maillage.

Lors d’une étape suivante 110, le dispositif de détermination 20 reçoit, via son module de réception 26, le groupe 28 de donnée(s) contextuelle(s) relative(s) à l’aéronef 10, ce groupe 24 de donnée(s) contextuelle(s) étant par exemple en forme d’un vecteur de dimension Pi. Ces données contextuelles sont alors typiquement des données non- spatiales, par exemple le nombre de ressources disponibles, telles qu’une quantité de carburant, ou un nombre d’équipements emportés, le nombre d’entités identifiées présentes sur la scène, c’est-à-dire dans une zone géo-référencée respective, ou encore le nombre d’entités inconnues présentes sur la scène.

Le dispositif de détermination 20 calcule alors, lors de l’étape suivante 120 et via son module de calcul 30, la liste 32 d’action(s) préconisée(s) pour l’aéronef 10 via l’algorithme d’intelligence artificielle, tel que le réseau de neurones 60. La liste 32 d’action(s) préconisée(s) est alors typiquement en forme d’un vecteur respectif de taille P å concaténant un ensemble d’actions préconisées pour l’aéronef 10. Ces actions préconisées sont par exemple un cap, une vitesse, une position à atteindre, une altitude, le choix d’un équipement, la sélection d’un capteur, la sélection d’un mode/paramètre d’usage d’un capteur ou équipement.

Comme décrit précédemment, l’algorithme d’intelligence artificielle mis en œuvre par le module de calcul 30 résulte d’un apprentissage, de préférence d’un apprentissage par renforcement. Cet apprentissage par renforcement est par exemple un algorithme DQN, c’est-à-dire un algorithme de Q-learning avec un estimateur neuronal, ou encore un algorithme de gradient de politique de type acteur-critique. A l’issue de l’étape de calcul 120, le dispositif de détermination 20 affiche, lors de l’étape 130 et via son module d’affichage 34, la liste 32 d’action(s) préconisée(s) sur l’écran d’affichage 18 et/ou transmet, via son module de transmission 36 et lors de l’étape 140, la liste 32 d’action(s) préconisée(s) à au moins un système avionique 12 respectif.

En complément facultatif, lors de l’étape optionnelle 150, le dispositif de détermination 20 évalue, via son module d’évaluation 38, mettant en œuvre l’algorithme de théorie des jeux, le ou les paramètres prépondérants dans le calcul 32 d’action(s) préconisée(s). Ce ou ces paramètres prépondérants sont par exemple la ou les images 24 qui ont eu le plus fort impact sur le calcul, effectué par l’algorithme d’intelligence artificielle, de la liste 32 d’action(s) préconisée(s). L’algorithme de théorie des jeux est par exemple basé sur la valeur de Shapley.

Lors de cette étape d’évaluation 150, le ou les paramètres prépondérants sont en complément facultatif affichés à l’écran d’affichage 18.

Comme représenté sur la figure 3, cette étape d’évaluation est effectuée, d’une part, à partir de la liste 32 d’actions préconisées calculée par le module de calcul 30 lors de l’étape 120, et d’autre part, à partir de l’ensemble d’images 24 acquis lors de l’étape 100 par le module d’acquisition 22 et fourni en entrée de l’algorithme d’intelligence artificielle.

En complément facultatif encore, lors d’une étape optionnelle 160, le dispositif de détermination 20 sélectionne, via son module de sélection 40 et typiquement à partir d’une interaction de l’utilisateur, une fonction de récompense parmi la pluralité de fonctions de récompense R utilisées pour l’apprentissage de l’algorithme d’intelligence artificielle. L’interaction de l’utilisateur conduisant à cette sélection résulte par exemple de la liste 32 d’action(s) préconisée(s) affichée(s) lors de l’étape 130 et/ou des paramètres prépondérants évalués lors de l’étape 150 et permettant à l’utilisateur de mieux comprendre les paramètres ayant influencé le calcul de la liste 32 d’action(s) préconisée(s).

Cette sélection de fonction de récompense lors de l’étape 160 aura alors une influence sur un futur calcul de liste(s) 32 d’action(s) préconisée(s), ce calcul de liste(s) 32 d’action(s) préconisée(s) étant alors effectué en utilisant l’ensemble de poids de réseau appris avec la fonction de récompense sélectionnée.

En complément facultatif encore, l’étape de calcul 120 comporte plusieurs itérations successives de l’algorithme d’intelligence artificielle, afin d’avoir une mise en œuvre anticipée de l’algorithme d’intelligence artificielle à des instants ultérieurs successifs, comme représenté sur la figure 4.

Dans l’exemple de la figure 4, partant d’une situation, ou d’un état, de l’aéronef à l’instant temporel t représenté par une sous-étape 200, le module de calcul 30 requiert lors d’une sous-étape 210 et auprès de l’algorithme d’intelligence artificielle, la liste 32 d’action(s) préconisée(s) au premier instant temporel ultérieur t+1 , ce qui permet d’aboutir lors d’une sous-étape 220 à une situation, ou état, de l’aéronef 10 au premier instant temporel ultérieur t+1. La liste 32 d’action(s) préconisée(s) au premier instant temporel ultérieur t+1 et matérialisant la situation de l’aéronef 10 à cet instant est en outre affichée à l'écran d’affichage 18 lors d’une sous-étape 230, et ainsi de suite. Le module de calcul 30 est notamment capable de poursuivre cette itération en partant de la situation, ou état, de l’aéronef au premier instant temporel ultérieur t+1 afin de calculer une nouvelle liste 32 d’action(s) préconisée(s) à un nouvel instant temporel ultérieur, tel que le deuxième instant temporel ultérieur t+2.

Ainsi, le système d’affichage 16 selon l’invention, et en particulier le dispositif de détermination 20, ainsi que le procédé de détermination associé, permettent d’apporter à l’utilisateur, tel que le pilote de l’aéronef 10, une aide à la décision significative, notamment pour la gestion en temps réel de problème(s) complexe(s). En effet, le dispositif de détermination 20 permet de calculer facilement et efficacement la liste 32 d’action(s) préconisée(s), c’est-à-dire la liste 32 d’action(s) qu’il est recommandé pour l’utilisateur d’effectuer avec l’aéronef 10, ou encore qu’il est recommandé d’effectuer par le ou les systèmes avioniques 12 auxquels ladite liste 32 d’action(s) a été transmise, afin de gérer le problème complexe correspondant. La ou les actions à prendre pour l’aéronef 10 sont typiquement un cap à suivre, une vitesse à respecter, une position à atteindre, une consigne d’altitude, le choix d’un équipement, la sélection d’un capteur ou encore la sélection d’un mode/paramètre d’usage d’un capteur ou équipement.

En outre, de par le module d’évaluation 38, le dispositif de détermination 20 permet de mettre en œuvre une communication bidirectionnelle entre l’utilisateur et le dispositif de détermination 20, en particulier entre l’utilisateur et l’algorithme d’intelligence artificielle mis en œuvre par le dispositif de détermination 20, ce qui revient à mettre l’utilisateur dans la boucle. Cette communication bidirectionnelle entre l’utilisateur et l’algorithme d’intelligence artificielle provient également de la sélection possible d’un apprentissage par renforcement, et en particulier de la fonction de récompense utilisée pour ledit apprentissage, ceci via le module de sélection 40 et sur des données entièrement visuelles et interprétables par l’utilisateur. En outre, les images 24 sont préférentiellement des images interactives pour la prise en compte immédiate de modifications souhaitées par l’utilisateur.

L’évaluation via l’algorithme de théorie des jeux des actions préconisées, proposées par le dispositif de détermination 20, fournit également à l’utilisateur une explication des propositions de l’algorithme d’intelligence artificielle, ce qui lui permet de valider ou non lesdites propositions de l’algorithme d’intelligence artificielle.

En outre, le dispositif de détermination 20 permet de calculer avec une plus grande robustesse et une plus grande efficacité la liste 32 d’actions(s) préconisée(s) vis-à-vis de nouveaux contextes ou situations, de par la mise en œuvre de l’algorithme d’intelligence artificielle qui s’adapte à de tels nouveaux contextes ou situations en traitant en variables d’entrée l’ensemble d’images 24 de zone(s) géo-référencée(s) et le groupe 28 de données contextuelles et en délivrant en sortie la liste 32 d’action(s) préconisée(s) à partir de ces variables d’entrée, l’algorithme d’intelligence artificielle ayant été préalablement entraîné sur une large variété d’images 24 et de données contextuelles correspondant à divers contextes et situations.

En outre, lorsque l’algorithme d’intelligence artificielle est entraîné via un apprentissage par renforcement, tel qu’un algorithme DQN ou encore un algorithme de gradient de politique de type acteur-critique, le calcul de la liste 32 d’action(s) préconisée(s) est encore plus robuste et plus efficace.

On conçoit ainsi que le dispositif de détermination 20 selon l’invention et le procédé de détermination associé permettent de déterminer une ou plusieurs actions préconisée(s) pour l’aéronef 10 de manière plus robuste et plus efficace vis-à-vis de nouveaux contextes ou situations.