Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND SYSTEM FOR BROADCASTING A MULTICHANNEL AUDIO STREAM TO TERMINALS OF SPECTATORS ATTENDING A SPORTING EVENT
Document Type and Number:
WIPO Patent Application WO/2019/186079
Kind Code:
A1
Abstract:
The invention relates to a method for broadcasting a spatialised audio stream to terminals (TERM) of spectators attending a sporting event. The method comprises acquiring a plurality of audio streams which constitute a sound scene (SS). The sound scene (SS) is analysed by a server (SERV) in order to make an assessment of the sound spatialisation of the audio streams and the reproduction thereof on the terminals (TERM), depending, on the one hand, on the location of the audio streams and, on the other hand, on the position of the spectators.

Inventors:
BLOUET RAPHAEL (FR)
ESSID SLIM (FR)
Application Number:
PCT/FR2019/050731
Publication Date:
October 03, 2019
Filing Date:
March 28, 2019
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
INST MINES TELECOM (FR)
International Classes:
G06F3/01; H04S7/00; G06T19/00; H04N21/20; G10L21/0272; H04R3/00
Domestic Patent References:
WO2017182714A12017-10-26
WO2007115392A12007-10-18
Foreign References:
US5714997A1998-02-03
US9832587B12017-11-28
US20140355769A12014-12-04
US20150195641A12015-07-09
US20150373474A12015-12-24
Attorney, Agent or Firm:
CABINET PLASSERAUD (FR)
Download PDF:
Claims:
Revendications

1. Procédé de diffusion d’un flux audio multicanal (Fmuiti) à des terminaux (TERM) de spectateurs assistant à un évènement sportif,

le procédé comprenant :

- une acquisition, au moyen d’une pluralité de capteurs audio (Ml - MN) répartis sur un espace accueillant l’évènement sportif, d’une pluralité de flux audio bruts (FBl - FBN) constituant une scène sonore (SS) comportant une ou plusieurs sources sonores (Sl - SN),

- une analyse, par un serveur (SERV), de la scène sonore (SS) comprenant :

o une isolation de chaque source sonore (Sl - SN) de la scène sonore (SS) et l’attribution d’un flux audio monocanal (Fmonol - FmonoN), propre à chaque source sonore (Sl - SN),

o pour chaque flux audio monocanal (Fmonol - FmonoN), une localisation dans l’espace en fonction d’une position dans l’espace accueillant l’évènement sportif de la source sonore (Sl - SN) associée au flux audio monocanal (Fmonol -

FmonoN),

o la génération d’une table de description (T AB) des flux audio monocanal (Fmonol - FmonoN), la table de description (TAB) comportant un identifiant (ID) de chaque flux audio monocanal (Fm0nol - FmonoN) et, en association avec chaque identifiant (ID) de flux audio monocanal (Fmonol - FmonoN), au moins une donnée de localisation,

- une transmission, par le serveur (SERV), de la table de description (TAB) avec un flux audio multicanal (Fmulti) vers un ou plusieurs terminaux (TERM), le flux audio multicanal (Fmuiti) agrégeant les flux audio monocanal (Fm0no l - Fm0noN),

- une utilisation, par un terminal (TERM), de la table de description (TAB) reçue et du flux audio multicanal (Fmuiti) pour appliquer un filtrage de spatialisation sonore des flux audio monocanal (Fmonol - Fm0noN) en fonction des localisations respectives de chaque flux audio monocanal (Fmonol - Fm0noN), d’une part, et d’une position du spectateur dans ledit espace accueillant l’évènement sportif, d’autre part, en vue d’une restitution sonore spatialisée d’une partie au moins des flux audio monocanal (Fmonol - FmonoN) sur le terminal (TERM).

2. Procédé selon la revendication 1, dans lequel l’analyse de la scène sonore (SS) comprend en outre : pour chaque flux audio monocanal (Fmonol - FmonoN), une classification dans une classe parmi une pluralité de classes, en fonction d’un type de la source sonore (Sl - SN) associée au flux audio monocanal (Fmonol - FmonoN),

la table de description (TAB) comportant en outre une donnée de classe de flux audio monocanal (Fmonol - FmonoN) en association de chaque identifiant (ID) de flux audio monocanal (Fmonol - FmonoN),

et le procédé comprenant, auprès du terminal (TERM) :

- une lecture de la table de description (TAB), pour identifier la classe de chaque flux audio monocanal (Fmonol - FmonoN),

- l’application de gains respectifs aux flux audio monocanal (Fmonol - FmonoN) pour la restitution sonore spatialisée, les gains étant choisis par un spectateur du terminal (TERM) en fonction de la classe de chaque flux audio monocanal (Fmonol - FmonoN).

3. Procédé selon l’une des revendications 1 et 2, comprenant une détermination d’une orientation du spectateur par rapport à un référentiel choisi,

le procédé comprenant en outre une application de gains respectifs aux flux audio monocanal spatialisés (Fspatial - FspatiaN), les gains respectifs appliqués aux flux audio monocanal spatialisés (Fspatial - FspatiaN) évoluant en fonction de la position et/ou de l’orientation du spectateur par rapport au référentiel choisi.

4. Procédé selon l’une des revendications précédentes, comprenant une division de l’espace accueillant l’évènement sportif en une pluralité de sous-espaces, au moins un capteur audio (Ml - MN) étant prévu dans chaque sous-espace,

le procédé comportant la construction de la scène sonore (SS) par un mixage des flux audio bruts (F 1 - FBN) captés par les capteurs audio (Ml - MN),

le procédé comprenant, pour l’analyse de la scène sonore (SS), une détermination des positions de sources sonores (Sl - SN) relativement à chacun desdits sous-espaces.

5. Procédé selon l’une des revendications 1 à 4, dans lequel l’isolation de sources sonores (Sl

- SN) est effectuée par séparation de sources.

6. Procédé selon l’une des revendications 1 à 4, dans lequel l’isolation de sources sonore (Sl

- SN) est effectuée par masquage temps-fréquence.

7. Procédé selon l’une des revendications 2 à 6, dans lequel la classification des flux audio monocanal (Fmonol - FmonoN) est menée par apprentissage, les flux audio monocanal (Fmonol - FmonoN) étant classifiés par une technique de réseaux de neurones profonds.

8. Procédé selon l’une des revendications 1 à 7, comprenant en outre, auprès du serveur (SERV) :

- pour chaque phase de jeu, une détermination d’un type de la phase de jeu, parmi une pluralité de types de phases de jeu,

- une sélection, dans une bibliothèque (B IB) de flux audio informatifs (Finf0l - FinfoN), d’au moins un flux audio informatif (Finf0l - Finf0N) en fonction du type de la phase de jeu déterminé, et

- une transmission du flux audio informatif (Finf0l - Finf0N) au terminal (TERM) en vue de sa restitution sonore.

9. Procédé selon la revendication 8, dans lequel la détermination du type de phase de jeu est menée par apprentissage sur des images acquises par capture vidéo de phases de jeu par au moins une caméra, l’apprentissage étant effectué au moyen d’une technique de réseaux de neurones profonds.

10. Système de diffusion (SYST) d’un flux audio multicanal (Fmuia) à des terminaux (TERM) de spectateurs assistant à un évènement sportif comprenant :

- un module d’acquisition (MAC), comprenant une pluralité de capteurs audio (Ml - MN) répartis sur un espace accueillant l’évènement sportif, d’une pluralité de flux audio bruts (FBl

- FBN) constituant une scène sonore (SS) comportant une ou plusieurs sources sonores (Sl - SN),

- un serveur (SERV) comprenant un module informatisé d’analyse (MIA) de la scène sonore (SS) configuré pour :

o isoler chaque source sonore (Sl -SN) de la scène sonore (SS) et attribuer un flux audio monocanal (Fmonol FmonoN) propre à chaque source sonore (Sl SN), o pour chaque flux audio monocanal (Fmonol - FmonoN), localiser la source sonore (Sl - SN) associée au flux monocanal (Fmonol - FmonoN) dans l’espace accueillant l’évènement sportif,

o générer une table de description (T AB) des flux audio monocanal (Fmonol - FmonoN), la table de description (TAB) comportant un identifiant (ID) de chaque flux audio monocanal (Fmonol - FmonoN) et, en association avec chaque identifiant (ID) de flux audio monocanal (Fmonol - FmonoN), au moins une donnée de localisation,

o un module de transmission (MT) configuré pour transmettre la table de description (TAB) avec un flux audio multicanal (Fmulti) vers un ou plusieurs terminaux (TERM), le flux audio multicanal (Fmuia) agrégeant les flux audio monocanal (Fmono 1 - FmonoN),

- un terminal (TERM) configuré pour :

o utiliser la table de description (TAB) reçue et le flux audio multicanal (Fmulti) pour appliquer un filtrage de spatialisation sonore des flux audio monocanal (Fmonol -

FmonoN) en fonction des localisations respectives de chaque flux audio monocanal (Fmonol - FmonoN), d’une part, et d’une position du spectateur dans ledit espace accueillant l’évènement sportif, d’autre part, en vue d’une restitution sonore spatialisée d’une partie au moins des flux audio monocanal (Fmono 1 - FmonoN) sur le terminal.

11. Système selon la revendication 10, dans lequel un capteur d’orientation est apte à déterminer l’orientation du spectateur dans l’espace, le capteur d’orientation étant choisi parmi une centrale inertielle et/ou un accéléromètre.

Description:
Procédé et système de diffusion d’un flux audio multicanal à des terminaux de spectateurs assistant à un évènement sportif

[001] L’invention concerne les procédés et les systèmes de diffusion permettant d’améliorer la perception sonore de spectateurs assistant à un évènement sportif.

[002] Plus précisément, l’invention porte sur des procédés et des systèmes de diffusion utilisant la réalité augmentée sonore, et permettant à un spectateur assistant à un évènement sportif de percevoir des flux audio personnalisés issus de l’évènement.

[003] Le document WO 2007/115392 décrit un système permettant à des spectateurs d’assister à distance à plusieurs évènements sportifs se déroulant simultanément. Plus précisément, les spectateurs sont munis d’un terminal mobile électronique sur lequel ils reçoivent plusieurs flux multimédias correspondant chacun à un des évènements sportifs retransmis en direct. Typiquement, les flux multimédias peuvent être des flux vidéo ou des flux audio. Le spectateur peut choisir à quels flux multimédia il souhaite avoir accès. Toutefois, un tel système ne permet pas une immersion complète du spectateur.

[004] La présente invention vient améliorer la situation.

[005] A cet effet, elle propose un procédé de diffusion d’un flux audio multicanal à des terminaux de spectateurs assistant à un évènement sportif,

le procédé comprenant, auprès d’un serveur :

- une acquisition, au moyen d’une pluralité de capteurs audio répartis sur un espace accueillant l’évènement sportif, d’une pluralité de flux audio bruts constituant une scène sonore comportant une ou plusieurs sources sonores,

- une analyse de la scène sonore comprenant :

o une isolation de chaque source sonore de la scène sonore et l’attribution d’un flux audio monocanal, propre à chaque source sonore,

o pour chaque flux audio monocanal, une localisation dans l’espace en fonction d’une position dans l’espace accueillant l’évènement sportif de la source sonore associée au flux audio monocanal,

o la génération d’une table de description des flux audio monocanal, la table de description comportant un identifiant de chaque flux audio monocanal et, en association avec chaque identifiant de flux audio monocanal, au moins une donnée de localisation,

- une transmission de la table de description avec un flux audio multicanal vers un ou plusieurs terminaux, le flux audio multicanal agrégeant les flux audio monocanal,

et auprès d’un terminal:

o une utilisation de la table de description reçue et du flux audio multicanal pour appliquer un filtrage de spatialisation sonore des flux audio monocanal en fonction des localisations respectives de chaque flux audio monocanal, d’une part, et d’une position du spectateur dans ledit espace accueillant l’évènement sportif, d’autre part, en vue d’une restitution sonore spatialisée d’une partie au moins des flux audio monocanal sur le terminal..

[006] Grâce à ces dispositions, le spectateur est réellement immergé, de manière auditive, dans l’évènement sportif. En effet, la restitution sonore spatialisée permet de prendre en compte la position du spectateur afin que les flux audio diffusés correspondent exactement à ce qu’il est en train de vivre.

[007] Selon une réalisation, l’analyse de la scène sonore comprend en outre :

pour chaque flux audio monocanal, une classification dans une classe parmi une pluralité de classes, en fonction d’un type de la source sonore associée au flux audio monocanal,

la table comportant en outre une donnée de classe de flux audio monocanal en association de chaque identifiant de flux audio monocanal,

et le procédé comprenant, auprès du terminal :

- une lecture de la table de description, pour identifier la classe de chaque flux audio monocanal,

- l’application de gains respectifs aux flux audio monocanal pour la restitution sonore spatialisée, les gains étant choisis par un spectateur du terminal en fonction de la classe de chaque flux audio monocanal.

[008] De cette manière, le spectateur peut choisir quel type de flux audio il souhaite écouter. Son immersion dans l’évènement sportif n’en est qu’améliorée puisqu’il peut mettre de côté les flux audio dont la source sonore ne l’intéresse pas. Le spectateur vit une expérience personnalisée de l’évènement sportif. [009] Selon une réalisation, le procédé comprend une détermination d’une orientation du spectateur par rapport à un référentiel choisi, le procédé comprenant en outre une application de gains respectifs aux flux audio monocanal spatialisés, les gains respectifs appliqués aux flux audio monocanal spatialisés évoluant en fonction de la position et/ou de l’orientation du spectateur par rapport au référentiel choisi.

[010] De cette manière, l’immersion du spectateur dans l’évènement sportif est encore augmentée. En effet, la détermination de son orientation lui permet d’effectuer un « zoom audio » sur la partie de l’espace accueillant l’évènement sportif qu’il est en train de viser.

[011] Selon une réalisation, le procédé comprend une division de l’espace accueillant l’évènement sportif en une pluralité de sous-espaces, au moins un capteur audio étant prévu dans chaque sous-espace, le procédé comportant la construction de la scène sonore par un mixage des flux bruts captés par les capteurs audio, le procédé comprenant, pour l’analyse de la scène sonore, une détermination des positions de sources sonores relativement à chacun desdits sous-espaces.

[012] De cette manière, cette étape permet d’effectuer la restitution sonore spatialisée avec un nombre réduit d’étapes, de calculs et d’échanges de données. En effet, il suffit de déterminer de manière grossière la localisation des sources sonores.

[013] Selon une réalisation, l’isolation de sources sonores est effectuée par séparation de sources.

[014] Selon une réalisation, l’isolation de sources sonore est effectuée par masquage temps- fréquence.

[015] Selon une réalisation, la classification des flux audio monocanal est menée par apprentissage, les flux audio monocanal étant classifiés par une technique de réseaux de neurones profonds.

[016] Ainsi il est possible de mettre en œuvre le procédé en temps réel.

[017] Selon une réalisation, le procédé comprend en outre, auprès du serveur : - pour chaque phase de jeu, une détermination d’un type de la phase de jeu, parmi une pluralité de types de phases de jeu,

- une sélection, dans une bibliothèque de flux audio informatifs, d’au moins un flux audio informatif en fonction du type de la phase de jeu déterminé, et

- une transmission du flux audio informatif au terminal en vue de sa restitution sonore.

[018] Ainsi, cela permet au spectateur d’être immergé de manière encore plus importante dans l’évènement sportif. Cela permet également au spectateur de ne pas rater de phases de jeu cruciales puisque le système permet d’avertir le spectateur de la phase de jeu en cours.

[019] Selon une réalisation, la détermination du type de phase de jeu et éventuellement la localisation sur le terrain, associée à cette phase de jeu, peuvent être menées initialement par apprentissage sur des images acquises par capture vidéo de phases de jeu par au moins une caméra, l’apprentissage étant effectué au moyen d’une technique de réseaux de neurones profonds.

[020] De cette manière, la détermination et éventuellement la localisation du type de phase de jeu peuvent être faites en temps réel, de manière automatique.

[021] La présente invention vise aussi un système de diffusion d’un flux audio multicanal à des terminaux de spectateurs assistant à un évènement sportif comprenant :

- un module d’acquisition, comprenant une pluralité de capteurs audio répartis sur un espace accueillant l’évènement sportif, d’une pluralité de flux audio bruts constituant une scène sonore comportant une ou plusieurs sources sonores,

- un serveur comprenant un module informatisé d’analyse de la scène sonore configuré pour :

o isoler chaque source sonore de la scène sonore et attribuer un flux audio monocanal propre à chaque source sonore,

o pour chaque flux audio monocanal, localiser la source sonore associée au flux monocanal dans l’espace accueillant l’évènement sportif,

o générer une table de description des flux audio monocanal, la table de description comportant un identifiant de chaque flux audio monocanal et, en association avec chaque identifiant de flux audio monocanal, au moins une donnée de localisation, o un module de transmission configuré pour transmettre la table de description avec un flux audio multicanal vers un ou plusieurs terminaux, le flux audio multicanal agrégeant les flux audio monocanal,

- un terminal configuré pour :

o utiliser la table de description reçue et le flux audio multicanal pour appliquer un filtrage de spatialisation sonore des flux audio monocanal en fonction des localisations respectives de chaque flux audio monocanal, d’une part, et d’une position du spectateur dans ledit espace accueillant l’évènement sportif, d’autre part, en vue d’une restitution sonore spatialisée d’une partie au moins des flux audio monocanal sur le terminal.

[022] Selon une réalisation, un capteur d’orientation est apte à déterminer l’orientation du spectateur dans l’espace, le capteur d’orientation étant choisi parmi une centrale inertielle et/ou un accéléromètre.

[023] D’autres avantages et caractéristiques de l’invention apparaîtront à la lecture de la description détaillée ci-après d’exemples de réalisation de l’invention, et à l’examen des dessins annexés sur lesquels :

[024] La figure 1 est une vue schématique illustrant le fonctionnement d’un système de diffusion d’un flux audio multicanal selon l’invention,

[025] La figure 2 est un ordinogramme des étapes principales d’un procédé de diffusion d’un flux audio multicanal à des terminaux de spectateurs assistant à un évènement selon un exemple de réalisation selon l’invention,

[026] La figure 3 représente de manière schématique le système selon l’invention.

[027] Par « évènement sportif », on entend tout évènement sportif réunissant un grand nombre de spectateur à un même endroit pour assister à une performance sportive. Par exemple, le système peut être utilisé dans le cadre d’un match de football, de basketball, de baseball, de rugby, de hockey, de tennis, etc. Cette liste n’est pas limitative.

[028] Comme illustré sur les figures 1 et 3, le système SYST comprend un module d’acquisition MAC. Le module d’acquisition MAC comprend une pluralité de capteur audio Ml - MN, par exemple des microphones. Les capteurs audio Ml - MN sont répartis sur l’espace accueillant l’évènement sportif. L’aspect de l’espace accueillant l’évènement sportif peut grandement varier en fonction du type d’évènement sportif. Notamment, l’espace accueillant l’évènement sportif peut être un stade avec des gradins, un circuit de course, etc.

[029] Pour chaque type d’espace accueillant l’évènement sportif (ou « espace » dans la suite de la description), les capteurs audio Ml - MN sont répartis de manière à ce que chaque flux audio bruts F B ! - F B N issu de l’évènement sportif soit capté. Les capteurs audio Ml - MN peuvent alors être répartis de manière homogène autour de l’espace accueillant l’évènement sportif.

[030] On entend par « flux audio bruts » les flux audio qui sont enregistrés par les capteurs audio Ml - MN et qui ne sont pas encore traités. Les flux audio bruts peuvent comprendre des clameurs de la foule assistant à l’évènement sportif, des bruits issus du jeu des sportifs, par exemple un coup dans une balle, un cri d’effort etc. Les flux audio bmts peuvent également comprendre des paroles échangées par les sportifs. Les flux audio bruts peuvent également comprendre les paroles échangées entre les spectateurs. Les flux audio bruts forment une scène sonore comportant une ou plusieurs sources sonores.

[031] Dans l’exemple de la figure 1, des flux audio bruts F B l - F B N et des sources sonores Sl - SN sont représentés. Le flux audio brut F B l, associé à la source sonore Sl, correspond par exemple à un coup donné par un joueur dans un ballon. Le flux audio brut F B 2, associé à la source sonore S2, correspond à un coup de sifflet et le flux audio F B N, associé à la source sonore SN, correspond à des paroles échangées entre des spectateurs. Les flux audio Fsl - F b N sont captés par les capteurs audio Ml - MN du module d’acquisition MAC.

[032] Les flux audio Fel - F B N sont diffusés dans l’espace. Ainsi, chaque flux audio F B 1 - F b N est capté de manière plus ou moins intense par chaque capteur audio Ml - MN. Par exemple, le capteur audio Ml capte principalement le flux audio F B l, mais il capte également le flux audio F B 2. De même, le capteur audio M5 capte de manière très précise le flux audio brut F B N, un peu moins le flux audio F B l et encore moins le flux audio F B 2. La scène sonore SS est construite par un mixage de tous les flux audio bruts F B l, F B 2 et F B N. La scène sonore SS comporte plusieurs sources sonores Sl - SN. [033] Le système SYST peut comprendre au moins deux réseaux de capteurs audio Ml - MN. Le premier réseau de capteurs audio permet par exemple de capter le fond sonore de l’évènement sportif, typiquement la clameur de la foule assistant à l’évènement sportif. Le premier réseau de capteurs audio peut également permettre de capter les paroles échangées entre les spectateurs. Ainsi, les capteurs audio du premier réseau sont de préférence disposés près des spectateurs, et de préférence directement sur les spectateurs.

[034] Le deuxième réseau de capteurs audio Ml - MN peut également permettre de capter le fond sonore de l’évènement sportif ou la clameur de la foule. Le deuxième réseau peut également capter les flux audio bruts associés à l’évènement sportif. Cela peut comprendre les bruits issus du jeu, tel qu’un coup dans une balle, ou encore les paroles échangées entre les joueurs.

[035] Il est possible de définir au moins trois types de sources sonores. Le premier type correspond à l’ambiance de l’évènement sportif. Le premier type comprend notamment la clameur de la foule assistant à l’évènement sportif. Le deuxième type correspond aux évènements de l’évènement sportif. Il comprend par exemple les coups dans une balle, des coups de sifflet, etc. Le troisième type correspond aux paroles échangées entre les spectateurs de l’évènement sportif.

[036] La pluralité de flux audio bruts captés par chacun des capteurs audio Ml - MN est envoyée vers un local d’analyse LOC. La transmission est représentée par la flèche « IN » sur la figure 1. Le local d’analyse comprend au moins un serveur SERV auprès duquel un filtrage des flux audio bruts F B I - F B N est appliqué. Notamment, un filtrage par séparation de sources est effectué. La séparation de sources permet d’isoler les différents évènements sonores de jeu à partir de la scène sonore enregistrée par les capteurs audio. Les flux filtrés sont transmis à un terminal TERM en vue d’une restitution spatialisée d’une partie au moins des flux audio sur le terminal TERM. Le terminal TERM est par exemple un terminal mobile de type téléphone intelligent, tablette électronique ou ordinateur.

[037] Des dispositifs de diffusion DIFF sont également prévus pour diffuser les flux audio spatialisés. Les dispositifs de diffusion DIFF peuvent être des enceintes personnelles ou des casques audio que chaque spectateur a à sa disposition. [038] Le système SYST selon l’invention permet notamment de faire une restitution sonore personnalisée. Par exemple, la restitution sonore des sons relatifs à l’évènement sportif est faite en fonction de la localisation de chaque source sonore Sl - SN ainsi que de la position du spectateur, utilisant le terminal TERM, dans l’espace accueillant l’évènement sportif. La position du spectateur peut être déterminée par un module de positionnement MP, apte à localiser le spectateur par géolocalisation par satellite (« GPS »), par triangulation ou par communication en champ proche (« Near fiel communication » ou « NFC » en anglais). Un spectateur entendra de manière plus audible un flux audio dont la source sonore associée est proche de lui. En reprenant l’exemple de la figure 1, un spectateur situé à gauche du terrain entendra de manière plus prononcée le flux audio F B l associé à la source Sl que le flux audio F2 associé à la source sonore S2.

[039] Dans un exemple de réalisation, le spectateur a la possibilité d’entrer des préférences de restitution de la scène sonore via le terminal TERM. Par exemple, le spectateur peut choisir d’entendre des flux audio associés à un certain type de source sonore. Par exemple, le spectateur peut choisir de n’entendre que les paroles échangées entre les spectateurs, ou que les coups de sifflet de l’arbitre. Le spectateur peut également choisir d’entendre de manière plus ou moins intense tous les flux audio, en fonction du type de source sonore à laquelle ils sont associés.

[040] Selon un autre exemple de réalisation, le spectateur entend de manière plus intense certains flux audio en fonction de son orientation dans l’espace accueillant l’évènement sportif. Par exemple, le système comprend module d’orientation MO comprenant un capteur d’orientation pour déterminer dans quelle direction regarde le spectateur. Le spectateur peut alors être équipé d’un accessoire, par exemple un casque ou une vignette, supportant le capteur d’orientation. Le capteur d’orientation peut être un accéléromètre ou une centrale inertielle. Il est alors possible de déterminer vers quelle source sonore Sl - SN le spectateur est tourné pour amplifier le volume de diffusion des flux audio associés à cette source sonore. L’expérience du spectateur en est améliorée puisque cela permet d’être complètement immergé dans l’évènement sportif auquel il assiste.

[041] La figure 2 illustre de manière plus précise les principales étapes du procédé mis en œuvre par le système SYST. [042] Le module d’ acquisition MAC capte tous les flux audio bmts F B 1 - F B N au moyen des capteurs audio Ml - MN. Les flux audio bruts Fel - F B N forment une scène sonore SS comprenant au moins une source sonore Sl - SN.

[043] Les étapes El à E5 sont effectuées auprès du serveur SERV. Le serveur SERV comprend un module informatisé d’analyse MIA permettant d’isoler chaque source sonore Sl - SN de la scène sonore SS. La scène sonore SS est transmise au module informatisé d’analyse MIA. A l’étape El, le module informatisé d’analyse MIA isole chaque source sonore Sl - SN de la scène sonore SS. L’isolation des sources sonores Sl - SN peut être faite par une méthode de séparation de sources par formation de voies, tel qu’illustré à l’étape El A. En variante, l’étape d’isolation des sources sonores Sl - SN est faite par un masquage temps-fréquence, tel qu’illustré à l’étape E1B. Le masquage temps -fréquence permet notamment de faire une séparation de sources lorsque deux évènements se sont produits simultanément dans une même zone de l’espace.

[044] L’étape El ayant permis d’isoler chaque source sonore Sl - SN, un flux audio monocanal F mono l - F mono N propre est peut être attribué à chaque source sonore Sl - SN à l’étape E2.

[045] A l’étape E3, chaque source sonore Sl - SN est localisée dans l’espace accueillant l’évènement sportif. Ainsi, chaque flux audio monocanal F mono l - F mono N peut être localisé en fonction de la localisation de la source sonore Sl - SN qui lui est propre. Notamment, l’espace accueillant l’évènement sportif peut être divisé en une pluralité de sous-espaces. Par exemple, l’espace accueillant l’évènement sportif peut être quadrillé, bien que l’espace puisse être divisé selon une autre configuration. Par exemple, chaque sous-espace peut correspondre à une zone propre de jeu, par exemple le centre du terrain, chaque zone de but, les zones de penalty, etc. Il est prévu au moins un capteur audio Ml - MN par sous-espace. La localisation des sources sonores Sl - SN est réalisée relativement à chaque sous-espace. Plus précisément, la localisation de chaque source sonore Sl SN correspond au sous-espace dans lequel elle se situe. La localisation de chaque flux audio monocanal F mono l - F mono N et celle de la source sonore Sl - SN qui lui est associée.

[046] Le module informatisé d’analyse MIA génère une table de description TAB à l’étape E5. Chaque flux audio monocanal F mono l - F mono N est défini par un identifiant ID. Chaque identifiant ID est associé à une donnée de localisation LOC du flux audio monocanal F mono l - F mono N, déterminé à l’étape E3.

[047] Selon une variante de réalisation, le procédé selon l’invention comprend en outre une étape préalable E4 de classification des flux audio monocanal F mono l - F mono N. Cette classification est faite en fonction du type de la source sonore Sl - SN associée au flux audio monocanal F mono l - F mono N. Comme décrit plus haut, il y a au moins trois types de sources sonores Sl - SN. Le premier type correspond à l’ambiance de l’évènement sportif et comprend notamment la clameur de la foule. Le deuxième type correspond aux évènements de l’évènement sportif et comprend notamment les coups des joueurs et les sifflets de l’arbitre. Le troisième type correspond aux paroles échangées entre spectateurs. Chaque type de source sonore peut être associé à au moins une classe. Plusieurs classes peuvent correspondre à un même type de source sonore. Par exemple, une première classe correspondant aux coups de pied dans une balle et une deuxième classe comprenant les coups de sifflet de l’arbitre peuvent être associées au deuxième type de source sonore.

[048] Selon une réalisation, la classification des flux audio monocanal F mono l - F mono N peut être effectuée au moyen d’une méthode de séparation de sources supervisée. La classification est menée par apprentissage, au moyen d’une technique de réseaux de neurones profonds. Cela a l’avantage de permettre une mise en œuvre en temps réel du procédé. En effet, l’apprentissage permet de reconnaître, dès la transmission vers le serveur SERV des flux audio captés par le module d’acquisition MAC, le type de la source sonore à laquelle les flux audio sont associés.

[049] Selon cette variante de réalisation, une classe TYP est en outre attribuée à chaque identifiant ID de flux audio monocanal F mono l F mono N compris dans la table de description TAB.

[050] La table de description TAB est ensuite transmise vers le terminal TERM à l’étape E6 par un module de transmission MT. La transmission comprend également un flux audio multicanal F muiti comprenant l’ensemble des flux audio monocanal.

[051] Selon une variante de réalisation, le système SYST ne comprend pas de module de tran mi sion MT. Les flux audio monocanal F mono l - F mono N sont compris dans une bibliothèque BIB et sont synthétisés en local en vue de leur restitution sonore spatialisée. [052] Les étapes El à E6 sont réalisées en temps réel auprès du serveur SERV.

[053] Les étapes E7 à El l sont effectuées auprès du terminal TERM. Le terminal TERM a reçu la table de description TAB ainsi que le flux audio multicanal Fmui a agrégeant l’ensemble des flux audio monocanal F mono l - F mono N.

[054] Le terminal TERM peut utiliser la table de description pour appliquer au moins un filtrage de spatialisation sonore. Le terminal TERM reçoit ainsi à l’étape E7 des données de positionnement du spectateur utilisant le terminal TERM. Les données de positionnement sont obtenues par le module de positionnement MP et/ou par le module d’orientation MO. Les données de positionnement comprennent au moins la position géographique du spectateur dans le référentiel de l’espace accueillant l’évènement sportif.

[055] Les données de positionnement peuvent en outre comprendre une donnée relative à l’orientation du spectateur par rapport à un référentiel fixe de l’espace, par exemple le centre du terrain. L’orientation du spectateur correspond au sous-espace vers lequel il est tourné ; L’utilisation de données d’orientation du spectateur permet, comme vu plus haut, de faire un « zoom audio » sur la partie de l’espace visée par le spectateur.

[056] Les données de positionnement sont acquises en temps réel et en continu par le module de positionnement MP.

[057] A l’étape E8, un filtrage est appliqué aux flux audio monocanal F mono l - F mono N en fonction des données de positionnement du spectateur et de la localisation des flux audio monocanal compris dans la table de description TAB. Une pluralité de flux audio monocanal spatialisés F spatia l - F spatia N est ainsi obtenue.

[058] Toutefois, le spectateur a la possibilité de mettre en avant certains flux audio par rapport à d’autres. Il a donc la possibilité de choisir s’il souhaite faire un zoom audio en fonction de son orientation dans l’espace, ou quelles classes de flux audio à diffuser. Ainsi, à l’étape E9, le terminal TERM reçoit des instructions de préférence du spectateur. Le spectateur peut par exemple entrer ses instructions via une interface du terminal TERM. Par exemple, une application dédiée peut être prévue pour permettre un échange entre le spectateur et le terminal TERM. [059] A l’étape E10, le terminal TERM applique des gains respectifs à au moins une partie des flux audio monocanal spatialisés F spat ia 1 - F spa tiaN.

[060] Selon la variante de réalisation dans laquelle l’orientation du spectateur est prise en compte, la table de description TAB est lue. Un gain respectif est appliqué aux flux audio monocanal spatialisés F spatia l - F spatia N dont les localisations associées dans la table de description TAB correspondent à la direction dans laquelle le spectateur est orienté. Plus précisément, un gain plus important est appliqué aux flux audio monocanal spatialisés F spatia l - F spatia N dont la source sonore est localisée dans le même sous-espace que celui visé par le spectateur.

[061] Les données de positionnement étant acquises en temps réel et en continu, les gains appliqués peuvent évolués en fonction de ces données. Un changement d’orientation ou de position géographique du spectateur entraîne une modification de la valeur des gains appliqués aux différents flux audio monocanal spatialisés. La modification de la valeur des gains appliqués est faite en temps réel.

[062] Selon la deuxième variante de réalisation dans laquelle la classe des flux audio est prise en compte, la table de description TAB est lue afin de déterminer quelle classe est associée à quel flux audio monocanal spatialisé F spatia 1 - F spatia N. Un gain respectif est appliqué aux flux audio monocanal spatialisés F spatia l - F spatia N dont la classe correspond à celle choisie par le spectateur. Le spectateur peut modifier à tout moment ses instructions de préférence, de sorte qu’une application de gains différente est réalisée. La modification des valeurs des gains respectifs est effectuée en temps réel.

[063] A l’étape El l, les flux audio monocanal spatialisés F spatia l - F spatia N sont envoyés vers un module de diffusion de type casque audio ou enceinte personnelle. Le spectateur peut alors profiter de l’immersion auditive fournie par le système selon l’invention.

[064] Selon une variante de réalisation, il est également prévu d’intégrer aux flux audio diffusés aux spectateurs des informations relatives au déroulement de l’évènement sportif. Selon cette variante, le serveur SERV peut en outre comprendre une bibliothèque BIB comprenant une pluralité de flux audio informatifs Fi nf0 l - Fi nf0 N associés chacun à une phase de jeu. Les flux audio informatifs F inf0 l - F inf0 N peuvent être diffusés au spectateur automatiquement. Le type de la phase de jeu en cours est déterminé parmi une pluralité de types de phases de jeu. Les types de phases de jeu comprennent par exemple un but, un penalty, une faute, etc. Selon le type de phase de jeu déterminé, au moins un flux audio informatif Fi nf0 l - F in|0 N est sélectionné dans la bibliothèque BIB en vue de sa restitution sonore. Le flux audio informatif F mf ol - F mf0 N peut être automatiquement diffusé.

[065] En variante, les flux audio informatifs F inf0 l - F inf0 N ne sont diffusés que si le spectateur l’a choisi. Les flux audio informatifs F inf0 l - Fi nf0 N permettent notamment d’ajouter une information auditive sur ce que le spectateur visualise. Par exemple, dans une phase de but, le flux audio auditif diffusé indique au spectateur qu’il y a but. Cela permet d’augmenter encore l’immersion du spectateur dans l’évènement sportif auquel il assiste. Cela permet également de ne manquer aucune phase importante de jeu. [066] Selon un exemple, la détermination du type de la phase de jeu en cours est réalisé au moyen d’un dispositif de capture DC comprenant au moins une caméra vidéo, tel qu’illustré sur la figure 3. Le dispositif de capture DC est disposé de manière à pouvoir suivre tous les phases de l’évènement sportif. Les images capturées par le dispositif de capture peuvent être transmises au module informatisé d’analyse qui est apte à déterminer, en temps réel, un type de la phase de jeu que le dispositif de capture DC est en train de capturer. Les types de phases de jeu peuvent être déterminés au moyen d’une méthode d’apprentissage par réseau de neurones profonds.