Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD AND SYSTEM FOR EDITORIALIZING DIGITAL AUDIOVISUAL OR AUDIO RECORDING CONTENT OF AN ORAL PRESENTATION
Document Type and Number:
WIPO Patent Application WO/2021/053302
Kind Code:
A1
Abstract:
Method for editorializing digital audiovisual or audio recording content of an oral presentation given by a speaker using a presentation support enriched with tags and recorded in the form of a digital audiovisual file. This method comprises written retranscription of the oral presentation with indication of a time code for each word, comparative automatic analysis of this written retranscription and of the tagged presentation support, transposition of the time codes from the written retranscription to the tagged presentation support, identification of the tags and of the time codes of the presentation support, and marking of the digital audiovisual file with said tags and time codes, so as to generate an enriched digital audiovisual file.

Inventors:
DAHAN JENNIFER (FR)
Application Number:
FR2020/051612
Publication Date:
March 25, 2021
Filing Date:
September 18, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
VERNSTHER (FR)
International Classes:
G06F16/41; G06F16/68; G06F16/78
Domestic Patent References:
WO2006053993A22006-05-26
Foreign References:
FR2849564A12004-07-02
FR2910987A12008-07-04
EP1582067B12015-09-16
FR2910987A12008-07-04
FR2849564A12004-07-02
FR2878345A12006-05-26
FR2910987A12008-07-04
Other References:
ANONYMOUS: "Éditorialisation - Wikipédia", 12 June 2019 (2019-06-12), XP055669608, Retrieved from the Internet [retrieved on 20200218]
ERIC: "YouTube ajoute le sous-titrage et la traduction automatique des vidéos", 30 November 2009 (2009-11-30), XP055778612, Retrieved from the Internet [retrieved on 20210222]
Attorney, Agent or Firm:
BREESE, Pierre (2 rue de Clichy, Paris, FR)
Download PDF:
Claims:
REVENDICATIONS

1. Procédé pour éditorialiser des contenus d’enregistrements audio ou audiovisuels numériques d’une intervention orale réalisée par un orateur et mettant en œuvre un support d’intervention, ladite intervention orale comprenant une succession de mots et ayant été enregistrée sous la forme d’un fichier audiovisuel numérique, et ledit support d’intervention étant enrichi de tags, caractérisé en ce qu’il comprend : une retranscription écrite de ladite intervention orale avec indication d’un code temporel pour tout ou partie desdits mots, une analyse automatique comparée de ladite retranscription écrite et du support d’intervention tagué, - une transposition des codes temporels de la retranscription écrite sur le support d’intervention tagué, une identification des tags et des codes temporels du support d’intervention, et un marquage du fichier audiovisuel numérique avec lesdits tags et codes temporels, de façon à générer un fichier audiovisuel numérique enrichi.

2. Procédé selon la revendication 1, caractérisé en ce qu’il met en œuvre une liste de références prévues pour être citées oralement lors de l’intervention orale, et en ce que le support d’intervention a été enrichi de tags associés aux dites références préalablement à ladite intervention orale.

3. Procédé selon l’une des revendications précédentes, caractérisé en ce que le support d’intervention est créé en direct par l’intervenant pendant la diffusion de son intervention orale. 4. Procédé selon la revendication 3, caractérisé en ce que la création du support d’intervention comprend un ajout par l’intervenant de tags sur ledit support.

5. Procédé selon l’une quelconque des revendication précédentes, caractérisé en ce que les tags marqués sur le fichier audiovisuel numérique comprennent des tags de structure et des codes contenant des informations relatives à une citation. 6. Procédé selon la revendication précédente, caractérisé en ce qu’il comprend en outre une récupération des informations contenues dans un code et une exploitation de ces informations.

7. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend en outre une phase (P5) d’agrégation des fichiers audiovisuel numériques enrichis d’une pluralité d’environnements de connaissance, dans une base de connaissances structurée de façon à rendre accessible par un moteur de recherche.

8. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend en outre une phase (P6) de traçabilité des droits d’auteur ou d’utilisation attachés à des contenus dans le support d’intervention enrichi et/ou dans le fichier audiovisuel numérique enrichi et/ou dans la base temporelle de données d’oralités documentées et/ou dans le ou les environnements de connaissance. 9. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’étape d’identification de tags est agencée pour détecter des tags simples (S) avant et/ou après des titres d’un plan détaillé du support d’intervention, et/ou des tags (W) avant et/ou après des mots ou concepts clés au sein du support d’intervention. 10. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’étape d’identification de tags est agencée pour détecter des codes (C) dans le support d’intervention à l’emplacement des références citées oralement.

11. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il met en œuvre une interface graphique procurant à un utilisateur dudit procédé des outils numériques pour produire à partir d’une intervention orale un support d’intervention numérique tagué et enrichi de codes, ladite interface graphique contenant : une liste pour le choix du domaine de savoir principal (K), une table des références citées oralement organisées par données catégorielles prédéfinies (C), une table des tags (S) du plan détaillé du support d’intervention, une table des tags (W) des mots ou concepts clés.

12. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il est mis en œuvre sous la forme d’une application téléchargeable sur un ordinateur ou un smartphone ou tout support numérique.

13. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’étape de marquage du fichier audiovisuel numérique comprend une émission de signaux correspondant à des tags simples de structure (S) mettant en œuvre un procédé d’exploitation du fichier audiovisuel numérique, agencé pour transcrire, à partir du fichier audiovisuel tagué, un flux sonore de mots correspondant au segment tagué.

14. Procédé selon la revendication précédente, caractérisé en ce que l’étape d’émission de signaux correspondant à des tags simples de structure (S) comprend une émission de la chaîne de caractères contourée par lesdits tags de structure (S), lesdits titres correspondant aux chaînes de caractères ainsi contourées venant directement s’inscrire sur le fichier audiovisuel numérique, dans le flux temporel correspondant à leur évocation.

15. Procédé selon l’une des revendications 13 ou 14, caractérisé en ce que le procédé d’exploitation du fichier audiovisuel numérique est agencé pour lire les informations textuelles inscrites sur ledit fichier audiovisuel numérique.

16. Procédé selon l’une quelconque des revendications 13 à 15, caractérisé en ce que l’étape d’émission de signaux correspondant à des tags enrichis de type code (C) comprend, en réponse à une identification d’un code (C) dans l’intervention orale, une émission d’un signal comportant toutes les informations que ledit code contient en les associant à leur code temporel (« time code ») durant le récit narratif oral de l’intervenant.

17. Procédé selon la revendication 16, caractérisé en ce que le code (C) et le code temporel qui lui est associé sont reportés dans un fichier numérique prévu pour une organisation temporelle structurée de l’intervention orale.

18. Procédé selon l’une quelconque des revendications 13 à 17, caractérisé en ce que l’étape d’émission de signaux correspondant à des tags de mots clés (W) comprend une émission d’un signal procurant un marquage temporel du fichier audiovisuel numérique.

19. Procédé selon l’une quelconque des revendications 13 à 18, caractérisé en ce que l’étape d’émission de signaux correspondant à un tag de mots clés (W) comprend une émission d’une chaîne de caractères contourée par lesdits tags (W), ladite chaîne de caractères ainsi contourée étant ensuite inscrite sur le fichier audiovisuel numérique, dans le flux temporel correspondant à l’évocation dudit mot clé au cours de l’intervention orale.

20. Procédé selon l’une des revendications 18 ou 19, caractérisé en ce qu’il comprend en outre une constitution automatique d’un index de consultation des mots clés évoqués dans l’intervention orale.

21. Procédé selon l’une quelconque des revendication 18 à 20, caractérisé en ce qu’il est mis en œuvre depuis un ordinateur agencé pour lire le fichier numérique d’enregistrement audiovisuel une fois terminé l’enregistrement audiovisuel de l’intervention orale.

22. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend en outre une phase (P3) de traitement du fichier audiovisuel tagué de l’intervention orale comprenant les étapes de : - extraction des données de tags et de codes contenus dans ledit fichier audiovisuel tagué, incrémentation desdites données de tags et de codes selon un critère temporal (time code) dans une table matricielle, génération, à partir de ladite table matricielle, de collections de tables de données correspondant à des catégories prédéfinies, lesdites tables de données comprenant une table de structure (S) et des tables catégorielles, création à la volée de bases de données interchangeables à partir de ladite table de structure et desdites tables catégorielles. 23. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend en outre une phase (P4) de création d’un ou plusieurs environnements de connaissance associés à l’intervention orale, ladite phase de création (P4) comprenant une génération (L04) d’une base de données temporelles. 24. Procédé selon la revendication 23, caractérisé en ce que la phase de création (P4) comprend en outre une éditorialisation (L05) de ressources orales et documentaires extraites de la base de données temporelles.

25. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce qu’il comprend en outre une étape pour exclure du codage temporel de l’ensemble des mots contenus dans l’intervention orale, des mots prédéterminés pour lesquels aucun code temporel ne sera indiqué lors de l’étape de retranscription de ladite intervention orale.

26. Système pour éditorialiser des contenus d’enregistrements audio ou audiovisuels numériques d’une intervention orale réalisée par un orateur, cette intervention orale mettant en œuvre un support d’intervention et une liste (Ll) de références prévues pour être citées oralement lors de l’intervention orale, ladite intervention orale comprenant une succession de mots et ayant été enregistrée sous la forme d’un fichier audiovisuel numérique, et ledit support d’intervention été enrichi de tags, caractérisé en ce qu’il comprend: des moyens pour retranscrire ladite intervention avec indication d’un code temporel pour tout ou partie desdits mots, des moyens pour réaliser une analyse comparée de ladite retranscription et du support d’intervention tagué, des moyens pour transposer les codes temporels de la retranscription sur le support d’intervention tagué, des moyens pour identifier les tags et les codes temporels du support d’intervention, et des moyens pour marquer le fichier audiovisuel numérique avec lesdits tags et codes temporels, de façon à générer un fichier audiovisuel numérique enrichi.

27. Système selon la revendication 26, caractérisé en ce qu’il comprend en outre des moyens de traçabilité des droits d’auteur ou d’utilisation attachés à des contenus dans le support d’intervention enrichi et/ou dans le fichier audiovisuel numérique enrichi et/ou dans la base temporelle de données d’oralités documentées et/ou dans le ou les environnements de connaissance.

Description:
PROCEDE ET SYSTEME POUR EDITORIALISER DES CONTENUS D’ENREGISTREMENTS AUDIO OU AUDIOVISUELS NUMERIQUES D’UNE

INTERVENTION ORALE

Domaine technique

La présente invention porte sur un procédé d’éditorialisation des oralités digitales dont l’objectif est d’améliorer l’exploitation professionnelle et contextuelle des contenus d’enregistrements audio et audiovisuels numériques de Savoir et de Communication. Elle vise également un système d’éditorialisation mettant en œuvre ce procédé.

Etat de la technique antérieure

Il a été remarqué que parallèlement à une croissance exponentielle des contenus vidéo en ligne, leur consultation demeurait linéaire et « monobloc ». L’indexation des contenus vidéos consiste en une liste de mots clés attachée au fichier vidéo. Le récit narratif des vidéos de cours, de formations de conférences etc., à proprement parler n’est pas tagué et encore moins selon le sens, au mieux grossièrement séquencé.

Ainsi, lors d’une recherche en ligne de contenus vidéo sur une thématique particulière, les résultats proposés conduisent à devoir consulter des vidéos complètes qui vont indifféremment de quelques minutes à plusieurs heures. Ce constat exclu de facto une exploitation courante et opérationnelle en contexte de travail.

Le document EP1582067B1 divulgue un procédé pour produire une édition multimédia sur la base de prestations orales, à partir, d’une part, d’informations contenues dans un flux audio et/ou vidéo préalablement enregistré, et d’autre part, de données ou informations complémentaires et de documents de référence associés auxdites informations audio et/ou vidéo, comprenant à la fois une indexation du flux audio et/ou vidéo, à partir de sa structure, et une indexation desdites données ou informations complémentaires et documents de référence, de sorte que lesdites données complémentaires et documents de référence sont visualisables parallèlement au flux audio et/ou vidéo sur un équipement de visualisation, caractérisé en ce qu’il comprend en outre une fourniture d’une pluralité de modes de présentation du flux audio et/ou vidéo et/ou des données ou informations complémentaires associées et documents de référence, chaque mode de présentation résultant d’une combinaison spécifique de l’indexation du flux audio et/ou vidéo et de l’indexation des données ou informations complémentaires associées et documents de référence et en ce que les informations contenues dans le flux audio et/ou vidéo préalablement enregistré et les documents de référence et données associées sont organisées au sein d’une structure d’information de nature matricielle avec d’une part un axe temporel de la vidéo et d’autre part plusieurs types de données, cette structure d’information est centrée sur les documents de référence, ces documents de référence permettent d’accéder à la fois (i) aux séquences audio et/ou vidéo pertinentes via l’indexation structurelle du flux audio et/ou vidéo et (ii) à l’intégralité des documents de référence via l’indexation de ces documents.

Le document FR2910987A divulgue un procédé pour construire une base de connaissances à partir de produits d’édition de prestations orales intégrant un flux audio et/ou vidéo préalablement enregistré auquel sont associés des données complémentaires et des documents de référence recensés de manière chronologique et indexés en synchronisme avec ledit flux oral au moyen de données de synchronisation procurant un accès sélectif à des fragments au sein dudit flux audio et/ou vidéo. Ce procédé comprend une collecte, pour chaque produit d’édition, desdites de synchronisation, une agrégation desdites données de synchronisation préalablement collectées de façon à générer des données globales de synchronisation pour l’ensemble des produits d’édition, et une génération d’une interface graphique de recherche sélective au sein de ladite base de connaissances, de façon à saisir des consignes de recherche.

Les données globales de synchronisation sont organisées pour alimenter un moteur de recherche prévu pour traiter les consignes de recherche.

Le document W02006/053993A2 divulgue un procédé pour procurer un apprentissage de l’utilisation d’une application logicielle sur un équipement d’information et/ou de communication, cette application logicielle générant une interface graphique utilisateur visualisée sur un organe de visualisation dudit équipement d’information et/ou de communication, cette interface graphique utilisateur comprenant : un cadre graphique spécifique de ladite application incluant des zones de sélection, telles que des icônes et/ou onglets de sélection, et une zone de contenu, caractérisé en ce qu’il comprend une génération d’une interface graphique utilisateur d’apprentissage visualisée sur ledit organe de visualisation, et une sélection d’une fonctionnalité de ladite application logicielle, cette interface graphique utilisateur d’apprentissage comprenant : - une zone pour émettre un flux audio et/ou vidéo correspondant à un discours d’apprentissage, une reproduction au moins partielle du cadre graphique spécifique de ladite application logicielle, comprenant des icônes et/ou onglets qui sont indexés audit flux audio et/ou vidéo pour commander le discours d’apprentissage, et - une zone prévue pour visualiser des opérations ou enchaînements d’opérations nécessaires à la réalisation de la fonctionnalité sélectionnée, lesdites opérations ayant été préalablement indexées, en tout ou partie, avec ledit flux audio et/ou vidéo.

Si les vidéos contribuent au développement actif de l’e-learning, leurs limites telles qu’évoquées ici bloquent leur déploiement rapide et efficace en milieu professionnel, ceci alors même que les besoins en formation n’ont jamais été aussi exponentiels et perçus comme tel. Le but de la présente invention est d’apporter une solution opérationnelle à ce besoin et offrir un moyen d’accompagner efficacement entreprises et organisations désireuses de devenir de véritables structures apprenantes. L’enjeu est de taille. Leur survie à moyen et long terme de l’écosystème passe nécessairement par une accélération des processus d’apprentissage. Exposé de l’invention

Cet objectif est atteint avec un procédé pour éditorialiser des contenus d’enregistrements audio ou audiovisuels numériques d’une intervention orale réalisée par un orateur qui met en œuvre un support d’intervention, ladite intervention orale comprenant une succession de mots et ayant été enregistrée sous la forme d’un fichier audio ou audiovisuel numérique, et ledit support d’intervention étant enrichi de tags.

Suivant l’invention, le procédé comprend :

- une retranscription écrite de ladite intervention orale avec indication d’un code temporel pour tout ou partie desdits mots.

- une analyse automatique comparée de ladite retranscription écrite et du support d’intervention tagué,

- une transposition des codes temporels de la retranscription écrite sur le support d’intervention tagué,

- une identification des tags et des codes temporels du support d’intervention, et - un marquage du fichier audiovisuel numérique avec lesdits tags et codes temporels, de façon à générer un fichier audiovisuel numérique enrichi.

Dans un premier mode de réalisation de l’invention, le procédé d’éditorialisation de l’invention met en œuvre une liste de références prévues pour être citées oralement lors de l’intervention orale, et le support d’intervention a été enrichi de tags associés aux dites références préalablement à ladite intervention orale.

Dans un second mode de réalisation de l’invention, on ne dispose d’une liste de référence préalable et un taggage est réalisé par l’intervenant, en direct de la diffusion de son intervention audio ou vidéo.

Il est à noter que l’on peut prévoir une autre version du procédé d’éditorialisation selon l’invention dans lequel un support d’intervention préalablement enrichi de tags associés à des références est modifié en direct par l’intervenant lors de son intervention audio ou vidéo par ajout de tags sur ledit support.

On peut également prévoir dans le cadre du procédé d’éditorialisation selon l’invention une étape pour exclure du codage temporel de l’ensemble des mots contenus dans l’intervention orale des mots prédéterminés pour lesquels aucun code temporel ne sera indiqué lors de l’étape de retranscription de ladite intervention orale. Ces mots prédéterminés peuvent être par exemple des pronoms ou des articles.

Les tags marqués sur le fichier audiovisuel numérique comprennent avantageusement des tags de structure et des codes contenant des informations relatives à une citation.

Le procédé d’éditorialisation selon l’invention peut en outre comprendre une récupération des informations contenues dans un code et une exploitation de ces informations.

Dans un mode particulier de mise en œuvre de l’invention, le procédé d’éditorialisation comprend en outre une phase d’agrégation des fichiers audiovisuel numériques enrichis d’une pluralité d’environnements de connaissance, dans une base de connaissances structurée de façon à rendre accessible par un moteur de recherche.

Il peut en outre comprendre une phase de traçabilité des droits d’auteur ou d’utilisation attachés à des contenus dans le support d’intervention enrichi et/ou dans le fichier audiovisuel numérique enrichi et/ou dans la base temporelle de données d’oralités documentées et/ou dans le ou les environnements de connaissance.

L’étape d’identification de tags peut en outre être agencée pour détecter des tags simples (S) avant et/ou après des titres d’un plan détaillé du support d’intervention, et/ou des tags (W) avant et/ou après des mots ou concepts clés au sein du support d’intervention, mais aussi pour détecter des codes dans le support d’intervention à l’emplacement des références citées oralement.

Dans une mise en œuvre particulière de l’invention, le procédé d’éditorialisation met en œuvre une interface graphique procurant à un utilisateur dudit procédé des outils numériques pour produire à partir d’une intervention orale un support d’intervention numérique tagué et enrichi de codes, ladite interface graphique contenant : une liste pour le choix du domaine de savoir principal (K), une table des références citées oralement organisées par données catégorielles prédéfinies (C), une table des tags (S) du plan détaillé du support d’intervention, une table des tags (W) des mots ou concepts clés.

Le procédé d’éditorialisation peut être avantageusement implémenté sous la forme d’une application téléchargeable sur un ordinateur ou un smartphone ou tout support numérique.

L’étape de marquage du fichier audiovisuel numérique peut comprendre une émission de signaux correspondant à des tags simples de structure mettant en œuvre un procédé d’exploitation du fichier audiovisuel numérique, agencé pour transcrire, à partir du fichier audiovisuel tagué, un flux sonore de mots correspondant au segment tagué.

Cette étape d’émission de signaux correspondant à des tags simples de structure peut comprendre une émission de la chaîne de caractères contourée par lesdits tags de structure, ces titres correspondant aux chaînes de caractères ainsi contourées venant directement s’inscrire sur le fichier audiovisuel numérique, dans le flux temporel correspondant à leur évocation.

Le procédé d’exploitation du fichier audiovisuel numérique mis en œuvre dans l’étape de marquage peut être agencé pour lire les informations textuelles inscrites sur ledit fichier audiovisuel numérique.

L’étape d’émission de signaux correspondant à des tags enrichis de type C) peut avantageusement comprendre, en réponse à une identification d’un code dans l’intervention orale, une émission d’un signal comportant toutes les informations que ledit code contient en les associant à leur code temporel (« time code ») durant le récit narratif oral de l’intervenant. Le code (C) et le code temporel qui lui est associé sont reportés dans un fichier numérique prévu pour une organisation temporelle structurée de l’intervention orale.

L’étape d’émission de signaux correspondant à des tags de mots clés peut comprendre une émission d’un signal procurant un marquage temporel du fichier audiovisuel numérique, ainsi qu’une une émission d’une chaîne de caractères contourée par lesdits tags (W), ladite chaîne de caractères ainsi contourée étant ensuite inscrite sur le fichier audiovisuel numérique, dans le flux temporel correspondant à l’évocation dudit mot clé au cours de l’intervention orale.

Le procédé d’éditorialisation selon l’invention peut en outre comprendre une constitution automatique d’un index de consultation des mots clés évoqués dans l’intervention orale. Il peut être mis en œuvre depuis un ordinateur agencé pour lire le fichier numérique d’enregistrement audiovisuel une fois terminé l’enregistrement audiovisuel de l’intervention orale.

Dans un autre mode de réalisation de l’invention, le procédé d’éditorialisation peut en outre comprendre une phase de traitement du fichier audiovisuel tagué de l’intervention orale comprenant les étapes de : extraction des données de tags et de codes contenus dans ledit fichier audiovisuel tagué, incrémentation desdites données de tags et de codes selon un critère temporal (time code) dans une table matricielle, génération, à partir de ladite table matricielle, de collections de tables de données correspondant à des catégories prédéfinies, lesdites tables de données comprenant une table de structure et des tables catégorielles, création à la volée de bases de données interchangeables à partir de ladite table de structure et desdites tables catégorielles.

Ce procédé peut en outre comprendre une phase de création d’un ou plusieurs environnements de connaissance associés à l’intervention orale, ladite phase de création comprenant une génération d’une base de données temporelles. Cette phase de création peut en outre comprendre une éditorialisation de ressources orales et documentaires extraites de la base de données temporelles. Suivant un autre aspect de l’invention, il est proposé un système pour éditorialiser des contenus d’enregistrements audio ou audiovisuels numériques d’une intervention orale réalisée par un orateur, cette intervention orale mettant en œuvre un support d’intervention et une liste de références prévues pour être citées oralement lors de l’intervention orale, ladite intervention orale comprenant une succession de mots et ayant été enregistrée sous la forme d’un fichier audiovisuel numérique, et ledit support d’intervention ayant été préalablement enrichi de tags, caractérisé en ce qu’il comprend: des moyens pour retranscrire ladite intervention avec indication d’un code temporel pour tout ou partie desdits mots, des moyens pour réaliser une analyse comparée de ladite retranscription et du support d’intervention tagué, des moyens pour transposer les codes temporels de la retranscription sur le support d’intervention tagué, des moyens pour identifier les tags et les codes temporels du support d’intervention, et des moyens pour marquer le fichier audiovisuel numérique avec lesdits tags et codes temporels, de façon à générer un fichier audiovisuel numérique enrichi.

Le système d’éditorialisation selon l’invention peut en outre comprendre des moyens de traçabilité des droits d’auteur ou d’utilisation attachés à des contenus dans le support d’intervention enrichi et/ou dans le fichier audiovisuel numérique enrichi et/ou dans la base temporelle de données d’oralités documentées et/ou dans le ou les environnements de connaissance.

Le procédé d’éditorialisation selon l’invention permet ainsi une automatisation de la transposition de la structure, des citations et, du contenu des citations d’un discours principal, sur support numérique écrit, vers un support audio ou audiovisuel qui reprend le même contenu en version orale audio ou audiovisuelle, quel que soit le format de ce récit : narratif, explicatif, argumentatif, démonstratif, illustratif, etc.

Il en résulte une réduction des coûts et des délais de productions traitement massif de contenus audio et audiovisuels, et la possibilité d’une génération automatique à grande échelle de formations digitales, de plateformes de formation et d’informations numériques de haute qualité. Le procédé d’éditorialisation selon l’invention va en outre permettre une génération automatique de liens entre les contenus numériques de formations et les ressources documentaires des organisations utilisatrices des formations, et contribuer à une amélioration sensible de la précision des résultats de recherche effectués sur les médias audio et audiovisuels et de la consultation et la navigation au sein d’espaces de savoir multimédia.

Définitions

Discours principal : On entend dans la suite par discours principal , un même récit en version numérique texte réalisé par un auteur et en version parlée, orale, enregistrée en version vidéo, qui est l’objet principal de traitement par le procédé selon l’invention. Ce récit est de tout type : narratif, explicatif, argumentatif, illustratif, descriptif etc.

Editorialisation : structuration, architecture du savoir et du savoir-faire en contexte digital

Oralité digitale : caractère oral dans sa dimension numérique

Tag : marquage spatial, par exemple un logotype ou une tabulation, qui peut être lu par un système numérique

Environnement de connaissances :

Unité thématique principale composée d’oralité(s) digitale(s) éditorialisée(s) , proposée à la consultation via un interface utilisateur.

Description des figures

D’autres avantages et particularités de l’invention apparaîtront à la lecture de la description détaillée de mises en œuvre et de modes de réalisation nullement limitatifs, et des dessins annexés suivants : la FIGURE 1 illustre les principales étapes du procédé selon l’invention, la FIGURE 2 illustre le fonctionnement de la phase 1 du procédé selon l’invention, • [la FIGURE 3 représente un exemple d’interface utilisateur généré avec le procédé selon l’invention,

• la FIGURE 4 illustre une étape de création d’un support d’intervention tagué et enrichi,

• la FIGURE 5 est un visuel spatial des Étapes Techniques dans une première option,

• la FIGURE 6 est un visuel temporel des Étapes Techniques dans la première option,

• la FIGURE 7 est un visuel spatial des Étapes Techniques dans une seconde option,

• la FIGURE 8 est un visuel temporel des Étapes Techniques dans la seconde option,

• la FIGURE 9 représente les principales étapes de la phase 3 du procédé d’éditorialisation selon l’invention,

• la FIGURE 10 illustre l’étape d’extraction de données dans la phase 3 du procédé selon l’invention, et

• la FIGURE 11 illustre l’étape de création de tables de catégorie à d’une table matricielle.

Description de modes de réalisation Les modes de réalisation décrits ci-après étant nullement limitatifs, on pourra notamment considérer des variantes de l'invention ne comprenant qu'une sélection de caractéristiques décrites, isolées des autres caractéristiques décrites (même si cette sélection est isolée ’u sein d'une phrase comprenant ces autres caractéristiques), si cette sélection de caractéristiques est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. Cette sélection comprend au moins une caractéristique, de préférence fonctionnelle sans détails structurels, ou avec seulement une partie des détails structurels si cette partie uniquement est suffisante pour conférer un avantage technique ou pour différencier l'invention par rapport à l'état de la technique antérieure. On va maintenant décrire, en référence à la figure 1, les différentes phases d’un exemple de mise en œuvre du procédé d’éditorialisation selon l’invention. A chaque phase P1-P5 est associé un logiciel L01-L05.

La phase PI est une phase préparatoire à l’intervention orale, qui produit un support d’intervention enrichi. La phase P2 correspond à l’intervention orale et à son enregistrement audiovisuel. Elle produit un fichier audiovisuel numérique enrichi. La phase P3 correspond au traitement du fichier audiovisuel enrichi et elle produit une base temporelle de données d’oralités documentées, imagées ou animées. La phase P4 correspond au développement d’environnements de connaissances orales documentés, ou animés ou imagés. La phase P5 inclut la traçabilité, la gestion et le paiement des droits d’auteurs des intervenants et contributeurs et elle produit notamment un dispositif intégré de gestion des droits d’auteurs.

Une option possible consiste à supprimer la phase P2, en exploitant le résultat de la phase PI directement dans le logiciel d’exploitation L03 à partir de l’enregistrement audiovisuel.

Une autre option possible consiste à fusionner les phases PI et P2 notamment en distanciel. Dans cette hypothèse, l’auteur tague son intervention en direct à l’aide de L02 paramétré à cet effet, notamment pour le mode distanciel.

Pour le pré-traitement du support d’intervention, les objets à taguer par l’auteur sont : les éléments de Structure du récit narratif oral : tous les titres (chaîne de mots) du plan détaillé de l’intervention orale, les données ou références citées : les éléments cités oralement en références illustration, argumentation ou explication, les mots ou concepts clés: tous les mots ou concepts que l’auteur considèrent importants ou spécifiques ou pertinents dans le cadre de son intervention et qui n’apparaissent pas forcément dans la formulation ou chaîne de caractères des titres.

Pour réaliser un tag de structure, on encadre la chaîne de caractères de chaque titre. A titre d’exemple, on peut prévoir une règle suivante : dans le support d’intervention, l’auteur place un Tag (S) avant ET après chaque titre, sous-titre, sous-sous-titre jusqu’à dix niveaux d’indentation. Pour l’utilisateur final, le tag de structure permet : un accès facilité et structuré selon le récit narratif de l’auteur par l’auteur lui- même, une hiérarchisation structurelle des savoirs, pour accélérer le processus de compréhension et d’assimilation, une solution alternative (et probablement plus efficace pour l’apprentissage) à la retranscription intégrale d’un récit narratif de savoir.

Le procédé d’éditorialisation selon l’invention fait intervenir des réflexes cognitifs complémentaires de lecture synthétique de l’architecture du discours (ancrage par la mémorisation visuelle des éléments de structure logique du discours) auxquels est associée une écoute du récit narratif illustratif et argumentatif de la structure du plan.

Sur un plan technique, le tag de structure permet : d’industrialiser la génération automatique de tables d’accès au contenus vidéo ultra- granularisées ; de spécifier la durée de chacune des parties ; de gagner en fiabilité et en pertinence (c’est l’auteur qui structure son propre contenu, ou l’éditeur dont c’est le métier ; de tracer chaque fragment séquencé du discours ; de permettre plusieurs clé de consultation suivant la linéarité du plan de l’auteur ; en toute indépendance et/ou combinée à d’autres fragments d’oralités digitales relatives au même mot, concept ou encore, document recherché, de créer une chaîne logique thématique de consultation de fragments combinés d’oralités associés à leur contexte complet d’évocation en y associant les éventuelles données également citées présentes et consultables. Ceci permet de créer une nouvelle fonctionnalité d’écoute augmentée qui procure une accélération d’accès à un contenu parlé d’un concept clé.

On va maintenant décrire le processus de création de tags de références et citations orales. Une première règle concerne la création des codes : à partir de la liste des références qui seront citées oralement, créée par l’auteur, l’auteur sélectionne la totalité de la chaîne de caractères qui compose la référence qui sera citée oralement au cours de son intervention. Il lui associe ficône « C » correspondant à sa catégorie. En cliquant sur l’icône « C » le code de la référence est créé. A l’issue de cette étape, une liste (2) de « codes » est créée. C’est cette liste de codes qui servira ensuite à l’auteur pour que chaque code puisse être insérer à son emplacement de citation (orale), dans le texte ou support d’intervention.

En référence à la figure 2, il est à noter que grâce au pré-paramétrage du logiciel LOI au domaine de savoir retenu par l’auteur, les codes sont déjà pré-paramétré. Sont associées à chaque code créé, toutes les informations sélectionnées par l’auteur. Les Catégories de « codes » contiennent donc déjà toutes les informations méta des références utilisées dans le contexte de savoir de l’auteur. « K » conditionne donc, au moins en partie, les données des codes « C ».

Une seconde règle concerne l’insertion des codes dans le support d’intervention : à partir de la Liste des codes, l’auteur insère chaque code à son emplacement de citation orale dans le Support d’intervention. Ces codes contiennent toutes les informations des données citées. Ils viennent enrichir le document « support d’intervention », aux cotés et en complément des Tags « S ». Il est à noter que les Tags « C » sont eux-mêmes avantageusement situés dans la structure logique du discours grâce aux tags « S » préalablement insérés dans le même support d’intervention.

Pour l’utilisateur final, cette méthode permet : de produire une hyper-contextualisation des données citées. de ne pas avoir à rechercher les références citées lors de la consultation de l’environnement de connaissance et de l’écoute du récit narratif. Toutes les références citées sont accessibles dans la majorité des cas en intégralité en parallèle de l’écoute de la vidéo et font l’objet d’une traçabilité dans le cadre d’un dispositif blockchain incluant le cas échéant la gestion des droits d’auteur et/ou d’éditeur. de rattacher de façon définitive des unités d’information data, à toute intervention y faisant référence oralement ( que ce soit pour en faire un commentaire, pour en donner une explication, pour illustrer une idée ou une argumentation, par analogie...).

Sur un plan technique, ce procédé permet : un traitement contextuel des données (data) tierces présentes dans d’autres bases de données et ayant vocation à être utilisées ou exploiter dans des contextes d’analyse et de construction d’argumentaires par les utilisateurs ou les auteurs. une optimisation du traitement des données tierces ( data) en terme de pertinence, de traçabilité, d’intégrité en évitant les multiplications des saisies manuelles. Une seule est assurée par l’auteur en amont qui se retrouve tout au long du processus d’éditorialisation avec la totalité des informations sélectionnées du début à la fin.

On va maintenant décrire un mode de réalisation de tags de mots clés. Il met en œuvre un encadrement d’une chaîne de caractères formant un mot clé ou un concept clé. La mise en œuvre du procédé d’éditorialisation selon l’invention va permettre de remonter automatiquement une ou plusieurs phrases pertinentes pour une compréhension du mot ou du concept qu’elles contiennent.

Pour l’utilisateur final, cette méthode permet : de générer une liste de mots-clés : cad un index des mots clés offrant un accès ciblé au passage d'évocation orale du mot ou concept clé, en accédant à un moment juste avant la citation suffisamment pertinent pour que la consultation fasse sens ; d’améliorer la consultation ciblée des oralités digitales et ainsi leur maniement, facilitant leur utilisation opérationnelle en contexte de travail.

Sur un plan technique, cette méthode permet : de générer renforcer le référencement du contenu par la liste de mots ou concept clés, en plus des systèmes de classification universel ou métier. d’automatiser la contextualisation, la hiérarchisation et la pertinence des mots et concepts clés en nous appuyant sur l’hyper-granularisation du récit narratif

On peut définir une règle qui renvoie, par défaut, au Tag « S » le plus proche du mot clés. On assure ainsi la pertinence de consultation du « mot ou concept clé » dans son environnement hiérarchique et logique de citation sans avoir à « remonter » dans le temps d’écoute manuellement pour retrouver le sens dudit mot ou concept consulté.

Pour les tags de type « W », l’auteur place le Tag « W » avant ET après chaque « mot ou concept clés » important.

Cette première phase préparatoire PI aboutit à la création d’un support d’intervention numérique texte ou tout format, tagué et enrichi de codes enrichis.

Dans une première option, ce support d’intervention tagué et enrichi de codes peut être placé dans un dispositif technique peu avant que ne débute l’intervention. Dans une seconde option, ce support d’intervention tagué et enrichi de codes sera placé dans un logiciel L03 après l’intervention en combinaison avec le fichier audiovisuel numérique de l’intervention orale. On réalise un transfert des tags et des codes enrichis sur le fichier numérique audiovisuel, dans le strict respect de la temporalité narrative de l’intervention.

En référence à la figure 3, une interface graphique utilisateur permet de visualiser sur une même page écran un ensemble de listes des catégories de tags mis en œuvre dans la phrase préparatoire PI. Cette interface graphique représente ainsi une liste K pour le choix de domaines de savoir, une table C des références citées oralement incluant des données catégorielles Cl, C2, C3 génériques au domaine de savoir de l’intervention, une table des tags de structure S du plan détaillé de l’intervention orale, et une table des mots clés et concepts clés W.

En référence à la figure 4, une interface graphique fournit à l’utilisateur d’une part une représentation graphique d’une liste de codes de l’intervention orale illustrant les différents tags codes C1,C2,C3 de références à citer oralement, ces tags contenant toutes les informations structurées par typologie de données, et d’autre part une représentation du document support d’intervention tagué et enrichi par l’auteur, avec des connexions graphiques entre les codes C et les emplacements des références à citer dans le support d’intervention.

La phase 2 du procédé d’éditorialisation selon l’invention est dédiée à l’intervention orale et à son enregistrement sous la forme d’un fichier numérique audiovisuel.

Dans une première option, le procédé selon l’invention est mis en œuvre de manière synchrone avec l’intervention orale.

En pratique, le procédé est implémenté sous la forme d’une application logicielle L02 à télécharger sur un téléphone ou un ordinateur. L’opérateur est l’intervenant lui-même ou un assistant. L’application logicielle est lancée juste avant le début de l’intervention orale.

Dans une seconde option, cette phase 2 est réalisée de manière asynchrone, en différé après l’intervention orale. Le logiciel L02 combine alors le fichier support d’intervention avec le fichier numérique d’enregistrement audiovisuel.

Le logiciel L02 intègre un module logiciel de reconnaissance de la parole associé à un module logiciel de lecture automatique du texte et il est agencé pour émettre un signal qui va marquer, au moyen d’un tag ou d’un code, la bande vidéo ou l’enregistrement numérique en temps réel (mode synchrone).

Dans la première option, avant de débuter son intervention, l’auteur insère son fichier support d’intervention tagué dans le logiciel de taggage. Une reconnaissance de la parole est effectuée en temps réel et commande une reconnaissance de caractères dans le support d’intervention tagué.

S’en suit une émission des tags identifiés par le logiciel L02 dans le support d’intervention en synchronisation avec l’énoncé oral de l’intervention. Le fichier audiovisuel numérique est alors marqué des éléments de structure et de codes intégrant toutes les informations des références, citations et objets de savoir, cités oralement, dans son déroulé temporel.

Dans la seconde option, après l’intervention orale, on récupère un fichier vidéo numérique d’intervention vierge de tout tag. L’intervention est retranscrite avec indication d’un code temporel (time code) pour chaque mot.

Une analyse comparée de la retranscription de l’intervention et du support d’intervention tagué est alors effectuée. Les codes temporels de la retranscription sont ensuite transposés sur le support d’intervention tagué. Les tags et codes temporels du support d’intervention sont lus puis émis sur le fichier vidéo d’intervention suivant leurs codes temporels.

A chaque fois que le logiciel L02 identifie un tag ou un code de citation, il émet un signal qui doit être capable d’aller marquer le fichier numérique audiovisuel en cours d’enregistrement du discours de l’intervenant.

Le signal émis permet de marquer le fichier numérique audiovisuel d’un TAG : soit d’un tag temporel simple pour les tag de structure ; soit d’un tag « code » contenant toutes les informations relatives à une citation.

Ces informations contenues dans le code seront ensuite récupérées et exploités par le logiciel L02 capable à partir du fichier numérique audiovisuel de lire les code les informations qu’ils contiennent et de les incrémenter dans une base de données ou un document tableur structuré ou de toute autre façon permettant d’en exploiter le contenu.

Il existe plusieurs types d’émission de signal : une émission spécifique aux tags de structure (S), une émission spécifique aux codes (C). Dans une première option, on réalise une émission simple d’un signal capable d’un simple marquage TEMPOREL du fichier audiovisuel. Cela nécessite à postériori, un logiciel L03 d’exploitation capable, à partir du fichier audiovisuel tagué, de transcrire le flux sonore de mots correspondant au segment tagué.

Dans une seconde option, on réalise une émission de la chaîne de caractères, contourée par les T AG (S) : les titres viennent directement s’inscrire sur le fichier audiovisuel numérique, dans le flux temporel correspondant à leur évocation. TAG (S) d’enrichissements de données textuelles. Cela nécessite un Logiciel d’exploitation du fichier audiovisuel numérique capable de lire les informations textuelles inscrites sur le fichier audiovisuel (ces informations écrites étant non visibles à l’œil nu pour celui qui consulte la vidéo).

Cette génération de signal permet la constitution automatique du plan détaillé du récit narratif oral et son accès en écoute, et la consultation ciblée et segmentée suivant la logique de l’auteur.

On va maintenant décrire un mode de génération de signaux associés à des codes C.

Le Logiciel L02 émet le code C qui contient les informations structurées pré-renseignées de la référence citée oralement accompagnée de son libellé intégral tel que scanné par G auteur/intervenant/éditeur, associé à son « time code » d’évocation orale durant l’intervention.

Le Logiciel L03, après avoir identifié le code, est capable d’émettre un signal comportant la totalité des informations que le code contient en les associant de façon systématique et définitive à leur time code de citation durant le récit narratif oral de l’intervenant. L’on retrouve ici le moyen d’une contextualisation parfaite des données citées en contexte(s) d’évocation(s) d’oralités digitales.

Les références sont pour l’essentiel les objets d’étude des récits narratifs et explicatifs, et sur le plan cognitif, ce maillage est définitif et systématique des références citées .

Il résulte de cette phase 2 un fichier audiovisuel numérique tagué et comportant l’ensemble des codes relatifs aux citations évoquées. Ce fichier numérique audiovisuel tagué et enrichi s’apparente à une « base de données » primaire qui contient toutes les données à éditorialiser. Ce sont donc leurs classements et leurs réorganisations suivant des principes et des modèles clairement définis, en cohérence avec les pré-requis de départ qui permettront de formaliser des environnements complets de savoirs, aux savoirs structurés, hiérarchisés et contextualisés.

Le procédé selon l’invention permet ainsi la constitution automatique d’un index de consultation des références et citations du récit narratif oral.

Le codes temporels (time code) et les codes C seront automatiquement reportés dans un document ou dispositif technique qui permettra l’organisation temporelle structurée du discours et des contenus de références qu’il contient.

En ce qui concerne les tags de mots clés W et signaux associé, dans une première option, on réalise une émission simple d’un signal capable d’un simple marquage temporel du fichier audiovisuel. Cela nécessite un logiciel L03 d’exploitation capable, à partir du fichier audiovisuel tagué, de transcrire le flux sonore de mots correspondant au segment tagué.

Dans une seconde option, on réalise une émission de la chaîne de caractères, contourée par les tags W : les mots clés ou concepts clés viennent directement s’inscrire sur le fichier audiovisuel numérique, dans le flux temporel correspondant à leur évocation. Cela nécessite un Logiciel L03 d’exploitation du fichier audiovisuel numérique capable de lire les informations textuelles inscrites sur le fichier audiovisuel (ces informations écrites étant non visibles à l’œil nu pour celui qui consulte la vidéo). Ce procédé permet la constitution automatique d’un index de consultation des mots clés du récit narratif oral.

En référence à la figure 5 qui illustre un visuel spatial des étapes de la phase 2 en mode synchrone, le flux sonore du récit narratif oral est capté et soumis à un système de reconnaissance de la parole couplé à un système de lecture du support d’intervention tagué et enrichi. S’en suit une émission de signaux tags et de codes en temps réel de leur évocation dans le récit narratif oral et une visualisation de la séquence de tags et de codes.

En référence à la figure 6 qui illustre un visuel temporel des étapes de la phase 2 en mode synchrone, dès que le système de reconnaissance de la parole entre en correspondance avec, soit un tag de structure (S), soit un code (C), il émet un signal contenant les informations taguées ou mises sous codes. Les informations taguées et /ou mises sous code sont reçues et imprimées sur le fichier numérique audiovisuel en temps réel. Un code temporel définitif leur est associé.

En référence aux figures 7 et 8 qui illustrent respectivement un visuel spatial et un visuel temporel des étapes de la phase 2 en option 2, le fichier vidéo de l’intervention orale est combiné avec le support d’intervention tagué et enrichi. On réalise une lecture du signal sonore de la vidéo de l’intervention orale, que l’on couple avec une lecture du support d’intervention, puis on réalise une émission d’un signal de tags et de codes vers le fichier vidéo d’intervention pour délivrer un fichier vidéo numérique tagué. II résulte de cette phase 2 un fichier audiovisuel numérique tagué et comportant l’ensemble des codes relatifs aux citations évoquées, avec un maillage temporel des données écrites et du discours oral.

On va maintenir décrire, en référence à la figure 9, les étapes de la phase 3 de traitement du fichier audiovisuel numérique enrichi, en même temps que le fonctionnement du logiciel L03.

Cette phase 3 comprend : une étape d’extraction des données de tags et de codes contenues dans le fichier audiovisuel tagué de l’intervention orale, comme l’illustre la figure 10, une étape d’incrémentation de toutes les données selon un critère temporel (time code) dans une table matricielle, une génération, à partir de la table matricielle, de collections de tables de données correspondant aux catégories prédéfinies lors de la phase préparatoire, ces tables incluant une table des structures et des tables catégorielles, comme l’illustre la figure 11, une création à la volée de bases de données interchangeables à partir de la table des structures et des tables catégorielles.

Le traitement du fichier audiovisuel comprend : une récupération des données temporelles et des chaînes de caractères pour les TAG(S), - une récupération des données temporelles et décryptée des CODES (C) et une récupération des informations cryptées dans les codes.

On réalise ensuite une transmission et une incrémentation des données extraites et décryptées associées à leurs codes temporels (time codes) dans un fichier ou dans une table structurée définie spécialement à cet effet. Il est à noter que l’on peut mettre en œuvre pour cela une chaîne de blocs (blockchain). On prévoit aussi une incrémentation des citations (CODE C) selon les catégories prédéfinies à l’aide d’une identification des données structurelles objectives propres à chaque domaine de savoir.

Un classement selon les hiérarchies propres à ces données catégorielles est ensuite effectué. Les données contenues dans les codes, associées aux données relatives aux références citées, sont exploitées. Il en est de même des données dans le cadre d’environnement prédéfini sur un plan visuel et graphique pour restituer et donner accès au récit narratif dans sa globalité mais surtout en offrant un accès ciblé temporel au discours ou à une donnée citée, toujours contextualisée pour répondre à l’exigence de pertinence.

La Table de structure générée à partir de la table matricielle permet de reconstituer à partir de la liste de titres (S) une table des matières détaillées de l’intervention (récit narratif oral). Représentée sous forme écrite à l’écran, elle permettra une consultation très fine du contenu, suivant la Chronologie du récit narratif de l’intervenant.

La Table de structure sert de repère contextuel des autres données catégorielles citées. Les données catégorielles étant présentées dans l’espace visuel qui sépare deux titres, suivant leur temporalité de citation, et à l’exclusion de toute retranscription textuelle du récit narratif oral enregistré en vidéo.

Un calcul systématique du dernier time code de chaque titre (time out du titre (s)) par rapport au time in d’entrée du titre (s) permet quant à lui de déterminer la durée exacte à la seconde près de chaque partie qui compose la table détaillée des matières. En terme d’usage, cette information est essentielle pour permettre à l’utilisateur de maîtriser sa consultation.

Les informations de structure servent à la génération de la table des matières détaillées qui elle-même sert de table d’accès aux séquences de l’intervention orale dans l’interface utilisateur final. On peut prévoir jusqu’à dix niveaux d’indentation pour permettre une granularisation du savoir suffisante et pertinente en mode de consultation comme en mode de recherche.

Ces informations de structure permettent aussi la constitution du corpus des mots clés de l’intervention orale, auxquels sont ajoutés les mots clés spécifiques marqués comme tels par l’auteur ou l’intervenant avec le code W, ainsi que la contextualisation des données catégorielles (C) qui sont situées dans un intervalle de valeur temporel (entre deux codes temporels) qui permet de les recontextualiser à tous moments, quel que soit l’angle de consultation choisi.

Les éléments de catégorie servent à la génération de l’index des données de catégorie 1, par exemple des composés chimiques. L’index de tri n’est pas temporel : il est spécifique à la catégorie 1.

L’index permet non seulement la consultation de la donnée dans sa logique catégorielle propre, mais il permet également une consultation in-situ de chaque donnée de catégorie 2, dans son ou ses contextes de citation lors du récit narratif oral qui l’a expliqué ou évoqué. Pour la phase 4 de développement des environnements de connaissance, dans le cadre du procédé d’éditorialisation selon l’invention, on peut avantageusement mettre en œuvre des fonctionnalités divulguées dans les documents FR2849564, FR2878345 et FR2910987.

La phase 5 peut être réalisée en implémentant une base temporelle de données d’oralités et des références citées, des principes de navigation et de design cognitif et une bibliothèque de modèles de design.

On va maintenant développer sous la forme du tableau ci-dessous les entrées, fonctionnalités et sorties de trois modules logiciels Ll, L2, L3, L4 du type des logiciels

LOI, L02, L03 qui viennent d’être décrits à titre d’exemples non limitatifs de mise en œuvre du procédé d’éditorialisation selon l’invention :

La version TEXT-V2 en sortie du module logiciel L1 comprend : le texte d’intervention des tags de structure (tags du plan détaillé) - des tags de contenus (encapsulant des contenus d’informations citées dans le

Discours principal)

Il est important de noter que lorsque l’auteur écrit habituellement son texte et son plan, le logiciel L1 peut automatiquement taguer sur le support numérique Texte. Dans ce cas, les fonctions « titres », « puces », « numérotation » etc... d’un logiciel Texte quel qu’il soit, sont reliées au logiciel L1 qui génère les tags dès que les fonctions « titres » puces sont actionnées. L’auteur peut garder la main et ajouter les tags autour des mots-clés.

Le module logiciel L2 indique les codes temporels de chaque mot, étant précisé qu’il est toujours possible de paramétrer les exclusions de mots, par exemple les exclusions des pronoms et articles (personnels, définis, indéfinis, possessifs, etc...). Dans le module logiciel L3, à l’issue de l’opération transfert des codes temporels de RETRANSCRIT- VI sur Texte-V2, les deux versions textes comportent des codes temporels similaires. Les transferts des tags de TEXT-V2 sur RETRANSCRIPT-V1 sont réalisés en s’appuyant sur la correspondance des codes temporels présents sur les deux versions résultant de l’étape précédente de transfert. La sortie RETRANSCRIT-V2 du module logiciel L3 comprend : - la version retranscrite de la version audio- vidéo du Discours principal,

- les codes temporels positionnés ligne à ligne, mot à mot et paragraphe à paragraphe,

- les tags (S), (C) et (W).

La sortie Audio- vidéo V2 du module logiciel 4 comprend : la version audio-vidéo du Discours principal, les tags de structures les tags de citations et leur contenu les tags de mots clés '

(autre type de tags qui auraient été préalablement définis lors du paramétrage du L02, voir même, en mode distanciel, lors du taggage direct par l’auteur à l’aide du L02 utilisé en mode simplifié).

Les codes temporels (TC) spécifiques au fichier audio-vidéo.

Le procédé d’éditorialisation selon l’invention peut être avantageusement utilisé par un chercheur ou un documentaliste pour effectuer des recherches transversales à un ensemble de domaines de savoir, et pour tout type de support et de format. Il est ainsi possible de réaliser des combinaisons d’écoutes inédites de fragments d’oralités autour du seul critère de pertinence issu d’une recherche par les mots clés ou par les documents de référence, le tout en maintenant de façon systématique le contexte propre et spécifique à chaque segment d’oralité consulté.

Le procédé d’éditorialisation selon l’invention peut aussi être utilisé par des apprenants en formation et peut amplement contribuer à la transmission de savoirs, notamment de savoirs d’expérience.

En particulier, dans des environnements de connaissances industriels générant de grandes masses de données techniques, le procédé d’éditorialisation selon l’invention peut contribuer à résoudre des problèmes de transmission des savoirs. Par un traitement massif de discours oraux d’explication associés à de la documentation technique, il devient alors possible de délivrer des formations accélérées et opérationnelles en contexte digital, de préserver et de valoriser des savoir-faire, notamment des savoir-faire d’experts partant à la retraite ou quittant l’entreprise. Bien sûr, l’invention n’est pas limitée aux exemples qui viennent d’être décrits et de nombreux aménagements peuvent être apportés à ces exemples sans sortir du cadre de l’invention. De plus, les différentes caractéristiques, formes, variantes et modes de réalisation de l’invention peuvent être associés les uns avec les autres selon diverses combinaisons dans la mesure où ils ne sont pas incompatibles ou exclusifs les uns des autres.