Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR MANAGING A DISPLAY INTERFACE
Document Type and Number:
WIPO Patent Application WO/2021/089437
Kind Code:
A1
Abstract:
The invention relates to a method for managing a display interface which is formed by a plurality of display screens (3) of smart watches (1) which are worn on parts of the body of the users, which parts are likely to be moving or are moving, the watches (1) being located near each other, the method comprising the following steps: • estimating (10) at least one broadcast characteristic of each display screen (3) in the display interface which they form together, and • managing the display (15) of a visual message on the display interface, this step comprising a sub-step (18) of generating portions of the visual message in accordance with measurement data relating to at least one broadcast characteristic, each portion being intended to be displayed on the screen (3) of each smart watch (1); • broadcasting (19) the portions of the message on each screen (3) which constitutes this display interface.

Inventors:
FRANZI EDOARDO (CH)
KOLLER JEAN-MARC (CH)
Application Number:
PCT/EP2020/080565
Publication Date:
May 14, 2021
Filing Date:
October 30, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
TISSOT SA (CH)
International Classes:
G04G9/00; G04G17/04; G04G99/00; G06F3/14
Foreign References:
US20180024800A12018-01-25
US20150084837A12015-03-26
US20140355819A12014-12-04
Attorney, Agent or Firm:
ICB SA (CH)
Download PDF:
Claims:
REVENDICATIONS

1. Procédé de gestion d’une interface d’affichage formée d’une pluralité d’écrans (3) d’affichage de montres connectées (1 ) portées sur des parties du corps d’utilisateurs lesquelles parties sont susceptibles d’être en mouvement ou sont en mouvement, lesdites montres (1) étant localisées à proximité les unes des autres, le procédé comprenant les étapes suivantes :

• estimation (10) d’au moins une caractéristique de diffusion de chaque écran (3) d’affichage dans ladite interface d’affichage qu’ils forment ensemble ;

• gestion de l’affichage (15) d’un message visuel sur ladite interface d’affichage comprenant une sous-étape génération (18) de portions dudit message visuel en fonction de données de mesure relatives à au moins une caractéristique de diffusion, chaque portion étant destinée à être affichée sur l’écran (3) de chaque montre connectée (1), et

• diffusion (19) des portions dudit message sur chaque écran (3) constituant cette interface d’affichage.

2. Procédé selon la revendication précédente, caractérisé en ce que l’étape d’estimation (10) comprend une sous-étape d’établissement (11 ) par chaque montre connectée (1 ) desdites données de mesure relatives à au moins une caractéristique de diffusion comprenant :

• au moins une caractéristique de localisation de ladite montre relativement aux autres montres connectées (1 ) dont les écrans (3) forment l’interface d’affichage, et/ou

• au moins une caractéristique d’orientation de l’écran (3) de ladite montre connectée.

3. Procédé selon la revendication précédente, caractérisé en ce que la sous-étape d’établissement (11 ) comprend une phase d’évaluation (12) de la position de chaque montre (1) relativement à d’autres montres connectées (1) qui sont situées dans son environnement immédiat.

4. Procédé selon la revendication précédente, caractérisé en ce que la sous-étape d’établissement (11) comprend une phase d’estimation (13) de l’orientation de l’écran (3) de chaque montre.

5. Procédé selon l’une quelconque des revendications 2 à 4, caractérisé en ce que l’étape d’estimation comprend une sous-étape de transmission (14) par les montres connectées (1) desdites données de mesure à un serveur de gestion de l’interface d’affichage. 6. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’étape de gestion de l’affichage (15) comprend une sous-étape de réalisation (16) du message visuel à afficher sur ladite interface d’affichage.

7. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que l’étape de gestion de l’affichage (15) comprend une sous-étape de conception (17) d’une cartographie relative à la position de toutes les montres connectées (1 ) et en particuliers des écrans (3) les constituants et formant l’interface d’affichage.

8 Procédé selon la revendication précédente, caractérisé en ce que la sous-étape de conception (17) comprend une phase de sélection des écrans (3) qui sont les plus adaptées à la diffusion du message visuel réalisé en fonction de leur orientation et de la distance qui les sépare des autres écrans (3).

9. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les écrans (3) des montres connectées (1) sont chacun spécifiquement dédié et configuré pour l’affichage d’une portion de message visuel transmis par le serveur de gestion.

10 Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les écrans (3) des montres connectées (1) ont chacun pour unique fonction d’afficher une portion du message visuel transmis par le serveur de gestion.

11 Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les écrans (3) des montres connectées (1) ont chacun pour unique fonction et/ou destination de constituer ladite interface d’affichage.

12. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que lesdites montres connectées (1) sont susceptibles d’être en mouvement ou sont en mouvement les unes par rapport aux autres.

13. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que la pluralité d’écrans (3) d’affichage de montres connectées sont des écrans secondaires de ces montres connectées, chacun de ces écrans (3) étant susceptible d’être agencé dans le bracelet de la montre correspondante.

14. Procédé selon l’une quelconque des revendications précédentes, caractérisé en ce que les montres connectées comprennent chacune un écran principal dédié à l’affichage d’informations destinées spécifiquement ou exclusivement à l’utilisateur de ladite. 15. Programme d’ordinateur comprenant des instructions de code de programme pour l'exécution des étapes (10 à 19) du procédé selon l'une quelconque des revendications 1 à 14 lorsque ledit programme est exécuté par les unités de traitement (6, 20) d’une montre connectée (1 ) et d’un serveur de gestion (2) de l’interface d’affichage.

Description:
PROCEDE DE GESTION D’UNE INTERFACE D’AFFICHAGE

Domaine technique

L’invention concerne un procédé de gestion d’une interface d’affichage formée d’une pluralité d’écrans de montres connectées portées par des utilisateurs localisés en un même lieu.

L’invention concerne aussi un programme d'ordinateur mettant en oeuvre un tel procédé.

Arrière-plan technologique Lors du déroulement d’animations visuelles et/ou sonores tels que des spectacles du types concerts ou encore évènements sportifs, il est courant que des dispositifs électroniques tels que des ordiphones, des caméras vidéo ou encore des appareils photographiques soient brandis par des personnes du public, notamment pour immortaliser des instants de ces spectacles. Cependant, une tel usage de ces dispositifs lors de ces spectacles à pour inconvénient majeur d’engendrer systématiquement une pollution visuelle venant alors perturber leur bon déroulement.

Dans ces conditions, on comprend qu’il existe un réel besoin de trouver une solution permettant de surmonter ces inconvénients de l’art antérieur.

Résumé de l’invention

Un des buts de la présente invention est par conséquent de proposer un procédé qui vise à mettre à profit les écrans de montres connectées pour contribuer au show visuel de telles animations visuelles et/ou sonores.

L’invention concerne un procédé de gestion d’une interface d’affichage formée d’une pluralité d’écrans d’affichage de montres connectées portées sur des parties du corps des utilisateurs lesquelles parties sont susceptibles d’être en mouvement ou sont en mouvement, lesdites montres étant localisées à proximité les unes des autres, le procédé comprenant les étapes suivantes : · estimation d’au moins une caractéristique de diffusion de chaque écran d’affichage dans ladite interface d’affichage qu’ils forment ensemble, et

• gestion de l’affichage d’un message visuel sur ladite interface d’affichage comprenant une sous-étape génération de portions dudit message visuel en fonction de données de mesure relatives à au moins une caractéristique de diffusion, chaque portion étant destinée à être affichée sur l’écran de chaque montre connectée, et

• diffusion des portions dudit message sur chaque écran constituant cette interface d’affichage.

Dans d’autres modes de réalisation :

- l’étape d’estimation comprend une sous-étape d’établissement par chaque montre connectée desdites données de mesure relatives à au moins une caractéristique de diffusion comprenant au moins une caractéristique de localisation de ladite montre relativement aux autres montres connectées dont les écrans forment l’interface d’affichage ;

- l’étape d’estimation comprend une sous-étape d’établissement par chaque montre connectée desdites données de mesure relatives à au moins une caractéristique de diffusion comprenant au moins une caractéristique d’orientation de l’écran de ladite montre connectée ;

- la sous-étape d’établissement comprend une phase d’évaluation de la position de chaque montre relativement à d’autres montres connectées qui sont situées dans son environnement immédiat ; - la sous-étape d’établissement comprend une phase d’estimation de l’orientation de l’écran de chaque montre ;

- l’étape d’estimation comprend une sous-étape de transmission par les montres connectées desdites données de mesure à un serveur de gestion de l’interface d’affichage ;

- l’étape de gestion de l’affichage comprend une sous-étape de réalisation du message visuel à afficher sur ladite interface d’affichage ;

- l’étape de gestion de l’affichage comprend une sous-étape de conception d’une cartographie relative à la position de toutes les montres connectées et en particuliers des écrans les constituants et formant l’interface d’affichage ;

- la sous-étape de conception comprend une phase de sélection des écrans qui sont les plus adaptées à la diffusion du message visuel réalisé en fonction de leur orientation et de la distance qui les sépare des autres écrans ;

- les écrans des montres connectées sont chacun spécifiquement dédié et configuré pour l’affichage d’une portion de message visuel transmis par le serveur de gestion ; - les écrans des montres connectées ont chacun pour unique fonction d’afficher une portion du message visuel transmis par le serveur de gestion ;

- les écrans des montres connectées ont chacun pour unique fonction et/ou destination de constituer ladite interface d’affichage ; - lesdites montres connectées sont susceptibles d’être en mouvement ou sont en mouvement les unes par rapport aux autres ;

- les montres connectées comprennent chacune un écran principal dédié à l’affichage d’informations relatives à des informations horaires. L’invention concerne aussi un programme d’ordinateur comprenant des instructions de code de programme pour l'exécution de telles étapes du procédé lorsque ledit programme est exécuté par les unités de traitement d’une montre connectée et d’un serveur de gestion de l’interface d’affichage.

Brève description des figures

L’invention sera décrite ci-après de manière plus détaillée à l’aide d’un dessin annexé, donné à titre d’exemple nullement limitatif, dans lequel :

- La figure 1 est une représentation relative à un procédé de gestion d’une interface d’affichage formée d’une pluralité d’écrans de montres connectées portées par des utilisateurs localisés en un même lieu, selon un mode de réalisation de la présente invention.

Description détaillée de l’invention Sur la figure 1, est illustré un procédé de gestion d’une interface d’affichage formée d’une pluralité d’écrans 3 d’affichage de montres connectées 1 portées par des utilisateurs localisés en un même lieu. Dans ce contexte, les montres sont donc localisées à proximité les unes des autres pour former cette interface d’affichage. De telles montres connectées sont portées sur des parties du corps des utilisateurs. Ces parties sont susceptibles d’être en mouvement ou sont en mouvement et peuvent comprendre par exemple le poignet, la cheville, le bras, le pied, le cou, la jambe ou le bras de chacun des utilisateurs. Une telle interface d’affichage est donc formée par l’ensemble des écrans 3 des montres connectées 1 d’utilisateurs qui sont tous situés en un même endroit/emplacement/lieu. On comprend donc que les utilisateurs portant chacun une montre connectée 1 , peuvent être regroupés dans une salle de concert ou dans une arène ou encore un stade où doit se dérouler par exemple une représentation sportive. Dans ce procédé, le message visuel est affiché par l’ensemble des écrans 3 formant l’interface d’affichage. Chaque écran 3 peut être par exemple un écran secondaire 3 de la montre connectée. Cet écran ou par exemple cet écran secondaire 3, n’est pas défini pour afficher des informations destinées spécifiquement ou exclusivement à l’utilisateur de ladite montre. De telles informations sont relatives aux fonctions réalisées par la montre 1 telles que des informations horaires, informations d’alarme, informations de géolocalisation, informations de météorologie, informations de santé (pression artérielle, fréquence cardiaque, oxymétrie de pouls, électrocardiogramme), informations d’activité, informations d’entraînement sportif ou « coaching sportif », etc... comme peut l’être ici un écran principal 4 de la montre 1. En effet, un tel écran 3 est agencé dans la montre 1, par exemple dans le bracelet 5 de cette dernière, en étant configuré pour être contrôlé/administré par un serveur de gestion 2 de l’interface d’affichage compris sur une plateforme technique distante. Cet écran 3 est du type matrice active et comprend des électrodes électroluminescentes. Il est de plus déformable et étirable. Dans ces conditions, on comprend que chacun de ces écrans 3 est de préférence spécifiquement dédié et configuré pour réaliser un tel affichage. Autrement dit, les écrans référencés 3 de ces montres connectées ont chacun pour unique fonction d’afficher une portion du message visuel transmis par le serveur de gestion. En outre, ces écrans 3 ont chacun pour unique fonction et/ou destination de constituer ladite interface d’affichage.

Ce message visuel est différent de fonctions réalisées par la montre 1 du fait notamment que leur diffusion ne résulte pas d’une configuration préalable d’une application informatique de la montre par l’utilisateur ou encore d’une interaction entre l’interface de saisie de cette montre 1 et l’utilisateur. De plus ces messages visuels ne sont pas destinés exclusivement au porteur de la montre 1 comme peut l’être une fonction de la montrel telle qu’une alarme. Dans le contexte de ce mode de réalisation, chaque message visuel est relatif à une animation visuelle et/ou sonore (par exemple un évènement sportif, culturel, un spectacle, un concert, etc...) compris/ organisée dans un environnement/emplacement/lieu où est localisée ladite montre 1. Ainsi que nous l’avons déjà évoqué, ce message visuel est destiné à une interface d’affichage formée par plusieurs écrans de montres connectées 1 agencées dans un environnement/emplacement/lieu proche de la montre connectée 1. De plus, ce message visuel vise par exemple à apporter une contribution visuelle aux animations visuelles et/ou sonores. On comprend donc que le contenu de ce message visuel est en rapport direct avec l’animation visuelle et/ou sonore comprise dans l’environnement où est localisée la montre connectée 1 et donc l’utilisateur de la montre 1. Un tel contenu peut être synchronisé ou coordonné avec cette animation visuelle et/ou sonore. A titre d’exemple, une tel message visuel comprend une représentation graphique animée ou statique. De manière non limitative et non exhaustive, ce message comprend une image comprenant des objets ou un motif lumineux ou encore une figuration symbolique d'une émotion de type « émoticône », un format d'échange d'images (plus connu sous l'acronyme GIF pour « Graphics Interchange Format »), un mot/terme ou un groupe de mots/termes ou encore une vidéo.

Ce procédé comprend une étape d’estimation 10 par au moins une unité de traitement 6 de chaque montre connectée 1, d’au moins une caractéristique de diffusion de chaque écran 3 d’affichage dans ladite interface d’affichage qu’ils forment ensemble.

Cette étape 10 comprend une sous-étape d’établissement 11 de données de mesure relatives à au moins une des caractéristiques de diffusion, effectuée par chaque montre connectée 1. La caractéristique de diffusion comprend de manière non limitative et non exhaustive :

- une caractéristique de localisation de la montre 1 relativement aux autres montres connectées 1 dont les écrans 3 forment l’interface d’affichage par exemple les écrans secondaires de ces montres, et/ou - une caractéristique d’orientation de l’écran 3 de ladite montre connectée 1 par exemple l’orientation des écrans secondaires de ces montres.

De telles caractéristiques visent à identifier/évaluer les propriétés de diffusion de chaque écran 3 afin de configurer de manière optimale les paramètres de diffusion de l’interface d’affichage constituée de ces écrans 3. Autrement dit, on comprend par exemple qu’un écran 3 peut être activé/désactivé c’est-à-dire qu’il est apte à diffuser ou à ne pas diffuser une portion du message visuel en fonction de sa position et/ou de son orientation. Une telle sous-étape 11 prévoit alors une phase d’évaluation 12 mise en œuvre par l’unité de traitement 6 connectée à un module de capture de positionnement 7 de chaque montre 1. Lors cette phase 12, des opérations de mesure sont réalisées afin d’évaluer la position de chaque montre 1 relativement à d’autres montres connectées 1 qui sont situées dans son environnement immédiat. Ce module de capture de positionnement 7 de la montre connectée 1 est apte à détecter les autres montres connectées 1 qui sont agencées dans son environnement immédiat c’est-à-dire les autres montres 1 qui sont proches d’elle ou à proximité d’elle. De plus, ce module 7 de la montre connectée 1 est apte à déterminer la distance qui le sépare des autres montres 1 et à positionner chacune des autres montres 1 qui sont proches d’elle par rapport/relativement à sa propre position. Pour ce faire un tel module 1 peut mettre en œuvre :

- une technologie de type Bluetooth™ à basse consommation encore appelée en anglais « Bluetooth low energy » et plus connue sous l’acronyme « BLE » et en particulier une fonctionnalité de cette technologie dite de radiogoniométrie, et/ou

- une technologie de type Ultra Large Bande connue sous l’acronyme en français « ULB » et en anglais UWB « ultra wideband ».

La sous-étape d’établissement 11 comprend aussi une phase d’estimation 13 de l’orientation de l’écran 3 de chaque montre 1. Une telle phase 13 permet notamment d’identifier la direction de diffusion de cet écran 3 de chaque montre 1. Une telle phase 13 est mise en œuvre par l’unité de traitement 6 et un module de mesure de l’orientation 8 de l’écran 3 connecté à cette unité 6. Ce module de mesure 8 peut comprendre un ou plusieurs capteurs inertiels de type accéléromètre, gyroscope ou gyromètre multiaxes miniature tels que des capteurs multiaxes fabriqués en technologie MEMS, capables de détecter des vitesses angulaires et des accélérations linéaires selon plusieurs axes associant accéléromètres et/ou gyroscopes.

Par la suite, le procédé comprend une étape de transmission 14 par les montres connectées 1 desdites données de mesure à un serveur de gestion 2 de l’interface d’affichage. Lors de cette étape 14, l’unité de traitement 6 en étant connectée à une interface de communication de chaque montre connectée 1 , envoie à ce serveur de gestion 2 ces données via un réseau de communication, de telles données de mesure comprenant les caractéristiques de localisation et d’orientation. Ces données reçues par le serveur 2 sont ensuite archivées dans des éléments de mémoire 9 de ce serveur 2.

Le procédé comprend ensuite une étape de gestion de l’affichage 15 d’un message visuel sur ladite interface d’affichage comprenant une sous- étape génération 18 de portions dudit message visuel en fonction des données de mesure relatives à au moins une caractéristique de diffusion, chaque portion étant destinée à être affichée sur l’écran 3 de chaque montre connectée 1. Pour ce faire, une telle étape 15 comprend une sous-étape de réalisation 16 d’un message visuel à afficher sur ladite interface d’affichage. Une telle sous-étape 16 comprend une phase de génération de données de message visuel. Ces données de message visuel participe en la réalisation de ce message. De telles données de message visuel comprennent des données contextuelles relatives à des informations concernant : - un thème/sujet de l’animation/évènement visuelle et/ou sonore du lieu où le message visuel est susceptible d’être diffusé, et/ou

- des critères de synchronisation ou coordination entre cette animation/évènement et le message visuel à diffuser. Autrement dit un tel message visuel est de préférence réalisé en relation avec le thème de ranimation/évènement où il sera diffusé en étant par exemple synchronisé ou coordonné avec cette animation visuelle et/ou sonore. Les données de message visuel comprennent aussi des données de définition de message visuel qui sont conçues par une unité de traitement 20 du serveur de gestion 2, par exemple à partir d’une interface de saisie 21 du serveur 2, connectée à l’unité de traitement 20 où il est alors possible de saisir un message ou encore de sélectionner un message prédéfini archivé dans les éléments de mémoire 9 du serveur 2. Par la suite, l’étape de gestion de l’affichage 15 comprend une sous-étape de conception 17 d’une cartographie relative à l’agencement de toutes les montres connectées 1 en particuliers des écrans 3, par exemple l’écran secondaire 3, les constituants et formant l’interface d’affichage. Cette sous-étape 17 qui est mise en oeuvre par l’unité de traitement 20 du serveur 2, comprend une phase de sélection des écrans 3, par exemple des écrans secondaires 3, qui sont les plus adaptées à la diffusion du message visuel réalisé et ce, au regard de leur orientation, de la distance qui les sépare d’autres écrans 3 et de leur agencement relativement à ces autres écrans 3. Une telle phase de sélection comprend une sous-phase de traitement des données de mesure et de données de message virtuel. On notera que les données de message virtuel participent à définir notamment la nature ou le type de message visuel réalisé à diffuser. Autrement dit, une telle phase de sélection est effectuée à partir des données de mesure et aussi en fonction de la nature ou du type de message visuel réalisé à diffuser. Sur cette base, l’unité de traitement 20 construit alors une représentation virtuelle de l’interface d’affichage sur laquelle le message visuel sera affiché. En complément, on comprend que selon que le message visuel véhicule une information qui doit être lue (par exemple une image contenant des objets ou un texte) et perçue par un individu la distance entre les écrans 3 et leur orientation sont des paramètres qui sont appréciés de manière plus restrictive pour permettre cette lecture que pour un message visuel qui vise à créer des effets de lumière.

Dans ces conditions, suite à la réalisation de cette sous-étape 17, la sous-étape génération 18 prévoit alors lors de son déroulement que l’unité de traitement 20 du serveur 2, identifie à partir de la cartographie relative à l’agencement les écrans 3 constituant l’interface d’affichage, les écrans 3 qui sont aptes à diffuser ledit message visuel. Par la suite, cette unité de traitement 20 effectue des opérations de séparation/division du message visuel en autant de portion qu’il y a d’écrans 3 pour assurer la diffusion du message visuel sur l’interface visuelle. Ces portions sont ensuite transmises aux montres connectées 1 correspondantes via les interfaces de communication du serveur 2 et des montres connectées 1.

On notera que les portions peuvent avoir un contenu similaire, par exemple dans le cas où le message visuel porte sur des effets de lumière en phase et coordonnées.

Le procédé comprend ensuite une étape de diffusion 19 des portions dudit message visuel sur chaque écran 3 de montre connectée 1 constituant cette interface d’affichage notamment en fonction de leur agencement dans cette interface.

On comprend que les étapes 10 à 19 de ce procédé sont répétées autant de fois qu’il est nécessaire pour assurer une diffusion optimale du message visuel et ce, afin notamment de prendre en compte les nombreux mouvements que peuvent effectuer les utilisateurs de ses montres connectées 1 portées souvent sur une partie du corps en mouvement ou susceptible d’être en mouvement de ces utilisateurs comme les poignets.

L’invention concerne aussi un programme d’ordinateur comprenant des instructions de code de programme pour l'exécution des étapes 10 à 19 du procédé lorsque ledit programme est exécuté par les unités de traitement d’une montre connectée 1 et d’un serveur de gestion 2 de l’interface d’affichage.