Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR GENERATING A HAPTIC FEEDBACK FOR AN INTERFACE, AND ASSOCIATED INTERFACE
Document Type and Number:
WIPO Patent Application WO/2020/157175
Kind Code:
A1
Abstract:
The invention relates to a method for generating a haptic feedback for a motor vehicle interface (1) comprising: - a screen (4) configured to display an image, - a touch surface (3) arranged above the screen (4) and configured to locate the position as well as to determine a pressure applied by a control element to the touch surface (3), - a haptic feedback device (20) configured to generate a haptic feedback when receiving a control signal, and - a procedural texture generation unit (28) configured to model a textured object and to display an image of the textured object on the screen (4), the method being characterised in that - an image of a textured object generated by the procedural texture generation unit (28) is displayed on the screen (4), - taking into account the location on the touch surface (3) and the pressure (F) applied by the control element, an interaction of said control element with the textured object is modelled, - the effect of the interaction on the textured object is determined, - the haptic feedback device (20) is controlled according to the determined effect of the interaction on the textured object.

Inventors:
VANHELLE STEPHANE (FR)
ADRIANO PEDRO (FR)
Application Number:
PCT/EP2020/052246
Publication Date:
August 06, 2020
Filing Date:
January 30, 2020
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
VALEO COMFORT & DRIVING ASSISTANCE (FR)
International Classes:
G06F3/01; B60K35/00; B60K37/06; G06F3/041; G06F3/0488
Domestic Patent References:
WO2018219832A12018-12-06
Foreign References:
EP3340022A12018-06-27
US6674433B12004-01-06
EP2599057A22013-06-05
Other References:
SANG-YOUN KIM ET AL: "A Hybrid Approach for a Real-time Haptic and Graphic Simulator in Virtual Environment", ROBOT AND HUMAN INTERACTIVE COMMUNICATION, 2007. RO-MAN 2007. THE 16TH IEEE INTERNATIONAL SYMPOSIUM ON, IEEE, PI, 26 August 2007 (2007-08-26), pages 316 - 319, XP031224934, ISBN: 978-1-4244-1634-9
ACM, 2 PENN PLAZA, SUITE 701 - NEW YORK USA, 18 October 2006 (2006-10-18), XP040048815
Attorney, Agent or Firm:
DELPLANQUE, Arnaud (FR)
Download PDF:
Claims:
Revendications

[Revendication 1 ] Procédé de génération d’un retour sensitif pour une

interface (1 ) de véhicule automobile comprenant :

- un écran (4) configuré pour afficher une image,

- une surface tactile (3) disposée au-dessus de l’écran (4) et configurée pour localiser la position (X, Y) ainsi que pour déterminer une force d’appui d’un élément de commande sur la surface tactile (3),

- un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d’une réception d’un signal de commande, et

- une unité (28) de génération de textures procédurales configurée pour modéliser un objet texturé (30) et pour afficher une image de l’objet texturé (30) sur l’écran (4),

caractérisé en ce que

- on affiche une image d’un objet texturé (30) générée par l’unité (28) de génération de textures procédurales sur l’écran (4),

- en tenant compte de la localisation sur la surface tactile (3) et de la force d’appui (F) de l’élément de commande, on modélise une interaction de cet élément de commande avec l’objet texturé (30),

- on détermine l’effet de l’interaction sur l’objet texturé (30),

- on commande le dispositif de retour sensitif (20) en fonction de l’effet déterminé de l’interaction sur l’objet texturé (30).

[Revendication 2] Procédé selon la revendication 1 , dans lequel on affiche sur l’écran (4) l’effet de l’interaction sur l’objet texturé.

[Revendication 3] Procédé selon la revendication 1 ou 2, dans lequel l’unité (28) de génération de textures procédurales tient compte lors de la

modélisation de l’objet texturé (30) d’au moins un des paramètres suivants compris dans le groupe de paramètres: rugosité de l’objet texturé,

déformabilité du matériau de l’objet texturé, élasticité de l’objet texturé, le déplacement ou le mouvement de l’objet texturé.

[Revendication 4] Procédé selon l’une quelconque des revendications 1 à 3, dans lequel l’objet texturé (30) correspond à un revêtement de planche de bord, notamment une peau, par exemple du cuir ou un bouton de commande. [Revendication 5] Procédé selon l’une quelconque des revendications 1 à 3, dans lequel l’objet texturé (30) présente une surface dynamique variant dans le temps, notamment sous forme de vagues.

[Revendication 6] Procédé selon l’une quelconque des revendications 1 à

5, dans lequel on émet un retour sonore accompagnant l’effet de l’interaction sur l’objet texturé (30).

[Revendication 7] Procédé selon l’une quelconque des revendications 1 à

6, dans lequel l’objet texturé (30) est représenté sous forme d’un maillage 3D à polygones.

[Revendication 8] Interface de véhicule automobile comprenant :

- une unité (28) de génération de textures procédurales configurée pour modéliser un objet texturé (30) et pour afficher une image de l’objet texturé (30),

- un écran (4) configuré pour afficher une image d’un objet texturé (30) générée par ladite unité (28) de génération de textures procédurales,

- une surface tactile (3) disposée au-dessus de l’écran (4) et configurée pour localiser la position (X, Y) ainsi que déterminer une force d’appui d’un élément de commande sur la surface tactile (3), et

- un dispositif de retour sensitif (20) configuré pour générer un retour sensitif lors d’une réception d’un signal de commande,

caractérisé en ce que l’unité (28) de génération de textures procédurales sur l’écran (4) est configurée

- pour modéliser une interaction de l’élément de commande avec l’objet texturé (30) en tenant compte de la localisation sur la surface tactile (3) et de la force d’appui (F) de l’élément de commande,

- pour déterminer l’effet de l’interaction sur l’objet texturé (30), et

- pour commander le dispositif de retour sensitif (20) en fonction de l’effet déterminé de l’interaction sur l’objet texturé (30).

[Revendication 9] Interface selon la revendication 8, dans laquelle l’unité (28) de génération de textures procédurales est configurée pour tenir compte lors de la modélisation de l’objet texturé (30) d’au moins un des paramètres suivants compris dans le groupe de paramètres : rugosité de l’objet texturé, déformabilité du matériau de l’objet texturé, élasticité de l’objet texturé, le déplacement ou le mouvement de l’objet texturé.

[Revendication 10] Interface selon l’une quelconque des revendications 8 à

9, dans laquelle l’objet texturé (30) correspond à un revêtement de planche de bord, notamment une peau, par exemple du cuir ou un bouton de commande.

[Revendication 1 1] Interface selon l’une quelconque des revendications 8 à

10, dans laquelle elle comprend en outre un émetteur acoustique (24) configuré pour émettre une signature acoustique accompagnant l’effet de l’interaction sur l’objet texturé (30).

[Revendication 12] Interface selon l’une quelconque des revendications 8 à

1 1 , dans laquelle l’objet texturé (30) dans l’espace virtuel est représenté sous forme d’un maillage 3D à polygones.

Description:
Description

Titre de l'invention : Procédé de génération d’un retour sensitif pour une interface et interface associée

[1 ] [La présente invention concerne un procédé de génération d’un retour sensitif pour une interface de véhicule automobile. La présente invention concerne également une interface de véhicule automobile configurée pour la mise en oeuvre dudit procédé.

[2] Pour simplifier les tableaux de bord des véhicules automobiles, gérer différentes configurations d’interfaces ,et améliorer leur esthétisme, on intègre de plus en plus des écrans tactiles à l’intérieur de l’habitacle.

[3] A la base, ces écrans sont plats, mais plus récemment ont été développé des écrans tactiles avec un certain galbe s’intégrant harmonieusement dans la planche de bord d’un véhicule automobile.

[4] Ces écrans permettent la commande d’un grand nombre de fonctions comme par exemple des fonctions de climatisation, audio, de téléphonie, de navigation, d’aides à la conduite, pour n’en citer que quelques-unes et contribuent à l’esthétisme de l’intérieur de l’habitacle. Pour les constructeurs automobiles, elles permettent aussi de donner une « signature » de leur marque, aussi grâce aux interfaces graphiques des écrans.

[5] Un écran tactile permet donc d’augmenter le nombre de fonctions pouvant être commandées par les utilisateurs avec l’avantage d’être programmables et reconfigurables et pouvant être exposées de façon temporaire ou permanente selon le contexte ou la fonction activée. L’écran inclut ainsi une possibilité de multifonctionnalité, tout en dématérialisant les boutons et en étant

personnalisable. Ces écrans tactiles dont le coût tend à diminuer permettent donc de s’adapter facilement à différents modèles et à des gammes de véhicule différentes.

[6] De plus en plus, les écrans tactiles sont équipés d’un retour sensitif par exemple haptique et/ou sonore. Le retour sensitif permet par exemple d’assurer à l’utilisateur que sa commande a bien été prise en compte, ce qui permet d’éviter l’apparition de situations dangereuses en cours de conduite. [7] Dans un second temps, par l’intégration d’un écran tactile, on souhaite également simuler pour l’utilisateur un environnement qu’il connaît. En effet, les écrans permettent par exemple d’afficher des images pouvant comporter des objets, comme par exemple des reliefs ou des boutons. L’utilisateur a, par le jeu d’effets d’éclairage et d’ombre, une perception visuelle en relief de l’objet affiché. Certaines autres images ou zones de l’image affichent une surface présentant une certaine texture de surface. Le visuel rendu est, en fonction de la qualité d’affichage de l’écran, de plus en plus proche de la perception réelle de l’objet affiché par un utilisateur.

[8] Des développements récents proposent d’associer de plus un retour sensitif au relief de l’image affichée sur l’écran tactile pour un rendu très similaire à celui d’un relief en 3D d’un objet réel. Dans ce cas, le retour haptique a non seulement pour fonction de confirmer ou valider un choix de l’utilisateur, mais aussi, à partir d’une interface généralement lisse, de lui donner une perception de surface en accord avec une image ou un objet affiché.

[9] Un motif haptique est par exemple associé au moins dans certaines zones de l’image pour simuler à l’utilisateur un ressenti proche du motif visuel affiché.

[10] On connaît par exemple un procédé de simulation de texture qui associe un motif haptique spécifique à différentes zones de l’écran.

[1 1 ] Par exemple, pour simuler une texture de stries verticales, des zones

reprenant les formes des stries sont définies sur l’image pour chaque « nervure » ou « rainure » et un motif haptique différent est associé à chaque zone d’aspect différent.

[12] En fonctionnement, lorsque le doigt de l’utilisateur se déplace horizontalement sur la surface lisse de l’écran tactile sur la succession de stries affichées par l’écran, il perçoit des motifs haptiques générés en alternance rappelant les stries verticales qu’il visualise simultanément sur l’écran. Le but est donc de mettre la perception haptique de l’utilisateur en accord avec l’image ou l’objet affiché sur l’écran.

[13] Cette perception haptique de texture, également appelée « haptic texturing » en anglais, peut toutefois parfois manquer de réalisme. [14] C’est par exemple le cas lorsque l’utilisateur perçoit un décalage entre la localisation d’un ressenti haptique d’un relief sur l’écran et sa visualisation. Un tel décalage peut survenir par exemple lorsque l’utilisateur déplace rapidement son doigt sur l’écran.

[15] Cela peut aussi être le cas lorsque l’utilisateur déplace son doigt dans des directions différentes et qu’il ne perçoit pas de modifications de texture selon le sens de déplacement du doigt alors qu’il visualise des textures asymétriques sur l’écran.

[16] Ces imprécisions du ressenti haptique sont notamment dues au temps de calcul nécessaire pour le traitement des informations.

[17] Pour améliorer cela, une solution consiste à réaliser des calculs de direction et de trajectoire permettant de prendre en compte notamment la vitesse de déplacement du doigt, la pression d’appui du doigt exercée sur l’écran ou le sens de déplacement du doigt pour la détermination de l’effet haptique à générer. Ces calculs tentent par exemple d’anticiper le mouvement du doigt sur l’écran pour mieux synchroniser la perception du retour haptique généré avec la texture affichée sur l’écran afin qu’elle soit la plus réaliste possible.

[18] En reprenant l’exemple des stries verticales, on mesure par exemple le sens de déplacement du doigt pour adapter le motif haptique selon que l’utilisateur déplace son doigt horizontalement ou verticalement. Egalement, on mesure la vitesse de déplacement du doigt pour anticiper la trajectoire et adapter le motif du retour haptique généré à l’augmentation de vitesse de déplacement du doigt.

[19] Toutefois, ces calculs nécessitent beaucoup de ressources informatiques.

[20] En outre, on constate toujours des imperfections de perception du retour haptique.

[21 ] Ces imperfections de perception sont principalement dues au temps de calcul notamment nécessaire pour mesurer la vitesse et le sens de déplacement du doigt de l’utilisateur sur l’écran tactile et pour calculer ensuite le retour haptique à générer qui correspond à ces données particulières.

[22] Une autre imperfection vient de l’impossibilité de rendre compte avec le

ressenti haptique de l’interaction par exemple du doigt comme élément de commande avec un relief déformable dans le monde réel. En effet, si on suppose dans le monde réel une surface 3D avec des petites nervures ou protubérances en matière élastique, en fonction du matériau, notamment son élasticité, et de la force d’appui appliquée sur un tel relief, la perception haptique par l’utilisateur en glissant son doigt sur ce relief est différente. En effet, plus la force d’appui est importante et plus la matière est élastique, plus l’utilisateur va « écraser » dans le mode réel les parties en relief et « gommer » en quelque sorte les aspérités de surface. En revanche par exemple pour un relief en « pierre » très rigide et ne présentant aucune élasticité, il n’y a pas cet effet de gommage ou d’écrasement.

[23] Par ailleurs, les solutions connues sont des images statiques, c’est-à-dire que, certes l’image affichée permet à l’utilisateur de percevoir un certain relief, comme par exemple des rainures et des nervures et par des retours adaptés, l’utilisateur perçoit haptiquement ce relief, mais les solutions connues ne permettent pas une interaction évolutive entre le relief affiché d’une part et le retour haptique d’autre part. En conséquence, la représentation haptique et visuel peut paraître un peu rigide à l’utilisateur.

[24] Un des buts de la présente invention est donc de remédier au moins

partiellement à au moins un des inconvénients ci-dessus en proposant un procédé de génération d’un retour sensitif pour une interface de véhicule automobile plus performant, qui permette d’ajouter une composante relevant d’une interaction dynamique avec l’utilisateur.

[25] A cet effet, l’invention a pour objet un procédé de génération d’un retour

sensitif pour une interface de véhicule automobile comprenant :

- un écran configuré pour afficher une image,

- une surface tactile disposée au-dessus de l’écran et configurée pour localiser la position ainsi que pour déterminer une force d’appui d’un élément de commande sur la surface tactile,

- un dispositif de retour sensitif configuré pour générer un retour sensitif lors d’une réception d’un signal de commande, et

- une unité de génération de textures procédurales configurée pour modéliser un objet texturé et pour afficher une image de l’objet texturé sur l’écran,

caractérisé en ce que

- on affiche une image d’un objet texturé générée par l’unité de génération de textures procédurales sur l’écran,

- en tenant compte de la localisation sur la surface tactile et de la force d’appui de l’élément de commande, on modélise une interaction de cet élément de commande avec l’objet texturé,

- on détermine l’effet de l’interaction sur l’objet texturé,

- on commande le dispositif de retour sensitif en fonction de l’effet déterminé de l’interaction sur l’objet texturé.

[26] Le procédé peut présenter un ou plusieurs des aspects suivants pris seuls ou en combinaison :

[27] Selon un aspect, on affiche sur l’écran l’effet de l’interaction sur l’objet texturé.

[28] L’unité de génération de textures procédurales tient par exemple compte lors de la modélisation de l’objet texturé d’au moins un des paramètres suivants compris dans le groupe de paramètres: rugosité de l’objet texturé, déformabilité du matériau de l’objet texturé, élasticité de l’objet texturé, le déplacement ou le mouvement de l’objet texturé.

[29] L’objet texturé peut correspondre à un revêtement de planche de bord,

notamment une peau, par exemple du cuir ou un bouton de commande.

[30] Selon un mode de réalisation, l’objet texturé présente une surface dynamique variant dans le temps, notamment sous forme de vagues.

[31 ] Selon un autre aspect, on émet un retour sonore accompagnant l’effet de

l’interaction sur l’objet texturé.

[32] L’objet texturé est par exemple représenté sous forme d’un maillage 3D à polygones.

[33] L’invention concerne également une interface de véhicule automobile

comprenant :

- une unité de génération de textures procédurales configurée pour modéliser un objet texturé et pour afficher une image de l’objet texturé,

- un écran configuré pour afficher une image d’un objet texturé générée par ladite unité de génération de textures procédurales,

- une surface tactile disposée au-dessus de l’écran et configurée pour localiser la position ainsi que déterminer une force d’appui d’un élément de commande sur la surface tactile, et

- un dispositif de retour sensitif configuré pour générer un retour sensitif lors d’une réception d’un signal de commande,

caractérisé en ce que l’unité de génération de textures procédurales sur l’écran est configurée

- pour modéliser une interaction de l’élément de commande avec l’objet texturé en tenant compte de la localisation sur la surface tactile et de la force d’appui de l’élément de commande,

- pour déterminer l’effet de l’interaction sur l’objet texturé, et

- pour commander le dispositif de retour sensitif en fonction de l’effet déterminé de l’interaction sur l’objet texturé.

[34] L’interface peut présenter un ou plusieurs des aspects suivants pris seuls ou en combinaison :

[35] Selon un aspect, l’unité de génération de textures procédurales est configurée pour tenir compte lors de la modélisation de l’objet texturé d’au moins un des paramètres suivants compris dans le groupe de paramètres : rugosité de l’objet texturé, déformabilité du matériau de l’objet texturé, élasticité de l’objet texturé, le déplacement ou le mouvement de l’objet texturé.

[36] L’objet texturé correspond par exemple à un revêtement de planche de bord, notamment une peau, par exemple du cuir ou un bouton de commande.

[37] Interface peut en outre comprendre un émetteur acoustique configuré pour émettre une signature acoustique accompagnant l’effet de l’interaction sur l’objet texturé.

[38] L’objet texturé dans l’espace virtuel est représenté sous forme d’un maillage 3D à polygones.

[39] D'autres caractéristiques et avantages de l'invention ressortiront de la

description suivante, donnée à titre d'exemple et sans caractère limitatif, en regard des dessins annexés sur lesquels :

[40] [Fig.1 ] montre une partie avant d'un habitacle de véhicule automobile,

[41 ] [Fig.2] représente une vue schématique / synoptique de côté d’une interface, [42] [Fig.3] représente une vue en perspective d’un exemple d’une partie d’une surface texturée dans son espace virtuel sans contraintes,

[43] [Fig.4] représente une vue en perspective d’un exemple d’une surface

texturée selon la figure 3 dans son espace virtuel avec un appui d’un doigt,

[44] [Fig.5] représente un exemple d’une interface avec une texturation dynamique évoluant dans le temps.

[45] Sur ces figures, les éléments identiques portent les mêmes numéros de

référence.

[46] Le terme « texture procédurale » est un terme utilisé dans le graphisme

numérique. Dans ce contexte, une textures procédurale est une texture qui est créée à partir d’une description mathématique (par exemple un algorithme) et non à partir de données enregistrées par exemple sous format bitmap en tant qu’imagé. Cette méthode a pour avantage que les textures peuvent être très précises et sont indépendantes de la résolution. Les textures procédurales peuvent être par exemple 2D ou 3D et sont souvent utilisées pour représenter des matériaux naturels comme du bois, du granité, du métal ou de la pierre.

[47] L’aspect“naturel” de ces textures procédurales est généralement obtenu en utilisant du bruit fractal ou des fonctions de turbulence qui peuvent être utilisées comme une représentation d’un caractère aléatoire que l’on observe dans la nature.

[48] Les réalisations suivantes sont des exemples. Bien que la description se

réfère à un ou plusieurs modes de réalisation, ceci ne signifie pas

nécessairement que chaque référence concerne le même mode de réalisation, ou que les caractéristiques s'appliquent seulement à un seul mode de réalisation. De simples caractéristiques de différents modes de réalisation peuvent également être combinées pour fournir d'autres réalisations.

[49] La figure 1 montre une vue schématique d’une partie avant d'un habitacle 10 de véhicule automobile vue depuis la partie arrière du véhicule.

[50] L'habitacle 10 comprend notamment un siège conducteur C disposé derrière un volant 1 1 et une planche de bord 12, un siège passager P, un rétroviseur intérieur 14, un module de plafonnier 15, aussi appelé dôme, placé à proximité du rétroviseur intérieur 14 dans la partie centrale haute de la partie avant de l'habitacle 10 et une console centrale 13 située entre les deux sièges de la partie avant de l’habitacle 10, une interface 1 étant montée dans la planche de bord 12. Bien entendu, l’interface 1 peut être disposée à d'autres endroits dans l'habitacle 10 comme par exemple au niveau de la console centrale 13 ou tout autre endroit adapté.

[51 ] Comme on peut le voir sur la figure 2 montrant une vue schématique de

l’interface 1 , l’interface 1 comporte un écran 4, une surface tactile 3 disposée au- dessus de l’écran 4 et un dispositif de retour sensitif 20. L’écran 4 et la surface tactile 3 forme un écran tactile 2.

[52] Selon un exemple de réalisation, l’interface 1 permet par exemple la

commande d’au moins une fonction d’un organe de véhicule automobile pour notamment commander des fonctions d’un système de climatisation, d’un système audio, d’un système de téléphonie ou encore d’un système de navigation. L’interface 1 peut aussi être utilisée pour par exemple commander des lumières intérieures, un verrouillage central, un toit ouvrant, les feux de détresse ou les lumières d’ambiance. Cette interface 1 peut également servir pour les commandes de lève-vitres, des commandes de positionnement des rétroviseurs extérieurs ou encore des commandes de déplacement de sièges motorisés. Il permet par exemple de sélectionner une adresse postale de destination ou un nom dans un répertoire, les réglages du système de

climatisation, l’activation d’une fonction, la sélection d’une piste musicale parmi une liste.

[53] La surface tactile 3 est par exemple une dalle tactile capacitive équipée de moyens pour déterminer ou mesurer une force d’appui appliquée sur la surface tactile 3.

[54] La dalle tactile capacitive comprend ici au moins un capteur capacitif 31 , une plaque frontale 32 agencée sur le capteur capacitif 31 et un contrôleur 33.

[55] Le capteur capacitif 31 permet de détecter une variation de capacité au

niveau de la surface de la plaque frontale 32. La dalle tactile capacitive peut détecter et déterminer les coordonnées spatiales en X et Y par exemple d’un élément de commande touchant la surface tactile 3. [56] L’élément de commande peut être un doigt ou tout autre moyen d’activation (par exemple un stylet) de l’utilisateur.

[57] Le capteur capacitif 31 et la plaque frontale 32 sont au moins partiellement transparents. Le capteur capacitif 31 est par exemple formé d’un réseau d’électrodes s’étendant sur tout ou partie de la surface de la dalle. Les électrodes sont par exemple réalisées en ITO (oxyde indium - étain) qui permettent au capteur 31 d’être transparent.

[58] La rigidité de la dalle tactile capacitive est obtenue au moyen de la plaque frontale 32 (ou plaque de contact) rigide, telle qu’une plaque de verre ou en polycarbonate. La plaque frontale 32 agencée sur le capteur capacitif 31 fait face à l’utilisateur une fois montée dans l’habitacle.

[59] L’écran 4, tel qu’un écran TFT (« Thin-Film transistor » en anglais) ou un écran OLED ou un écran LCD est par exemple configuré pour afficher des informations ou images notamment associées à la manipulation de l’interface 1.

[60] L’écran 4 est disposé sous le capteur capacitif 31. L’écran 4 est configuré pour afficher une image formée d’un nombre prédéterminé de pixels repérés chacun par une position dans l’image X, Y. Un pixel est un élément de surface de base (rectangulaire ou carré) d’une image numérique. Un pixel peut être formé de plusieurs sous-pixels : rouge, vert, bleu par exemple. Par exemple, un écran 4 de résolution 480 * 800 comporte 384000 pixels.

[61 ] Les images affichées par l’écran 4 peuvent être de toute sorte en particulier des images synthétiques numériques, notamment en couleur.

[62] La surface tactile 3 comprend au moins une zone active Z. La ou les zone(s) active(s) Z peut/peuvent s’étendre sur une partie ou l’ensemble de l’interface 1. Un contact de l’élément de commande dans la zone active Z peut permettre la commande du dispositif à retour sensitif 20.

[63] Dans la zone active Z est par exemple affichée une image d’un objet texturé comme cela sera décrit plus en détail plus loin.

[64] La surface tactile 3 est configurée pour localiser la position X, Y de l’élément de commande sur la surface tactile 3 ainsi que pour déterminer la force d’appui. [65] A cet effet, l’interface 1 comporte au moins un capteur d’appui 23 configuré pour mesurer un paramètre représentatif d’une force d’appui exercée sur la surface tactile 3 (figure 2).

[66] Le capteur d’appui 23 est par exemple un capteur capacitif configuré pour mesurer une distance séparant la partie mobile de la partie fixe dans une direction perpendiculaire à la surface de l’écran tactile 2. Une variation de distance entre la partie mobile et la partie fixe est un paramètre représentatif d’un appui exercé sur l’écran tactile 2. Pour un exemple concret de réalisation, on peut par exemple se référer à l’interface décrite dans le document EP3340022 au nom de la Demanderesse.

[67] La mesure de la force d’appui peut aussi être réalisée par d’autres moyens comme par exemple par mesure inductive ou par mesure ultrason ou par mesure de déformation au moyen de jauges de contrainte ou de capteurs FSR (pour « Force Sensing Resistor » en anglais). Pour mesurer la force d’appui, la surface tactile 3 est par exemple montée de façon flottante ou suspendue dans un cadre de support (non représenté) avec une jauge de contrainte intercalée entre le cadre de support et la surface tactile 3.

[68] Le dispositif de retour sensitif 20 est configuré pour générer un retour sensitif, par exemple haptique et/ou sonore, lors d’une réception d’un signal de

commande.

[69] Pour ce faire, le dispositif de retour sensitif 20 comporte un module à retour haptique 21 et/ou un haut-parleur à retour sonore 24.

[70] Un tel signal de commande pour un retour sensitif comprend par exemple un signal de commande du module à retour haptique 21 et/ou un signal de

commande du haut-parleur à retour sonore 24 et/ou une absence de retour sensitif.

[71 ] Le retour sonore du haut-parleur à retour sonore 24 peut présenter différents motifs et/ou fréquences et/ou amplitudes et/ou durées.

[72] On désigne par « haptique », un retour tactile avec contact physique avec l’écran tactile 2. [73] Le retour haptique peut être réalisé en faisant par exemple vibrer l’écran tactile 2, ceci aussi bien dans une direction parallèle à un plan défini par l’écran 4 ou une direction perpendiculaire à ce plan. Le retour haptique est alors un retour par le toucher. Ainsi, le retour haptique est un signal vibratoire ou vibrotactile.

[74] Le signal de commande du module à retour haptique H peut présenter

différents motifs et/ou fréquences et/ou déphasages et/ou amplitudes et/ou durées, généralement comprises entre 20 et 30msec. Le motif (ou allure ou forme) présente par exemple une forme dite simple : linéaire, carré, demi-sinus, triangle, etc ou une forme dite complexe comportant une combinaison de formes simples ou une courbe. Le motif peut aussi être symétrique ou asymétrique en fonction du temps selon l’effet que l’on souhaite simuler. Un motif est symétrique en fonction du temps si la durée de déplacement dans un sens de déplacement est égale à celle dans le sens inverse. Un motif est asymétrique en fonction du temps si la durée dans un sens de déplacement est plus longue ou plus courte à celle dans le sens inverse.

[75] Pour cela, le module à retour haptique comporte au moins un actionneur vibratoire 21 relié à l’écran tactile 2.

[76] L’actionneur vibratoire 21 est par exemple de type ERM (pour « Eccentric Rotating-Mass » en anglais) également appelé « moteur vibrant » ou moteur à masselotte. Selon un autre exemple, l’actionneur vibratoire 21 est de type électromagnétique (solénoïde). Il peut reposer aussi par exemple sur une technologie similaire à celle du Haut-Parleur (en anglais : « Voice-Coil »).

L’actionneur vibratoire 21 est par exemple un LRA (pour « Linear Résonant Actuator » en anglais), également appelé « moteur linéaire ». Selon un autre exemple, l’actionneur vibratoire 21 est de type piézoélectrique.

[77] Le retour haptique est un signal vibratoire tel qu’une vibration produite par un signal de commande sinusoïdal ou par un signal de commande comportant un ou une succession de puises, envoyé à l’actionneur vibratoire 21. La vibration est par exemple dirigée dans le plan de l’écran tactile 2 ou orthogonalement au plan ou encore dirigée selon une combinaison de ces deux directions. [78] L’écran tactile 2 et l’actionneur vibratoire 21 sont par exemple des éléments d’une partie mobile de l’interface 1 qui est reliée par au moins un élément amortisseur à une partie fixe destinée à être fixée au véhicule automobile.

[79] Le dispositif de retour sensitif 20 peut comporter en outre une unité de

traitement 26 ayant un ou plusieurs microcontrôleurs, ayant des mémoires et programmes adaptés notamment pour mettre en oeuvre le procédé de génération d’un retour sensitif de l’interface, pour modifier l’affichage de l’écran 4, pour traiter les informations fournies par la surface tactile 3. C’est par exemple l’ordinateur de bord du véhicule automobile.

[80] L’interface 1 comprend en outre une unité 28 de génération de textures

procédurales. Cette unité 28 de génération de textures procédurales comprend un ou plusieurs microcontrôleurs, ayant des mémoires et programmes adaptés. Il peut s’agir de microcontrôleurs et mémoires dédiés, mais il peut aussi s’agir des mêmes composants que ceux utilisés pour l’unité de traitement 26, utilisés en partage. Comme expliqué ci-dessus, les textures procédurales sont générées à partir de modèles mathématiques et en faisant par exemple appel à des fonctions fractales ou de turbulence.

[81 ] Pour un exemple d’une unité de génération de textures procédurales, on peut par exemple se référer au document US 6 674 433 ou au document EP 2 599 057. Ces deux documents décrivent comment on peut générer et modéliser un objet texturé dans un espace virtuel, c’est-à-dire sa représentation

mathématique. Un logiciel permettant l’édition et la génération de textures procédurales est par exemple commercialisé sous le nom « SUBSTANCE » (marque déposée) par la société Allegorithmic (marque déposée). Dans ces documents, on ne traite que des effets visuels pour le traitement d’objets texturés dans un espace virtuel.

[82] Donc dans la présente invention, l’unité 28 de génération de textures

procédurales est configurée pour modéliser un objet texturé et pour afficher une image de l’objet texturé sur l’écran 4. L’objet texturé est donc modélisé dans un espace virtuel.

[83] Par objet texturé, on entend un objet au sens large avec une surface externe présentant des aspects spécifiques. Un objet texturé correspond par exemple à un revêtement de planche de bord, notamment une peau, par exemple du cuir ou encore un bouton de commande.

[84] Un exemple d’un objet texturé 30 est montré sur la figure 3. Il s’agit d’une membrane 50 notamment en forme de disque plat, par exemple en cuir et avec des coutures quadrillés 52 du type cuir matelassé.

[85] Dans le monde réel, si on affleure un objet en cuir matelassé, on ressent la rugosité du cuir ainsi que les sillons / rainures formés par les coutures quadrillées 52. On peut aussi enfoncer la membrane 50 en appuyant dessus.

[86] Dans le monde réel, un objet peut être caractérisé par ses aspects de

surface, sa rugosité, ses aspérités, sa déformabilité / élasticité en fonction de contraintes externes ou de facteurs environnementaux.

[87] L’unité 28 de génération de textures procédurales permet de représenter dans un espace virtuel (par modélisation) un tel objet réel avec ses

caractéristiques.

[88] Une représentation virtuelle correspond à une description mathématique de l’objet texturé 30 avec ses caractéristiques, en particulier en utilisant un maillage adapté par exemple sous forme d’un maillage 3D à polygones comme cela est utilisé dans des jeux vidéo pour obtenir un rendu visuel de surface proche du réel.

[89] L’unité 28 de génération de textures procédurales est également programmée pour pourvoir calculer des modifications sur l’objet texturé 30 en fonction de ses propriétés de déformation par exemple.

[90] Ainsi, comme montré sur la figure 4, une force F appliquée sur la membrane 50 aura pour effet de créer un creux 56 ou renfoncement au centre de la membrane 50.

[91 ] Comme on le voit sur la figure 2, l’unité 28 de génération de textures

procédurales est reliée d’une part au contrôleur 33 du capteur capacitif 31 d’autre part au capteur d’appui 23.

[92] Il reçoit donc en entrée la position en X et Y de l’appui ainsi que la force

d’appui appliquée sur la surface tactile 32 par un élément de commande comme par exemple un doigt d’un utilisateur ou un stylet. [93] Tenant compte de ces données en entrée, l’unité 28 de génération de textures procédurales est programmée pour calculer les modifications sur l’objet texturé 30 dans son espace virtuel, en particulier des changements de forme, comme par exemple représenté sur la figure 4. La force d’appui avec sa localisation sont donc également modélisés et transposés dans l’espace virtuel, c’est-à-dire l’espace mathématique dans lequel est représenté l’objet texturé 30.

[94] L’unité 28 de génération de textures procédurales détermine donc par

transposition de la position X, Y d’appui ainsi que de la force d’appui de l’élément de commande dans l’espace virtuel où est modélisé l’objet texturé 30 une interaction de l’objet texturé 30 avec l’élément de commande.

[95] Ensuite, l’unité 28 de génération de textures procédurales commande le

dispositif de retour sensitif 20 en fonction de l’effet déterminé de l’interaction sur l’objet texturé 30, ce qui a pour conséquence que l’utilisateur ressent un effet haptique qui ressemble à ce qu’il pourrait ressentir sur un objet réel, alors que son doigt est uniquement posé sur un écran tactile 3 lisse.

[96] Un enfoncement du doigt peut par exemple être simulé par des accélérations asymétriques perpendiculaires à la surface tactile et générées par le dispositif de retour sensitif 20, c’est-à-dire par exemple des cycles d’accélération rapide vers le bas (en référence à la disposition de la figure 2) suivi d’une remontée plus lente. Des effets de bords ou de nervures peuvent être obtenus par des accélérations rapides vers le haut.

[97] Bien entendu, l’unité 28 de génération de textures procédurales affiche aussi sur l’écran 4 l’effet de l’interaction sur l’objet texturé 30, comme par exemple la déformation, par exemple comme sur la figure 4. Une signature acoustique comme retour sonore accompagnant l’effet de l’interaction sur l’objet texturé 30 peut aussi être émise par le haut-parleur 24. Dans le présente exemple, la signature sonore peut être celle d’un doigt qui frotte sur du cuir.

[98] Sur la figure 5 est montré un autre exemple d’un mode de réalisation de

l’interface.

[99] Sur cette figure 5, en bas, on a représenté en référence 100 une image d’un objet texturé 30 affichée par l’écran tactile 2. [100] Dans cet exemple, à la différence de l’exemple des figures 3 et 4, l’objet texturé n’est pas statique au départ, mais il s’agit de reliefs qui se déplacent dans le temps, par exemple selon un mouvement de va et vient comme indiqué par la double flèche F2. L’objet texturé 30 se présente donc sous forme d’une surface dynamique variant dans le temps tel que des vagues qui lorsqu’une force leur est appliquée dessus, s’écrasent du fait d’une certaine élasticité de déformation.

[101] Cet objet texturé 30 est généré à partir d’un modèle mathématique qui est indiqué de façon simplifiée au-dessus de l’image 100 par une courbe 102. Il s’agit par exemple de fonctions sinusoïdales, dont les crêtes se déplacent selon un mouvement de va et vient le long de la surface de l’écran tactile 2.

[102] Lorsque l’on appuie sur la surface tactile 2, l’unité 28 de génération de

textures procédurales modifie l’objet texturé 30, ici les vagues, par exemple en les écrasant et les étalant. Cet effet de l’interaction sera visible sur l’écran tactile 2 par l’utilisateur et sera également perceptible par lui étant donné que l’unité 28 va commander le dispositif 20 de retour sensitif en conséquence. En augmentant la force d’appui, l’utilisateur va percevoir un plus grand étalement / aplatissement des vagues.

[103] On peut aussi faire une autre exploitation de l’image de l’objet texturé de la figure 5. Supposons que l’objet texturé de l’image 100 est fixe au départ et plat, par exemple comme un plan d’eau.

[104] En appuyant sur l’écran tactile 2, on génère un creux et des vagues à l’endroit où le doigt est posé sur la surface et, lorsque le doigt se déplace, les vagues se déplacent avec le doigt, le point d’appui correspondant toujours à un creux.

[105] Dans ce cas aussi, c’est l’unité 28 de génération de textures procédurales qui va d’abord générer les déformations de l’objet texturé dans l’espace virtuel pour ensuite commander le dispositif de retour sensitif 20 d’une part et l’écran tactile 2 pour l’affichage de la déformation de l’objet texturé 30 d’autre part.

[106] De façon générale, on peut observer encore d’autres cas. En fonction de la pression exercée (P=F/S) et suivant la rigidité simulée de la texture (par exemple du plastique ou du métal) et selon l’état de surface de l’objet texturé, par exemple un gros grain de surface très solide, de rugosité importante, la surface est censée de se déformer sous l’effort de l’appui mais pas le grain de surface qui lui reste par exemple constant.

[107] Dans ce cas, l’unité 28 de génération de textures procédurales peut tenir compte dans l’espace virtuel que la surface de l’objet texturé, par exemple une plaque avec des bosses se déforme, mais pas les bosses elles-mêmes.

[108] L’effet de l’interaction de l’objet texturé 30 dans l’espace virtuel pourra par exemple tenir compte de l’angle tangent de la surface déformée au contact, du coefficient de frottement moyen statique et dynamique du doigt sur la surface en fonction du matériau simulé, ou encore de la vitesse de déplacement du doigt sur la surface tactile.

[109] Selon un autre cas, comme expliqué en regard des figures 3 et 4, l’unité 28 de génération de textures procédurales peut prendre en compte que le grain de texture (par exemple des bosses) évolue en fonction de la pression.

[1 10] Dans ce cas, l’unité 28 de génération de textures procédurales tient compte d’une déformation macroscopique (déformation de la surface) et d’une

déformation microscopique (déformation des bosses) en fonction de la pression appliquée.

[1 1 1] L’objet texturé 30 peut aussi par exemple représenter un bouton de

commande, une touche de clavier ou un curseur de défilement (ou « slider » en anglais).

[1 12] Dans ce cas par exemple, l’unité 28 de génération de textures procédurales peut par exemple simuler l’enfoncement du bouton en fonction d’une pression exercée sur la surface tactile 3 et commander le dispositif de retour sensitif 20 de sorte que l’utilisateur ressente l’enfoncement du doigt d’une part et entende par exemple un cliquetis d’interrupteur mécanique.

[1 13] On comprend donc que l’interface selon l’invention permet d’élargir

considérablement le champ d’application des écrans tactiles à retour haptique 4.