Login| Sign Up| Help| Contact|

Patent Searching and Data


Title:
METHOD FOR DISPLAYING AN IMAGE OF THE AREA SURROUNDING A VEHICLE ON A TOUCH SCREEN INSTALLED IN THE VEHICLE
Document Type and Number:
WIPO Patent Application WO/2019/091920
Kind Code:
A1
Abstract:
The invention relates to a method for displaying an image of the area surrounding a vehicle on a touch screen installed in the vehicle, comprising the steps of: a) displaying, on the touch screen, an image of the vehicle as it would be seen from a virtual camera placed in an initial position, and at least one graphic element associated with a position parameter of the virtual camera; b) acquiring the location of a point of the element selected by the user by pressing the touch screen; c) calculating the value of the position parameter according to the location of the point, and deriving a new position for the virtual camera; d) acquiring real images of the surrounding area using image sensors; e) using the real images to build a virtual image of the area surrounding the vehicle as seen from the virtual camera placed in the new position; and f) displaying the virtual image on the touch screen.

Inventors:
AMBROISE STEPHANIE (FR)
Application Number:
PCT/EP2018/080190
Publication Date:
May 16, 2019
Filing Date:
November 05, 2018
Export Citation:
Click for automatic bibliography generation   Help
Assignee:
RENAULT SAS (FR)
International Classes:
G06T15/20
Other References:
UNKNOWN: "360? Wrap-Around Video Imaging Technology Ready for Integration with Fujitsu Graphics SoCs", 1 January 2014 (2014-01-01), XP055406437, Retrieved from the Internet [retrieved on 20170913]
YEN-TING YEH: "Driver Assistance System Providing an Intuitive Perspective View of Vehicle Surrounding", COMPUTER VISION - ACCV 2014 WORKSHOPS, 1 January 2015 (2015-01-01), Cham, XP055473080, ISBN: 978-3-319-16631-5, Retrieved from the Internet [retrieved on 20180507]
Download PDF:
Claims:
REVENDICATIONS

1 . Procédé d'affichage d'une image de l'environnement d'un véhicule (1 ) sur un écran tactile (7) équipant le véhicule (1 ), comprenant des étapes de :

a) affichage sur ledit écran tactile (7) :

- d'une image du véhicule (1 ) tel qu'il serait vu depuis une caméra virtuelle (1 1 ) placée dans une posture initiale (PosO), et

- d'au moins un élément graphique (19, 21 , 23) associé un paramètre de posture de la caméra virtuelle (1 1 ),

b) acquisition de la position d'un point (P1 , P2, P3) dudit élément graphique (19, 21 , 23) sélectionné par appui d'un usager sur l'écran tactile (7), c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point (P1 , P2, P3), et déduction d'une nouvelle posture de la caméra virtuelle (1 1 ),

d) acquisition d'images réelle de l'environnement par une pluralité de capteurs d'images (5),

e) composition, à partir des images réelles acquises à l'étape d), d'une image virtuelle (13) de l'environnement (17) du véhicule (1 ) tel qu'il serait vu depuis la caméra virtuelle (1 1 ) placée dans la nouvelle posture déterminée à l'étape c), et

f) affichage sur l'écran tactile (7) de l'image virtuelle (13).

2. Procédé d'affichage selon la revendication précédente, dans lequel il est prévu une étape de constitution d'une représentation (15) du véhicule (1 ) tel qu'il serait vu depuis la caméra virtuelle (1 1 ) dans la nouvelle posture déterminée à l'étape c), et dans lequel, à l'étape e), l'image virtuelle (13) est obtenue en superposant la représentation (15) du véhicule (1 ) à l'environnement (17). 3. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un cercle situé autour de l'image du véhicule (1 ) et ledit paramètre de posture (Θ) est un angle d'orientation (Θ) de la caméra virtuelle (1 1 ) autour du véhicule (1 ).

4. Procédé d'affichage selon la revendication précédente, dans lequel ledit élément graphique (19, 21 , 23) permet de sélectionner l'angle d'orientation (Θ) de la caméra virtuelle (1 1 ) autour du véhicule (1 ) avec un pas de 1 degré.

5. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un segment situé verticalement par rapport à l'image du véhicule (1 ) et ledit paramètre de posture (Θ, Zcam, R2) est une distance verticale (Zcam) entre le véhicule (1 ) et la caméra virtuelle (1 1 ).

6. Procédé d'affichage selon l'une des revendications précédentes, dans lequel ledit élément graphique (19, 21 , 23) comprend un segment situé horizontalement par rapport à l'image du véhicule (1 ) et le paramètre de posture (Θ, Zcam, R2) est une distance horizontale (R2) entre le véhicule (1 ) et la caméra virtuelle (1 1 ).

7. Procédé d'affichage selon l'une des revendications précédentes, dans lequel les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l'usager sur l'écran tactile (7).

8. Procédé d'affichage selon l'une des revendications précédentes, dans lequel, la caméra virtuelle (1 1 ) présentant un axe optique (A0), à l'étape c), la nouvelle posture de la caméra virtuelle (1 1 ) est définie de telle sorte que ledit axe optique (A0) passe par un point prédéterminé du véhicule (1 ).

9. Système d'aide à la conduite d'un véhicule comprenant :

- quatre capteurs d'images (5), chacun des quatre capteurs d'images (5) étant placé sur un des quatre côtés du véhicule (1 ), chacun des quatre capteurs d'images (5) étant apte à acquérir une image réelle de l'environnement du véhicule (1 ),

- un écran tactile (7), et

- une unité de calcul (9) programmée pour mettre en œuvre un procédé d'affichage tel que défini dans l'une des revendications précédentes.

Description:
PROCEDE D'AFFICHAGE D'UNE IMAGE DE L'ENVIRONNEMENT D'UN VEHICULE SUR UN ECRAN TACTILE EQUIPANT LE VEHICULE

DOMAINE TECHNIQUE AUQUEL SE RAPPORTE L'INVENTION La présente invention concerne de manière générale le domaine des aides à la conduite de véhicules automobiles.

Elle concerne en particulier un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule.

Elle concerne également un système d'aide comprenant :

- quatre capteurs d'images, chacun des quatre capteurs d'images étant placé sur un des quatre côté du véhicule, chacun des quatre capteurs d'images étant apte à acquérir une image réelle de l'environnement du véhicule,

- un écran tactile, et

- une unité de calcul adaptée à mettre en œuvre un procédé d'affichage tel que précité.

ARRIERE-PLAN TECHNOLOGIQUE

Il est connu de composer une image d'un véhicule automobile circulant dans un environnement à partir d'images capturées par plusieurs caméras situées sur les quatre côtés du véhicule. Cette image composée est affichée au conducteur sur un écran d'affichage du véhicule automobile pour lui permettre de détecter des obstacles situés dans les angles morts du véhicule automobile.

Pour le conducteur, cette image composée semble être acquise depuis une unique caméra virtuelle filmant le véhicule automobile depuis un emplacement donné situé à distance du véhicule.

Quand l'écran est tactile, l'emplacement de cette caméra virtuelle peut généralement être choisi par le conducteur en affichant une représentation du véhicule automobile ainsi qu'une représentation de la caméra virtuelle et en invitant le conducteur à déplacer la caméra virtuelle autour du véhicule en balayant l'écran tactile avec ses doigts.

Le dispositif d'aide compose ensuite l'image de l'environnement du véhicule à partir de l'emplacement sélectionné de la caméra virtuelle.

Cependant, le conducteur peut avoir besoin de changer l'emplacement de la caméra virtuelle alors qu'il est en train d'effectuer une manœuvre. Or, la sélection de l'emplacement de la caméra virtuelle à l'aide de ce dispositif n'est pas pratique, et peut demander trop d'attention au conducteur, ce qui impacte sa sécurité.

OBJET DE L'INVENTION

Afin de remédier à l'inconvénient précité de l'état de la technique, la présente invention propose un procédé d'affichage d'une image de l'environnement d'un véhicule sur un écran tactile équipant le véhicule, comprenant des étapes de :

a) affichage sur ledit écran tactile :

- d'une image du véhicule tel qu'il serait vu depuis une caméra virtuelle placée dans une posture initiale, et

- d'au moins un élément graphique associé un paramètre de posture de la caméra virtuelle,

b) acquisition de la position d'un point dudit élément sélectionné par appui d'un usager sur l'écran tactile,

c) calcul de la valeur dudit paramètre de posture en fonction de la position dudit point, et déduction d'une nouvelle posture de la caméra virtuelle, d) acquisition d'images réelle de l'environnement par une pluralité de capteurs d'images,

e) composition, à partir des images réelles acquises à l'étape d), d'une image virtuelle de l'environnement du véhicule tel qu'il serait vu depuis la caméra virtuelle placée dans la nouvelle posture déterminée à l'étape c), et

f) affichage sur l'écran tactile de l'image virtuelle.

Ainsi, l'invention propose un procédé permettant à l'usager de choisir facilement une nouvelle posture de la caméra virtuelle. Le choix est en effet simplifié par l'affichage de l'élément graphique permettant de montrer à l'usager quelles postures peuvent être adoptées par la caméra virtuelle. L'usager sélectionne ensuite la nouvelle posture de la caméra virtuelle en exerçant un simple appui sur l'élément graphique l'écran tactile. La sélection d'une nouvelle posture ne nécessite pas une grande attention de la part de l'usager qui peut alors se concentrer sur les manœuvres routières qu'il est en train d'effectuer.

D'autres caractéristiques non limitatives et avantageuses du procédé d'affichage conforme à l'invention, prises individuellement ou selon toutes les combinaisons techniquement possibles, sont les suivantes :

- il est prévu une étape de constitution d'une représentation du véhicule tel qu'il serait vu depuis la caméra virtuelle dans la nouvelle posture déterminée à l'étape c), et dans lequel, à l'étape e), l'image virtuelle est obtenue en superposant la représentation du véhicule à l'environnement,

-l'élément graphique comprend un cercle situé autour de l'image du véhicule et ledit paramètre de posture est un angle d'orientation de la caméra virtuelle autour du véhicule,

- l'élément graphique permet de sélectionner l'angle d'orientation de la caméra virtuelle autour du véhicule avec un pas de 1 degré,

-l'élément graphique comprend un segment situé verticalement par rapport à l'image du véhicule et ledit paramètre de posture est une distance verticale entre le véhicule et la caméra virtuelle,

- l'élément graphique comprend un segment situé horizontalement par rapport à l'image du véhicule et le paramètre de posture est une distance horizontale entre le véhicule et la caméra virtuelle,

- les étapes c) à f) sont répétées après chaque appui ponctuel exercé par l'usager sur l'écran tactile,

- la caméra virtuelle présente un axe optique, à l'étape c), la nouvelle posture de la caméra virtuelle est définie de telle sorte que ledit axe optique passe par un point prédéterminé du véhicule, L'invention propose également un système d'aide à la conduite d'un véhicule tel que défini en introduction dont l'unité de calcul est programmée pour mettre en œuvre un procédé tel que défini ci-dessus.

DESCRIPTION DÉTAILLÉE D'UN EXEMPLE DE RÉALISATION La description qui va suivre en regard des dessins annexés, donnés à titre d'exemples non limitatifs, fera bien comprendre en quoi consiste l'invention et comment elle peut être réalisée.

Sur les dessins annexés :

- la figure 1 est une coupe schématique d'un véhicule équipé d'un système d'aide à la conduite selon l'invention,

- la figure 2a illustre une caméra virtuelle du véhicule de la figure 1 , - la figure 2b illustre une image virtuelle du véhicule de la figure 1 tel que vu par la caméra virtuelle,

- la figure 3a illustre des paramètres de la caméra virtuelle,

- la figure 3b est une vue schématique de dessus du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentées des coordonnées de la caméra virtuelle,

- la figure 3c est une vue schématique de côté du véhicule de la figure 1 et de la caméra virtuelle, sur laquelle sont représentés d'autres coordonnées de la caméra virtuelle,

- la figure 4a est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un premier élément graphique associé à un premier paramètre de posture de la caméra virtuelle,

- la figure 4b est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un deuxième élément graphique associé à un deuxième paramètre de posture de la caméra virtuelle,

- la figure 4c est une vue schématique en perspective du véhicule de la figure 1 , sur laquelle est représenté un troisième élément graphique associé à un troisième paramètre de posture de la caméra virtuelle,

- la figure 5 représente un diagramme illustrant les étapes de mise en œuvre d'un procédé d'affichage selon l'invention, et

- la figure 6 représente une image virtuelle en perspective obtenue selon le procédé d'affichage illustré sur la figure 5.

Sur la figure 1 , on a représenté schématiquement un véhicule 1 automobile équipé d'un système d'aide à la conduite 3.

Comme cela sera bien décrit dans la suite de cet exposé, ce système d'aide à la conduite 3 comprend des capteurs d'images 5, un écran tactile 7 et une unité de calcul 9.

Comme le montre la figure 1 , les capteurs d'images 5 sont aptes à acquérir une pluralité d'images réelles d'un environnement extérieur au véhicule 1.

De manière préférentielle, le système d'aide à la conduite 3 comprend quatre capteurs d'images 5. Chacun des capteurs d'images 5 est placé sur un des quatre côtés du véhicule 1 (seuls deux des capteurs 5 sont visibles sur la figure 1).

Un premier capteur d'images (non représenté) est placé à l'avant du véhicule 1 , par exemple en dessous du logo du véhicule 1. Le premier capteur d'images capture une zone située à l'avant du véhicule 1.

Un deuxième capteur d'images (non représenté) est placé à l'arrière du véhicule, par exemple au dessus de la plaque d'immatriculation. Le deuxième capteur d'images capture une zone située à l'arrière du véhicule 1.

Un troisième capteur d'images 5 est placé sur un premier côté latéral, par exemple le côté droit du véhicule, par exemple sous le rétroviseur droit. Le troisième capteur d'images capture une première zone située latéralement par rapport au véhicule 1 , ici à droite du véhicule 1.

Un quatrième capteur d'images 5 est placé sur un deuxième côté latéral, par exemple le côté gauche du véhicule, par exemple sous le rétroviseur gauche. Le quatrième capteur d'images 5 capture une deuxième zone située latéralement par rapport au véhicule 1 , ici à gauche du véhicule 1.

Ces capteurs d'images 5 sont ici des caméras. Ces caméras peuvent être de type analogique ou digital. Ici, on utilise de préférence des caméras digitales car elles permettent de capturer des images de plus grande résolution que les caméras analogiques, ce qui permet par la suite d'obtenir de meilleurs résultats en appliquant le procédé de l'invention.

Les caméras présentent un grand angle d'ouverture, par exemple proche de ou supérieur à 180°. Ces caméras sont équipées d'objectifs connus sous le nom de « fish-eye » en anglais.

A ' ce stade, on peut définir en référence à la figure 3b un repère véhicule (0, Xv, Yv, Zv) attaché au véhicule 1. Ici, le repère considéré est un repère orthonormé dont l'origine O est située au centre du côté avant du véhicule 1 , dont l'axe longitudinal (OXv) est orienté vers l'arrière du véhicule 1 , dont l'axe transversal (OYv) est orienté vers la droite du véhicule et dont l'axe vertical (OZv) est orienté vers le haut.

On peut définir en outre le centre C du véhicule 1 comme le point situé à mi-distance du véhicule 1 dans le sens longitudinal, dans le sens transversal et dans le sens vertical du véhicule 1.

L'unité de calcul 9 du véhicule 1 est apte à recevoir les images réelles acquises par les capteurs d'images 5. Elle est en outre programmée pour composer une image virtuelle 13 de l'environnement du véhicule 1 à partir des images réelles acquises par les capteurs d'images 5. Une telle image virtuelle 13 est illustrée par la figure 2b.

Plus précisément, l'unité de calcul 9 est programmée pour composer une image virtuelle 13 de l'environnement du véhicule 1 tel que vu par une caméra virtuelle 1 1 se trouvant à distance du véhicule 1. La caméra virtuelle 11 est visible par exemple sur la figure 2a.

Sur la figure 2a, la caméra virtuelle 1 1 est située au dessus du véhicule 1. On notera bien que la caméra virtuelle 11 n'existe pas dans le monde réel : il s'agit seulement d'un concept permettant de faciliter la compréhension de l'invention, laquelle consiste à composer une image virtuelle 13 correspondant à une image réelle telle qu'elle serait capturée par une caméra réelle si cette caméra réelle était placée dans la position de la caméra virtuelle 11.

La figure 2b illustre l'image virtuelle 13 telle que vue par la caméra virtuelle 11. L'image virtuelle 13 comprend une représentation 15 du véhicule 1 , ici vu du dessus, ainsi que l'environnement reconstitué 17 du véhicule 1 vu sous le même angle.

On définit par rapport à la caméra virtuelle 1 1 un axe optique A 0 . L'axe optique Ao de la caméra virtuelle 11 est choisi pour passer par un point fixe du véhicule 1 , quelle que soit la position de la caméra virtuelle 11. Le point fixe est par exemple le centre C du véhicule 1.

La figure 3a représente certains paramètres de la caméra virtuelle 11. La caméra virtuelle 11 présente ainsi une distance focale f et un plan focal PF. Le plan focal PF présente une largeur Cx et une hauteur Cy. La caméra virtuelle présente en outre une résolution horizontale Resh et une résolution verticale Resv.

Comme le montre la figure 3b, la caméra virtuelle 1 1 présente une posture, c'est-à-dire une position et une orientation, qui est repérée par des coordonnées exprimées dans le repère véhicule (0, Xv, Yv, Zv). Les coordonnées de la caméra virtuelle 1 1 comprennent une première coordonnée X cam définie selon l'axe (OXv), une deuxième coordonnée Ycam définie selon l'axe (OYv), et une troisième coordonnée -icam définie selon l'axe (OZv).

Une quatrième coordonnée G est représentée par la figure 3b. La quatrième coordonnée θ correspond à un angle d'orientation Θ entre l'axe longitudinal (OXv) et le projeté de l'axe optique A 0 dans le plan

Une cinquième coordonnée φ est représentée par la figure 3c. La cinquième coordonnée φ correspond à un angle d'inclinaison φ formé par le projeté de l'axe optique A 0 dans le plan et l'axe

L'unité de calcul 9 est apte à calculer les coordonnées

θ, φ) en fonction d'une commande de l'usager, laquelle commande est formulée par un appui d'un doigt de l'usager sur l'écran tactile 7.

Parmi ces cinq coordonnées, trois d'entre elles sont qualifiées de « paramètres de posture » en ce sens qu'elles permettent à l'usager de faire varier la position et l'orientation de la caméra virtuelle 1 1. L'usager pourra donc jouer sur trois degrés de liberté de la caméra virtuelle 11. Les autres degrés de liberté ne seront pas modifiables directement par l'usager, ce qui permettra notamment de s'assurer que la caméra virtuelle 11 soit toujours dirigée vers le véhicule 1.

On peut définir ici un premier, un deuxième et un troisième paramètre de posture, que l'usager pourra facilement faire varier en appuyant sur des « éléments graphiques » affichés sur l'écran tactile 7 afin de modifier la posture de la caméra virtuelle 1 1 par rapport au véhicule 1.

Le premier paramètre de posture est l'angle d'orientation Θ de la caméra virtuelle 11.

Un premier élément graphique 19, représenté sur la figure 4a, est associé à ce premier paramètre de posture. Ce premier élément graphique 19 comprend un premier cercle C1 de rayon R1 centré sur le centre C. Le premier cercle C1 est situé dans le plan (XvYv). En appuyant sur ce premier élément graphique 19, l'usager va donc pouvoir faire varier l'angle d'orientation Θ. On peut donc considérer que le premier élément graphique 19 représente les valeurs que peut prendre l'angle d'orientation Θ. La valeur de l'angle d'orientation Θ est comprise entre 0 et 360° et peut être variée par pas de 1 °.

La valeur du premier rayon R1 est déterminée de telle sorte que le premier cercle C1 encercle la représentation 15 du véhicule 1. Le premier rayon R1 est par exemple égal à 2,5 m.

Le premier élément graphique 19 est mémorisé dans une unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.

Le deuxième paramètre de posture est la troisième coordonnée Zcam dont on rappelle qu'elle représente une distance verticale entre le véhicule 1 et la caméra virtuelle 11.

Cette troisième coordonnée Zcam présente une plage de valeurs qui est prédéfinie et est mémorisée dans l'unité de mémoire. La plage de valeur est par exemple fonction de la résolution offerte par les capteurs d'image 5 et par l'écran tactile 7. En effet, si la caméra virtuelle 11 est placée trop haut, les objets présents sur l'image virtuelle 13 seront trop petits pour être reconnaissables ou même visibles par l'usager. Une telle image virtuelle 13 ne pourrait donc pas aider le conducteur à manoeuvrer le véhicule 1.

La troisième coordonnée Zcam est par exemple comprise entre 1 ,7 m et 3 m et peut varier par pas de 5 cm.

On notera ici que la troisième coordonnée Zcam est associée à l'angle d'inclinaison φ de la caméra virtuelle 1 1 , puisque l'axe optique A 0 est défini comme passant par le centre C du véhicule 1.

Un deuxième élément graphique 21, illustré par la figure 4b, est associé à ce deuxième paramètre de posture. Ce deuxième élément graphique 21 est ici formé par un segment vertical. En appuyant sur ce deuxième élément graphique 21 , l'usager va donc pouvoir faire varier la troisième coordonnée Zcam et l'angle d'inclinaison φ de la caméra virtuelle 11. Le deuxième élément graphique 21 est mémorisé dans l'unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.

Comme le montre la figure 4c, le troisième paramètre de posture est le deuxième rayon R2 du deuxième cercle C2 sur lequel est située la caméra virtuelle 1 1. Le deuxième rayon R2 représente une distance horizontale entre la caméra virtuelle 11 et le véhicule 1.

Pour les raisons expliquées précédemment, le deuxième rayon R2 est compris dans une plage de valeurs prédéfinie et mémorisée dans l'unité de mémoire. Le deuxième rayon R2 est par exemple compris entre 3,5 m et 6 m, il peut être varié par pas de 5 cm.

Un troisième élément graphique 23 est associé à ce troisième paramètre de posture. Ce troisième élément graphique 23 est ici formé par un segment horizontal. En appuyant sur ce troisième élément graphique 23, l'usager va donc pouvoir faire varier le deuxième rayon R2. Le troisième élément graphique 23 est mémorisé dans l'unité de mémoire, depuis laquelle il peut être récupéré par l'unité de calcul 9 qui est apte à le transmettre à l'écran tactile 7.

Les premier, deuxième et troisième paramètres de posture 19, 21 , 23 permettent à l'unité de calcul 9 de calculer des coordonnées (Xcam, Ycam, Zcam, Θ, φ) de la caméra virtuelle 11 dans le repère véhicule (0, Xv, Yv, Zv). La caméra virtuelle 11 est apte à être déplacée par l'usager autour de la représentation 15 du véhicule 1 , ce qui entraîne un changement dans ses

Coordonnées (Xcam, Ycam, Zcam, Θ, (p).

En plus de l'image de l'environnement reconstitué 17, l'unité de calcul 9 est apte à récupérer ou générer une représentation 15 du véhicule 1 telle que vu par la caméra virtuelle 11.

Pour cela, un modèle tridimensionnel du véhicule pourrait être mémorisé dans une unité de mémoire du système d'aide à la conduite 3.

Mais de manière préférentielle, une pluralité de représentations 15 du véhicule 1 est mémorisée dans une unité de mémoire du système d'aide à la conduite 3.

La pluralité de représentations 15 est par exemple réalisée à partir d'un outil de simulation du véhicule 1. On capture par exemple 360 images en perspective autour du véhicule 1 , par pas de 1 degré et en restant à une première valeur du deuxième rayon R2. Puis, on répète cette opération en se plaçant à une deuxième valeur du deuxième rayon R2. Le deuxième rayon R2 est par exemple varié en millimètre.

De la même façon, on capture des images du véhicule 1 en faisant varier la troisième coordonnée Zcam, et donc l'angle d'inclinaison φ de la caméra virtuelle 11. Chaque image capturée est nommée avec sa valeur d'angle d'orientation Θ, sa valeur de deuxième rayon R2 et sa valeur d'angle d'inclinaison φ, ainsi l'unité de calcul 9 peut-elle facilement récupérer la représentation 15 adéquate pour chaque posture de la caméra virtuelle 1 1.

L'unité de calcul 9 est en outre capable de superposer la représentation 15 appropriée du véhicule 1 à l'image reconstituée de l'environnement 17 pour former l'image virtuelle 13 telle que vue par la caméra virtuelle 11.

L'unité de calcul 9 est de plus apte à transmettre l'image virtuelle 13 à l'écran tactile 7.

L'écran tactile 7 est placé dans l'habitacle du véhicule 1 , par exemple sur la planche de bord de ce dernier.

L'écran tactile 7 est apte à afficher l'image virtuelle 13 ainsi que les éléments graphiques 19, 21 , 23 transmis par l'unité de calcul 9.

De manière préférentielle, l'écran tactile 7 est apte à afficher des images en couleur.

L'écran tactile 7 est en outre apte à acquérir la position d'un point P sélectionné par appui ponctuel d'un usager sur ledit écran tactile 7.

Comme le montre la figure 1 , un repère écran (0e, Ye, Ze) est associé à l'écran tactile 7. L'origine 0e du repère écran (Oe, Ye, Ze) est par exemple située sur un coin de l'écran tactile 7, par exemple le coin inférieur gauche. L'axe (OeYe) s'étend le long d'un axe horizontal de l'écran tactile 7. L'axe (OeZe) s'étend le long d'un axe vertical de l'écran tactile 7.

Le point P sur lequel l'usager a appuyé présente des coordonnées bidimensionnelles (yp, ZP). Ces coordonnées bidimensionnelles (yp, ZP) sont exprimées en pixels.

L'écran tactile 7 est apte à déterminer les coordonnées bidimensionnelles (yp, ZP) du point P sélectionnées (par exemple grâce à un calculateur associé à l'écran tactile 7) et à les transmettre à l'unité de calcul 9. Le fonctionnement d'un écran tactile 7 est bien connu de l'homme du métier et ne sera pas décrit en détail.

En se rapportant à présent à la figure 5, on peut décrire plus en détails un procédé d'affichage d'une image de l'environnement d'un véhicule 1 sur un écran tactile 7 équipant le véhicule 1 .

Ce procédé d'affichage comprend une étape a) d'affichage sur l'écran tactile 7 d'une des représentations 15 du véhicule 1 et d'au moins un élément graphique 19, 21 , 23 parmi les premier, deuxième et troisième éléments graphiques 19, 21 , 23 précédemment décrits.

En début de mission, le véhicule 1 peut être représenté tel que vu depuis une posture initiale PosO de coordonnées (Xcamo, Ycamo, Zcamo, θο, φο) prédéfinie de la caméra virtuelle initiale 1 1 dans le repère véhicule (0, Xv, Yv, Zv).

L'écran tactile 7 affiche par exemple le premier élément graphique 19 associé au premier paramètre de posture (l'angle d'orientation Θ).

En affichant simultanément la représentation 15 du véhicule 1 et du premier élément graphique 19, le choix par l'usager de la posture de la caméra virtuelle 1 1 , et donc de la vue virtuelle de l'environnement, est facilité. En effet, l'usager comprend rapidement à quels emplacements il peut placer la caméra virtuelle 1 1. Le choix de l'emplacement de la caméra virtuelle 1 1 ne requiert pas une grande attention puisqu'un seul appui ponctuel avec le doigt suffit, et l'usager peut se concentrer sur les manœuvres qu'il est en train d'effectuer.

L'écran tactile 7 peut en outre afficher des instructions à destination de l'usager. Ces instructions peuvent lui expliquer de quelle manière sélectionner l'emplacement de la caméra virtuelle 11. Selon l'invention, la sélection est réalisée par un appui ponctuel de l'usager sur l'écran tactile 7, plus précisément sur un des éléments graphiques affichés.

Lors d'une étape b), l'écran tactile 7 acquiert la position d'un premier point P1 du premier élément graphique 19 sélectionné par un appui de l'usager exercé sur l'écran tactile 7. La position du premier point sélectionné P1 est exprimée par un jeu de coordonnées en pixels dans le repère écran (0,

Ye, Ze) précédemment décrit.

Les coordonnées du premier point sélectionné P1 sont

transmises à l'unité de calcul 9.

Lors d'une étape c) de calcul, l'unité de calcul 9 calcule la valeur du premier paramètre de posture, ici l'angle d'orientation θι de la caméra virtuelle 11 autour du véhicule 1 , en fonction des coordonnées (yp-i, ZPI) du premier point sélectionné P1 afin d'en déduire une nouvelle posture Pos1 de la caméra virtuelle 1 1.

On décrit à présent des calculs et des transformations utilisés par l'unité de calcul 9 afin d'obtenir la valeur de l'angle d'orientation θι, qui permet de déduire les premières coordonnées de la caméra virtuelle 11.

L'angle d'orientation θι est déterminé grâce à la formule :

A ce stade, on rappelle que (Xc, Yc, Zc) sont les coordonnées du centre C du véhicule 1 définies dans le repère véhicule et que R1 est le rayon du premier cercle C1 (premier élément graphique 19). Les coordonnées (Xc, Yc, Zc), la valeur de R1 ainsi que d'autres variables utilisées dans les calculs qui vont être décrits plus loin, telles que et R2, sont stockées dans l'unité de mémoire.

De plus, on définit les coordonnées (XVPI, yvpi, ZVPI) comme les coordonnées en trois dimensions du premier point sélectionné P1 dans le repère véhicule (0, Xv, Yv, Zv). La seule variable inconnue de l'équation de l'angle d'orientation θι est donc la coordonnée XVP-I . La coordonnée est déterminée grâce à la formule :

Dans cette formule Xcamo et Ycamo sont les coordonnées initiales, et donc connues, de la caméra dans le repère véhicule. Zc est également connu.

R3 est déterminé au moyen de la formule :

Où Zcamo et Xcamo sont connus.

Les coordonnées (xpn, ypn , ) sont les coordonnées du premier point sélectionné P1 projeté sur un premier plan focal PF1 de la caméra virtuelle 1 1 , et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le premier plan focal PF1 étant associé à la première posture de la caméra virtuelle 1 1).

Pour calculer les coordonnées xp 11 et on utilise des équations de projections perspectives :

Où on rappelle que yp 1 et zpi sont les coordonnées du premier point sélectionné P1 et donc connus.

Avec de manière générale :

Les équations de projections perspectives associées aux matrices Ry et

Rz permettent donc de calculer et . La connaissance de xpn et z permet de calculer et et ainsi de remonter jusqu'à et enfin à l'angle d'orientation θ1 .

Une fois que l'unité de calcul 9 a déterminé la valeur du premier angle d'orientation θ1 , elle peut l'utiliser pour calculer les autres coordonnées de la première posture de la caméra virtuelle 11

Les coordonnées de la première posture de la

caméra virtuelle 11 sont données par :

En effet, ici Yc est nul car le centre C du deuxième cercle C2 est situé sur l'axe (OYv). De plus, le premier élément graphique 19 ne permettant pas de modifier la hauteur de la caméra virtuelle 11 , les premières valeurs des coordonnées Zcam et φ restent inchangées.

Lors d'une étape d), les capteurs d'images 5 acquièrent des images réelles de l'environnement du véhicule 1. L'étape d) peut avoir lieu simultanément aux étapes a), b), c) précédentes, ou avant celles-ci.

Les images réelles sont transmises à l'unité de calcul 9 qui compose une image virtuelle de l'environnement du véhicule 1 tel que vu depuis la caméra virtuelle 1 1 lors d'une étape e).

L'unité de calcul 9 choisit les images réelles à utiliser en fonction de la posture de la caméra virtuelle 1 1. Par exemple, quand la caméra virtuelle est placée au dessus du véhicule 1 avec un axe optique parallèle à l'axe (OZv) du repère véhicule l'image virtuelle 13 affichée est celle représenté par la figure 6.

Pour une autre posture de la caméra virtuelle 11 , l'unité de calcul 9 peut par exemple composer l'image virtuelle 13 à partir des images réelles de seulement un, deux ou trois capteurs d'images 5.

Cette étape de composition de l'image ne formant pas en propre le cœur de l'invention et étant déjà bien connue de l'homme du métier, elle ne sera pas ici décrite plus en détail.

Le procédé d'affichage prévoit en outre une étape de lecture d'une représentation 15 du véhicule 1 tel que vu depuis la nouvelle posture Pos 1 de la caméra virtuelle 11 déduite à l'étape c). La représentation 15 du véhicule 1 est par exemple sélectionnée parmi la pluralité de représentations 15 mémorisées dans l'unité de mémoire.

Puis, l'image virtuelle 13 de l'environnement 17 et la représentation 15 du véhicule 1 sont affichées sur l'écran tactile 7 lors d'une étape f). Ainsi, l'usager peut facilement choisir l'emplacement de la caméra virtuelle 11 , et accède à une information facilement compréhensible lui permettant de mieux visualiser l'environnement 17 du véhicule 1.

On peut ensuite prévoir que l'unité de calcul 9 commande ensuite l'affichage du deuxième élément graphique 21 afin de permettre à l'usager de régler la hauteur de la caméra virtuelle 11 , avant d'afficher le troisième élément graphique 23 afin de régler la distance horizontale entre la caméra virtuelle 11 et le véhicule 1.

Plus précisément, pour acquérir le deuxième paramètre de posture, l'unité de calcul 9 affiche le deuxième élément graphique 21 associé au deuxième paramètre de posture, c'est-à-dire le segment vertical lors de l'étape a).

Le segment vertical est par exemple affiché le long d'un axe vertical passant par le centre C.

Puis, lors de l'étape b), l'unité de calcul 9 acquiert la position d'un deuxième point sélectionné P2 par appui sur l'écran tactile au niveau du segment vertical.

Ce deuxième point sélectionné P2 permet de calculer lors de l'étape c) d'une part une deuxième valeur de la coordonnée Zc a m2 de la deuxième posture Pos2 de la caméra virtuelle 1 1 et d'autre part une deuxième valeur de son angle d'inclinaison 92.

Les coordonnées du deuxième point sélectionné P2

dans le repère du véhicule

On cherche donc à obtenir l'altitude Pour cela, on utilise la formule

mathématique suivante :

Dans laquelle :

Les coordonnées sont les coordonnées du deuxième point sélectionné P2 projeté sur un deuxième plan focal PF2 de la caméra virtuelle 11 , et exprimées dans le repère véhicule (le deuxième plan focal

PF2 étant associé à la deuxième posture de la caméra virtuelle 11 ).

Pour calculer les coordonnées on utilise des équations de

projections perspectives :

Où on rappelle que yp2 et ZP2 sont les coordonnées du deuxième point sélectionné P2 et donc connues. De plus, dans la matrice Ry, l'angle d'orientation Θ autour du véhicule 11 présente la première valeur Θ1 précédemment calculée. En se plaçant dans le deuxième plan focal PF2, on applique le théorème de Thalès de la façon suivante :

La caméra virtuelle 11 est donc positionnée en

De plus, comme la caméra virtuelle 1 1 est orienté vers le centre C, l'angle d'inclinaison φ est :

Les étapes d) et e) sont ensuite répétées de façon à afficher une image de l'environnement 17 et une représentation 15 du véhicule 1 , vus depuis une altitude correspondant au souhait de l'usager.

En dernier lieu, l'unité de calcul 9 commande l'affichage du troisième élément graphique 23 sur l'écran tactile 7 au cours d'une nouvelle étape a).

Le segment horizontal du troisième élément graphique 23 est par exemple disposé le long d'un axe passant par le centre C et à un angle égal à l'angle d'orientation θ + π/2 par rapport à l'axe longitudinal (OXv).

Lors de l'étape b), l'unité de calcul 9 acquiert la position du troisième point sélectionné P3 par appui sur le segment horizontal. Les coordonnées du troisième point sélectionné P3 sur l'écran tactile 7 sont transmises à l'unité de calcul 9.

Ce troisième point sélectionné P3 permet de calculer, lors de l'étape c), une nouvelle distance horizontale 2f à appliquer entre le véhicule 1 et la caméra virtuelle 1 1.

Pour réaliser ces calculs, l'unité de calcul 9 utilise les valeurs d'angle d'orientation θ 1 , et d'angle d'inclinaison précédemment calculées.

Les coordonnées du projeté du troisième point sélectionné P3 dans le repère véhicule (Xv, Yv, Zv) sont notées

avec R2i la valeur initiale du rayon R2.

On a :

avec R1 la valeur initiale du premier rayon R1 et R 1f la valeur finale du premier rayon R1 . Nous avons bien noté la formule mathématique :

Dans laquelle X vp est la coordonnée du point d'intersection du cercle de rayon R1 et du segment horizontal du troisième élément graphique 23. La coordonnée x vp est obtenue avec la formule :

Où toutes les variables sont connues. La coordonnée est calculée grâce à la formule :

Où Xcamo et Ycamo sont les coordonnées initiales de la caméra virtuelle 1 1 dans le repère véhicule. Zc est également connu.

R3 est déterminé au moyen de la formule :

Où :

Les coordonnées sont les coordonnées du troisième point sélectionné P3 projeté sur un troisième plan focal PF3 de la caméra virtuelle 11 , et exprimées dans le repère véhicule (0, Xv, Yv, Zv) (le troisième plan focal PF3 étant associé à la troisième posture de la caméra virtuelle 11).

En se plaçant dans le troisième plan focal PF3 on applique le théorème de Thalès de la façon suivante :

Où :

Pour calculer les coordonnées et on utilise des équations de

projections perspectives : ;

Où on rappelle que et sont les coordonnées du troisième point

sélectionné P3 et donc connues. De plus, dans la matrice Ry, l'angle d'orientation Θ autour du véhicule 11 présente la première valeur θ ι précédemment calculée, et dans la matrice Rz, l'angle d'inclinaison φ présente la valeur 92 précédemment calculée.

Les coordonnées de la caméra virtuelle 1 1 sont :

Les étapes d) et e) sont ensuite répétées De façon à afficher une image de l'environnement 17 et une représentation 15 du véhicule 1 , vus depuis une distance au véhicule 1 correspondant au souhait de l'usager.

L'image virtuelle 13 comprenant l'environnement 17 du véhicule 1 ainsi que la représentation 15 du véhicule 1 est donc composée et affichée après chaque déduction de nouvelle posture de la caméra virtuelle 11.

En variante, l'image virtuelle 13 pourrait n'être composée et affichée qu'après que le conducteur ait sélectionné les trois points sélectionnés P1 , P2, P3. Pour cela, en combinant les coordonnées de la caméra virtuelle calculée à partir du premier point sélectionné P1 , du deuxième point sélectionné P2 et du troisième point sélectionné P3, on pourrait utiliser un jeu de coordonnées finales (Xcamf, de la caméra virtuelle 1 1 :

Selon une variante du procédé d'affichage, l'unité de calcul 9 pourrait commander l'affichage simultané des premier élément graphique 19, deuxième élément graphique 21 et troisième élément graphique 23 précédemment décrits, lors de l'étape a) d'affichage.

L'usager pourrait alors choisir avec précision la nouvelle posture de la caméra virtuelle 11 en choisissant un point sur l'un quelconque des premier, deuxième et troisième éléments graphiques 19, 21 , 23.

Ainsi, l'acquisition des premiers, deuxième et troisième points sélectionnés P1 , P2, P3 pourrait être réalisée dans un ordre quelconque. Par conséquent, l'usager pourrait sélectionner dans un ordre quelconque la hauteur de la caméra virtuelle 1 1 , l'angle de rotation Θ de la caméra virtuelle 11 et la distance horizontale R2 entre la caméra virtuelle 11 et le véhicule 1.

De manière avantageuse, le premier élément graphique 19, le deuxième élément graphique 21 , et le troisième élément graphique 23 présentent chacun une couleur différente.

En complément de l'invention, l'unité de calcul 9 peut mettre en œuvre un procédé automatique de détermination de la posture de la caméra virtuelle 11, lorsque les conditions le requièrent.

Plus précisément ici, l'unité de calcul 9 est programmée pour modifier automatiquement la posture de la caméra virtuelle 11 lorsqu'un obstacle est détecté à proximité du véhicule 1.

Pour cela, l'unité de calcul 9 détermine la trajectoire du véhicule 1 lors d'une étape de prédiction. L'unité de calcul 9 détermine cette trajectoire en fonction au moins de l'angle du volant et du rapport de vitesse engagé (marche avant ou marche arrière).

Puis, lors d'une étape de détection, l'unité de calcul 9 recherche si un obstacle est situé à proximité du véhicule 1. Plus précisément, l'unité de calcul 9 détermine si un obstacle est situé sur la trajectoire précédemment prédite.

Pour cela, l'unité de calcul 9 utilise des télédétecteurs (radar et/ou sonar et/ou lidar) situés autour du véhicule 1. Par exemple ici, le véhicule 1 est équipé de six télédétecteurs à l'avant et de six télédétecteurs à l'arrière. Les télédétecteurs permettent non seulement de détecter la présence d'un obstacle, mais aussi d'évaluer la distance entre ledit obstacle et le véhicule 1.

Si un obstacle est détecté sur la trajectoire prédite, alors l'usager ne peut plus choisir la posture de la caméra virtuelle 11 de façon manuelle. Le choix est effectué de façon automatique par l'unité de calcul 9.

Si le véhicule 1 se déplace vers l'avant, et qu'un obstacle est détecté sur sa trajectoire, alors la caméra virtuelle est automatiquement positionnée le long de l'axe longitudinal (OXv) du véhicule 1 , vers l'arrière du véhicule 1 , et dirigée vers l'avant du véhicule 1. La caméra virtuelle 1 1 est alors placée à un angle d'orientation θ égal à π radians.

En variante, l'unité de calcul 9 pourrait choisir l'angle d'orientation Θ parmi une pluralité d'angles de rotation Θ mémorisée dans l'unité de mémoire.

De façon préférentielle, l'unité de calcul 9 détermine la hauteur de l'obstacle. L'angle d'inclinaison φ de la caméra virtuelle 11 est alors calculé pour que l'axe optique de la caméra virtuelle 11 passe par le centre de l'obstacle.

La distance horizontale R2 entre le véhicule 1 et la caméra virtuelle 1 1 est calculée en fonction de la distance détectée entre l'obstacle et le véhicule 1.

Plus l'obstacle détecté est proche, et plus la caméra virtuelle 1 1 paraît proche.

BLANK UPON FILING




 
Previous Patent: CHILD CAR SEAT PROTECTION DEVICE

Next Patent: UNIVERSAL LABEL