SlideShare une entreprise Scribd logo
1  sur  4
Télécharger pour lire hors ligne
Retour haptique d’un monde virtuel
A. Usta R. David-Leguillou H. Ait Brik Y. Akadiri F. Dam K. Rahetilahy O. Guerrida I. Diallo
Abstract— La r´ealit´e virtuelle est un domaine en pleine ex-
pansion depuis ces derni`eres ann´ees. De l’industrie du jeu-vid´eo
aux grands laboratoires de recherche, nous pouvons trouver
une infinit´e d’applications `a la r´ealit´e virtuelle. Cependant,
l’immersion n’est jamais totale, c’est pourquoi nous avons
imagin´e un dispositif de retour haptique pour accentuer cette
immersion notamment en utilisant des haut-parleurs pour
simuler le ressenti de textures.
I. INTRODUCTION
A. Haptique et r´ealit´e virtuelle
La r´ealit´e virtuelle se base sur le principe suivant : g´en´erer
une sc`ene virtuelle dans le but d’immerger l’utilisateur et
de l’isoler du monde r´eel. Pour ce faire, la projection de
la sc`ene sur un simple ´ecran ne suffit ´evidemment pas :
un casque de r´ealit´e virtuelle (aussi appel´e ”casque VR”)
est donc n´ecessaire. Avec la d´emocratisation de ce nouveau
dispositif (cf. Oculus Rift de FaceBook), il est aujourd’hui
beaucoup plus simple de se procurer un casque VR.
Cependant, comme dit dans l’abstract de cet article,
le casque VR seul ne suffit pas `a immerger l’utilisateur
dans le monde virtuel : les diff´erents ressentis comme
le toucher ne sont pas disponibles, rendant l’exp´erience
d’immersion incompl`ete. C’est donc dans ce contexte
qu’intervient l’haptique : l’id´ee est ici d’ajouter des
dispositifs compl´ementaires `a l’utilisateur pour qu’il puisse
avoir un retour haptique de la sc`ene dans laquelle il est
immerg´e.
B. ´Etat de l’art
Il existe diff´erents dispositifs de retour haptique dans la
litt´erature, nous ne citerons ici que les plus pertinents par
rapport `a notre application : le ressenti du toucher d’objets
et de textures. Un premier exemple de retour haptique
consiste `a utiliser un produit connu : le Novint Falcon. Ce
dispositif permet de faire ressentir `a l’utilisateur un retour de
force d’une sc`ene virtuelle. C’est donc dans ce contexte que
les chercheurs Pierre Renon, Chenguang Yang et Rongxin
Cui ont d´evelopp´e un syst`eme de retour haptique avec ce
Falcon et le simulateur iCub [1]. Un second exemple de
dispositif a ´et´e propos´e par Adiyan Mujibiya de l’Institut
de Technologie de Rakuten (Japon) : l’id´ee est d’utiliser
des d´echarges ´electrostatiques pour donner `a l’utilisateur
la sensation de toucher d’un objet [2]. Un dernier exemple
(parmi tant d’autres) a ´et´e donn´e par Tatsuya Koyama,
Ikuo Yamano, Kenjiro Takemura et Takashi Maeno : leur
dispositif est un exosquelette permettant de donner un
retour de force sur les doigts, dans le but de faire de la
t´el´eop´eration (op´eration contrˆol´ee `a distance) [3].
C. But du projet
Ces dispositifs ont tous un point commun, `a savoir donner
une illusion de toucher ou de retour de force synchronis´ee
avec la sc`ene virtuelle. Le dispositif que nous proposons dans
le cadre de ce projet est le suivant : nous voulons stimuler
le bout de chaque doigt de la main droite avec des petits
haut-parleurs de quelques Watts. En envoyant des signaux
appropri´es sur chaque haut-parleur, le tout synchronis´e
avec la sc`ene virtuelle, nous pouvons ressentir le toucher
de diff´erentes textures (bois, verre, papier, aluminium,
etc). Avec cette technique, la seule limitation dans le
type de texture que l’on va toucher dans la sc`ene virtuelle
est la g´en´eration de signaux ad´equats `a envoyer au dispositif.
Lors de ce projet, nous avons d´evelopp´e plusieurs sc`enes
virtuelles, et en parall`ele nous avons d´evelopp´e le dispositif
de retour haptique. Pour retranscrire les mouvements de
l’utilisateur dans la sc`ene virtuelle, plusieurs capteurs ont ´et´e
utilis´e : une Kinect v1 pour les mouvements de l’utilisateur,
un leap Motion pour capter les mouvements des mains, et le
casque de r´ealit´e virtuelle pour immerger l’utilisateur dans
la sc`ene virtuelle, celui-ci captant aussi les mouvements de
la tˆete. Le couplage de tous ces dispositifs a ´et´e r´ealis´e
sous Unity 5.2.2f1. Les r´esultats de ce projet sont donn´es
en conclusion.
Fig. 1. Dispositif final
II. INTERACTION
A. Casque OSVR
L’OSVR (Open Source Virtual Reality), en plus d’ˆetre
un casque de r´ealit´e virtuelle, est un projet open source,
d’environnement au niveau mat´eriel logiciel pour la r´ealit´e
virtuelle, ax´ee pour le jeu vid´eo [4].
Le casque est compos´e de :
• Un module d’affichage avec un ´ecran OLED de 5,5
pouces avec une r´esolution de 401 PPI
• Un dispositif optique constitu´e de lentilles ajustables
• Un circuit ´electronique avec un acc´el´erom`etre et un
gyroscope int´egr´e pour reproduire les mouvements de
la tˆete.
La r´ealit´e virtuelle est une simulation interactive immer-
sive d’un environnement virtuel. L’utilisateur voit la sc`ene
virtuelle en vision st´er´eoscopique. Il y aura deux images
d´ecal´ees l’une par rapport `a l’autre qui correspond `a deux
points de vue des yeux de l’observateur pour retourner une
notion de profondeur.
Le casque se base sur cette technologie de st´er´eo-vision et
d’un tracking de la position de la tˆete de l’utilisateur. Du fait
que le projet soit ouvert au grand public, en terme de com-
patibilit´e et de configuration, l’OSVR poss`ede d´ej`a plusieurs
kits pr´ed´efinis selon les plateformes de d´eveloppement 3D.
Nous avons d´ecid´e de choisir ce mod`ele d’appareil du fait
de son prix abordable par rapport aux autres mod`eles de
casque VR et qu’il disposait d´ej`a en option le capteur Leap
Motion, qui s’accroche sur le casque, pour permettre une
reconnaissance du mouvement des mains.
B. Leap Motion
Afin d’augmenter l’immersion dans un monde virtuel, il
est important de pouvoir interagir avec ses objets, notamment
avec nos propres mains. Le Leap Motion [5] est un appareil
permettant cela. Il s’agit d’un dispositif de reconnaissance de
mouvements des mains compos´e de deux cam´eras et de trois
LED infrarouges, qui se connecte `a un ordinateur en USB.
Ses cam´eras peuvent d´etecter de la lumi`ere infrarouge de
850 nm de longueur d’onde, ce qui est en dehors du spectre
visible. Grˆace `a ses lentilles grand angle, le Leap Motion a
un champ d’interaction de 0,22 m3 [6]. Ce champ, ayant la
forme d’un t´etra`edre invers´e, correspond `a l’intersection des
champs de vision des deux cam´eras. Utilis´e dans une sc`ene
virtuelle, le Leap Motion nous permet de voir et de contrˆoler
une repr´esentation en 3D de nos mains afin d’interagir avec
les diff´erents objets de la sc`ene.
C. Kinect v1
La Kinect a pour but de transposer notre d´eplacement
du monde r´eel au monde virtuel. Ainsi, il est possible de
cartographier avec pr´ecision la distance pour tout objet ou
personne ´eloign´e de 1,5 `a 2 m`etres de la cam´era jusqu’`a
environ 4-5 m`etres de profondeur.
La technologie embarqu´ee qui nous int´eresse dans le cadre
de notre projet est le ” 3D depth sensor ”, qui est compos´e
d’une part d’un ´emetteur IR (l’avantage de l’´emetteur IR est
de pouvoir jouer dans toutes les conditions de luminosit´e)
et d’autre part d’une Cam´era IR. Dans notre cas, la sc`ene
contenant le joueur sera expos´ee aux rayons infrarouges
de l’´emetteur IR, une partie de ces rayonnements va ˆetre
r´efl´echie par l’ensemble des surfaces touch´ees, ainsi plus
l’objet sera loin et plus la quantit´e de rayonnement infrarouge
r´efl´echie (renvoy´ee vers la cam´era IR) sera faible, `a l’inverse,
plus l’objet sera proche et plus la quantit´e de rayonnement
infrarouge r´efl´echie sera importante. La cam´era infrarouge va
alors mesurer la distance de l’objet en fonction de l’intensit´e.
Ensuite, ce sont les logiciels qui vont effectuer le traitement
des images rec¸ues, en permettant la reconnaissance des
diff´erentes parties du corps par exemple, ce qui permet dans
notre cas de suivre des d´eplacements lat´eraux.
Fig. 2. Les 3 capteurs : OSVR, Leap Motion, Kinect v1
III. SC `ENE VIRTUELLE
A. Int´erˆet de chaque sc`ene
1) Sc`ene d’entr´ee - le digicode:
La premi`ere sc`ene virtuelle dans laquelle nous souhaitons
que les utilisateurs commencent l’exp´erience comporte un
digicode donnant acc`es `a la sc`ene suivante. En effet, sans
ˆetre une tˆache trop difficile, le fait de devoir appuyer sur
des touches demande une certaine pr´ecision et leur permet
donc de se familiariser avec l’utilisation de leurs mains dans
une sc`ene virtuelle. Cette sc`ene constitue ´egalement un tr`es
bon test du dispositif de retour haptique. Ici, on ne prˆete
pas attention au mat´eriau des touches, on veut simplement
ressentir la sensation d’avoir touch´e un corps solide.
Fig. 3. Sc`ene pr´esentant le digicode
2) Appartement:
Afin de fournir un retour haptique plus r´ealiste, nous avons
essay´e de mod´eliser une sc`ene virtuelle compos´ee d’objets
vari´es et dans lequel l’utilisateur sera immerg´e et pourra
se d´eplacer `a sa guise. La conception de la sc`ene finale se
focalise sur le renforcement du sentiment de la pr´esence de
l’utilisateur dans l’environnement virtuel en plus du retour
haptique.
Chaque objet mod´elis´e traduit une texture pr´ecise et doit
avoir sa forme r´eelle pour garder l’illusion. Les mod`eles
d’objets quotidiens aux formats 3D pr´esents dans la sc`ene
sont d´ej`a disponibles sous formes de pr´efabriqu´es en ligne.
Nous avons rajout´e sur ces ´el´ements les diff´erentes textures
et couleurs.
Nous avons mod´elis´e la sc`ene en plusieurs pi`eces `a part
enti`ere d’une dimension sp´ecifique [2x2m] pour pouvoir
d´elimiter dans le virtuel la distance dont pourra se mouvoir
l’utilisateur dans le r´eel. L’int´erˆet de cette sc`ene r´eside dans
le fait qu’elle regroupe un large panel d’objets que l’on
rencontre dans la vie quotidienne (table, chaise, plastique,
etc). L’utilisateur pourra donc toucher des mat´eriaux
diff´erents, et donc avoir un retour haptique en fonction de
l’objet touch´e.
3) Fontaine et sable:
Nous avons d´evelopp´e en parall`ele une sc`ene permettant
de toucher du sable et de l’eau. La sc`ene est donc
constitu´ee d’un d´esert avec une fontaine et un sablier
renvers´e. L’utilisateur peut se d´eplacer `a l’aide des touches
directionnelles ou avec la Kinect. En touchant l’eau de la
fontaine, il peut entendre le son de l’eau en train de couler
et ressentir les particules d’eau, il en est de mˆeme pour le
sable. L’eau a ´et´e obtenue via un plugin permettant de cr´eer
des particules, il a fallu changer les param`etres et cr´eer un
script pour l’interaction avec la leap motion. Pour le sable
il en est de mˆeme. Le d´esert et le sablier proviennent d’un
autre projet en utilisation libre et ont ´et´e modifi´es pour le
projet.
B. Mod´elisation des sc`enes
La mod´elisation des sc`enes a ´et´e r´ealis´ee sous Unity.
Unity est un logiciel de conception qui permet de d´evelopper
des sc`enes en 2D et en 3D. L’ensemble de nos sc`enes
avec les diff´erentes textures ont ´et´e r´ealis´e avec ce logi-
ciel. La r´ealisation des sc`enes a ´et´e r´ealis´ee en important
et en adaptant des ´el´ements de diff´erents projets depuis
l’AssetStore d’Unity. Les objets plac´es sur la sc`ene (cam´era,
lumi`ere, gamme objets et textures) pourront ˆetre positionn´es,
manipul´es et anim´es. La g´en´eration de particules dynamiques
(sable et eau) a ´et´e r´ealis´ee `a partir du plugin Fluvio.
IV. RETOUR HAPTIQUE
A. Dispositif de retour haptique
Le dispositif de retour haptique imagin´e et largement
inspir´e de la litt´erature est compos´e de petits hauts-parleurs
plac´es sur les extr´emit´es de chaque doigt de la main droite.
Rappelons-le, le retour haptique consiste `a faire vibrer les
hauts-parleurs lorsqu’il y a collision entre la main droite et
les objets de la sc`ene virtuelle. Les vibrations d´ependent du
type d’objet touch´e, et du type de contact (toucher statique
ou dynamique).
Les hauts-parleurs sont en contact direct avec les doigts de
la main, les vibrations des membranes des hauts-parleurs sont
donc directement transmises aux doigts, donnant l’illusion
de toucher. Les hauts-parleurs ont ´et´e choisi en ad´equation
avec les bandes de fr´equences des signaux `a envoyer : 50 Hz
Fig. 4. Illustration du dispositif de retour haptique
`a 1 kHz. Ceux-ci doivent donc pouvoir reproduire d’assez
basses fr´equences, avec un certain gain. Apr`es une ´etude des
diff´erents mini hauts-parleurs pr´esents sur le march´e, et dans
un soucis de budget limit´e, nous avons opt´e pour des hauts-
parleurs Visaton K28.40, d’une puissance de 2 Watts, ce qui
est suffisant pour avoir un ressenti des vibrations sans que ce
soit d´esagr´eable. Ce mod`ele de haut-parleur peut descendre
jusqu’`a 80 Hz sans ˆetre att´enu´e, ce qui conviendra. Le
dispositif est aliment´e par des amplificateurs audio simples
r´ealis´es par nos soins, et les signaux proviendront soit de
la sc`ene virtuelle directement (donc de Unity), soit par
l’interm´ediaire d’un micro-contrˆoleur. Dans le premier cas
de figure, les signaux sont envoy´es de mani`ere synchrones
via le PC o`u la sc`ene virtuelle est jou´ee. Dans le second cas
de figure, les signaux sont stock´es sur le micro-contrˆoleur,
et envoy´es de mani`ere synchrones lorsqu’il y a collision. Le
micro-contrˆoleur est donc reli´e au PC par une liaison s´erie
simple, et un protocole de communication simple a ´et´e mis
en place pour savoir quel signal doit ˆetre envoy´e et sur quel
haut-parleur il doit ˆetre envoy´e.
B. Rendu des textures
Concernant le rendu de textures, nous avons g´en´er´e pour
chacune des texture un signal diff´erent et ad´equat. Concer-
nant la 1`ere sc`ene avec le digicode, nous avons cr´e´e un sinus
de fr´equence suffisamment grande (quelque peu inf´erieur au
kHz) pour que le doigt ne ressente pas de vibrations, mais
uniquement une pression continue. Concernant le rendu de
textures d’eau ou de sables, nous avons d´ecid´e de prendre
un signal audio de ces textures en train de couler, de les
traiter, et de les rendre sur les hauts parleurs. Enfin, pour la
sc`ene finale, nous nous sommes servis d’un appareil pouvant
enregistrer les forces tangentielles [7] (forces que le doigt
ressent le plus) ´emises sur le doigt lors d’un frottement sur
une texture, afin d’obtenir les signaux repr´esentant les forces
lors de frottements. Apr`es un filtrage passe bande adapt´e
et une amplification, ces signaux peuvent ˆetre transmis aux
hauts parleurs. Nous pouvons ainsi simuler dans notre sc`ene
diff´erents mat´eriaux, que nous avons pris discriminants, tels
que du plexiglas, du tapis, de l’aluminium rainur´e, etc pour
que leur diff´erences de rugosit´e nous permettent d’avoir la
meilleure discrimination possible. [8]
C. Int´egration
Une fois que tous les dispositifs sont correctement cal-
ibr´es et fonctionnels, l’´etape ultime est de pouvoir les
coupler ensemble pour avoir un syst`eme d’immersion et
de retour haptique fonctionnel. Comme expliqu´e dans les
parties pr´ec´edentes, les diff´erents capteurs utilis´es (Leap
Motion, Kinect, Casque VR) ont ´et´e coupl´es, permettant ainsi
l’immersion de l’utilisateur d’une part, et la capture de ses
gestes et d´eplacements dans la sc`ene virtuelle. Le dispositif
haptique est ensuite coupl´e `a la sc`ene virtuelle selon deux
modes de fonctionnement possibles pour permettre une ex-
citation des doigts synchronis´ee avec la sc`ene virtuelle.
V. R ´ESULTATS ET CONCLUSIONS
En conclusion, ce projet a d´emontr´e qu’il ´etait possible de
donner l’illusion de sensation de toucher venant d’un monde
virtuel. La 1`ere sc`ene avec le digicode a bien montr´e que
nous ´etions capable de rendre un toucher statique sur un ou
plusieurs doigts, s’att´enuant au cours du temps pour bien
simuler un r´egime transitoire. La 2`eme sc`ene, quant `a elle,
a ´et´e limit´e a des liquides/syst`emes granulaires coulant sur
la main, et non enti`erement libres, par question de temps,
mais donnait un rendu d’eau ´eclaboussant sur les doigts assez
convaincant. Enfin, la 3`eme sc`ene a permis de terminer le test
sur l’ensemble des touchers possibles, avec des frottements
sur textures plus ou moins rugueuses, et donnait une v´eritable
impression de frottement, du au fait que nous voyons ce que
nous touchons, et que nous avons ´egalement un petit rendu
sonore du dit frottement pour compl´eter l’illusion et mettre
en jeu les 3 sens.
Pour conclure, ces travaux pourront servir `a l’avenir pour
le d´eveloppement de sc`enes virtuelles interactives, o`u le
toucher pourra venir s’ajouter `a la vue et `a l’ou¨ıe.
VI. REMERCIEMENTS
Ces travaux ont ´et´e encadr´es par Monsieur Vincent HAY-
WARD, dans le cadre du projet int´egratif de 2`eme ann´ee du
Master ”Ing´enierie des Syst`emes Intelligents” de l’Universit´e
Pierre et Marie Curie. Nous tenons ´egalement `a remercier
les doctorant(e)s et/ou chercheurs de l’ISIR et de l’IRCAM
ayant pu apporter leurs conseils quant `a ce projet, et aussi les
techniciens des salles de travaux pratiques pour leurs aides
concernant les aspects techniques du projet.
REFERENCES
[1] P. Renon, C. Yang, H. Ma, and R. Cui, “Haptic interaction between
human and virtual iCub robot using Novint Falcon with CHAI3D and
MATLAB,” in Control Conference (CCC), 2013 32nd Chinese, 2013,
pp. 6045–6050.
[2] A. Mujibiya, “Haptic feedback companion for Body Area Network
using body-carried electrostatic charge,” in 2015 IEEE International
Conference on Consumer Electronics (ICCE), 2015, pp. 571–572.
[3] T. Koyama, I. Yamano, K. Takemura, and T. Maeno, “Multi-fingered
exoskeleton haptic device using passive force feedback for dexterous
teleoperation,” in IEEE/RSJ International Conference on Intelligent
Robots and Systems, 2002, 2002, vol. 3, pp. 2905–2910 vol.3.
[4] “Razer — OSVR - Open-Source Virtual Reality for Gaming,” Razer.
[Online]. Available: http://www.osvr.org/. [Accessed: 23-Jan-2016].
[5] L. Motion, “Leap Motion.” [Online]. Available:
https://www.leapmotion.com/. [Accessed: 23-Jan-2016].
[6] “How Does the Leap Motion Controller Work?,”
Leap Motion Blog, 09-Aug-2014. [Online]. Available:
http://blog.leapmotion.com/hardware-to-software-how-does-the-
leap-motion-controller-work/. [Accessed: 23-Jan-2016].
[7] J. Platkiewicz, A. Mansutti, M. Bordegoni, and V. Hayward, “Record-
ing Device for Natural Haptic Textures Felt with the Bare Fingertip,”
in Haptics: Neuroscience, Devices, Modeling, and Applications, M.
Auvray and C. Duriez, Eds. Springer Berlin Heidelberg, 2014, pp.
521–528.
[8] A. M. Smith, C. E. Chapman, M. Deslandes, J.-S. Langlais, and M.-
P. Thibodeau, “Role of friction and tangential force variation in the
subjective scaling of tactile roughness,” Exp Brain Res, vol. 144, no.
2, pp. 211–223, May 2002.

Contenu connexe

Tendances

Introduction à la Réalité Augmentée
Introduction à la Réalité AugmentéeIntroduction à la Réalité Augmentée
Introduction à la Réalité AugmentéeNiji
 
Présentation la realité augmentée
Présentation la realité augmentéePrésentation la realité augmentée
Présentation la realité augmentéeCCI Dijon
 
Afonso_Dekaps' tourisme
Afonso_Dekaps' tourismeAfonso_Dekaps' tourisme
Afonso_Dekaps' tourismeAFEIT
 
Réalité virtuelle & augmentée : bienvenue dans la matrice !
Réalité virtuelle & augmentée : bienvenue dans la matrice !Réalité virtuelle & augmentée : bienvenue dans la matrice !
Réalité virtuelle & augmentée : bienvenue dans la matrice !treize articles
 
XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...
XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...
XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...Publicis Sapient Engineering
 
Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...
Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...
Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...ACSG Section Montréal
 
Mairie de Paris_Sabine Romon_Mobilier urbain
Mairie de Paris_Sabine Romon_Mobilier urbainMairie de Paris_Sabine Romon_Mobilier urbain
Mairie de Paris_Sabine Romon_Mobilier urbainMetro'num 2011
 
La Réalité Augmentée - C'est quoi ?
La Réalité Augmentée - C'est quoi ?La Réalité Augmentée - C'est quoi ?
La Réalité Augmentée - C'est quoi ?You to You
 
Ce qu’il faut retenir de : la fusion on/off
Ce qu’il faut retenir de : la fusion on/offCe qu’il faut retenir de : la fusion on/off
Ce qu’il faut retenir de : la fusion on/offMathieu Genelle
 

Tendances (12)

Introduction à la Réalité Augmentée
Introduction à la Réalité AugmentéeIntroduction à la Réalité Augmentée
Introduction à la Réalité Augmentée
 
Augmented Reality
Augmented RealityAugmented Reality
Augmented Reality
 
Présentation la realité augmentée
Présentation la realité augmentéePrésentation la realité augmentée
Présentation la realité augmentée
 
La réalité augmentée
La réalité augmentéeLa réalité augmentée
La réalité augmentée
 
Afonso_Dekaps' tourisme
Afonso_Dekaps' tourismeAfonso_Dekaps' tourisme
Afonso_Dekaps' tourisme
 
Réalité virtuelle & augmentée : bienvenue dans la matrice !
Réalité virtuelle & augmentée : bienvenue dans la matrice !Réalité virtuelle & augmentée : bienvenue dans la matrice !
Réalité virtuelle & augmentée : bienvenue dans la matrice !
 
Cahier Pédagogique - Semaine 2 - Festival ElectroChoc 12 - Mars-Avril 2017
Cahier Pédagogique - Semaine 2 - Festival ElectroChoc 12 - Mars-Avril 2017Cahier Pédagogique - Semaine 2 - Festival ElectroChoc 12 - Mars-Avril 2017
Cahier Pédagogique - Semaine 2 - Festival ElectroChoc 12 - Mars-Avril 2017
 
XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...
XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...
XebiCon'17 : Réalité Augmentée pour les terminaux iOS - Julien Datour et S...
 
Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...
Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...
Interagir avec des objets de réalité augmentée géoréférencés sur téléphone in...
 
Mairie de Paris_Sabine Romon_Mobilier urbain
Mairie de Paris_Sabine Romon_Mobilier urbainMairie de Paris_Sabine Romon_Mobilier urbain
Mairie de Paris_Sabine Romon_Mobilier urbain
 
La Réalité Augmentée - C'est quoi ?
La Réalité Augmentée - C'est quoi ?La Réalité Augmentée - C'est quoi ?
La Réalité Augmentée - C'est quoi ?
 
Ce qu’il faut retenir de : la fusion on/off
Ce qu’il faut retenir de : la fusion on/offCe qu’il faut retenir de : la fusion on/off
Ce qu’il faut retenir de : la fusion on/off
 

En vedette

9 - des artistes militants
9 -  des artistes militants9 -  des artistes militants
9 - des artistes militantsgclairette
 
La révolution des usages dans la construction des villes du futur
La révolution des usages dans la construction des villes du futurLa révolution des usages dans la construction des villes du futur
La révolution des usages dans la construction des villes du futurUrbaccess
 
De la culture projet à la culture produit - AT Sophia
De la culture projet à la culture produit - AT SophiaDe la culture projet à la culture produit - AT Sophia
De la culture projet à la culture produit - AT SophiaGregory Alexandre
 
Online Marketing Summit Phoenix - Improving content relevance through social ...
Online Marketing Summit Phoenix - Improving content relevance through social ...Online Marketing Summit Phoenix - Improving content relevance through social ...
Online Marketing Summit Phoenix - Improving content relevance through social ...Mike Corak
 
10 - L'avenir d'une communauté
10 - L'avenir d'une communauté10 - L'avenir d'une communauté
10 - L'avenir d'une communautégclairette
 
Khalid-housti-CV-FR-web
Khalid-housti-CV-FR-webKhalid-housti-CV-FR-web
Khalid-housti-CV-FR-webHousti Khalid
 
Mozilla WebFWD Overview -- Fall 2012
Mozilla WebFWD Overview -- Fall 2012Mozilla WebFWD Overview -- Fall 2012
Mozilla WebFWD Overview -- Fall 2012Diane (Bisgeier) Tate
 
1 une histoire à découvrir
1 une histoire à découvrir1 une histoire à découvrir
1 une histoire à découvrirgclairette
 
Programme communotic 2016
Programme communotic 2016Programme communotic 2016
Programme communotic 2016HB1980
 
Podium bijeenkomst SURF - Elevate
Podium bijeenkomst SURF - ElevatePodium bijeenkomst SURF - Elevate
Podium bijeenkomst SURF - ElevateRenée Filius
 
Estratégia de Conteúdo
Estratégia de ConteúdoEstratégia de Conteúdo
Estratégia de ConteúdoDaniel Souza
 
Accel Partners India - Nasscom Reverse Pitch
Accel Partners India - Nasscom Reverse PitchAccel Partners India - Nasscom Reverse Pitch
Accel Partners India - Nasscom Reverse PitchPrayank Swaroop
 

En vedette (20)

PFE IMPREMER
PFE IMPREMERPFE IMPREMER
PFE IMPREMER
 
Surveillance des marchés - Point presse - juin 2015
Surveillance des marchés - Point presse - juin 2015Surveillance des marchés - Point presse - juin 2015
Surveillance des marchés - Point presse - juin 2015
 
123546
123546123546
123546
 
9 - des artistes militants
9 -  des artistes militants9 -  des artistes militants
9 - des artistes militants
 
Rapport gouvernement d'entreprise - novembre 2015
Rapport gouvernement d'entreprise - novembre 2015Rapport gouvernement d'entreprise - novembre 2015
Rapport gouvernement d'entreprise - novembre 2015
 
La révolution des usages dans la construction des villes du futur
La révolution des usages dans la construction des villes du futurLa révolution des usages dans la construction des villes du futur
La révolution des usages dans la construction des villes du futur
 
De la culture projet à la culture produit - AT Sophia
De la culture projet à la culture produit - AT SophiaDe la culture projet à la culture produit - AT Sophia
De la culture projet à la culture produit - AT Sophia
 
APRIL
APRILAPRIL
APRIL
 
Online Marketing Summit Phoenix - Improving content relevance through social ...
Online Marketing Summit Phoenix - Improving content relevance through social ...Online Marketing Summit Phoenix - Improving content relevance through social ...
Online Marketing Summit Phoenix - Improving content relevance through social ...
 
10 - L'avenir d'une communauté
10 - L'avenir d'une communauté10 - L'avenir d'une communauté
10 - L'avenir d'une communauté
 
Khalid-housti-CV-FR-web
Khalid-housti-CV-FR-webKhalid-housti-CV-FR-web
Khalid-housti-CV-FR-web
 
Mozilla WebFWD Overview -- Fall 2012
Mozilla WebFWD Overview -- Fall 2012Mozilla WebFWD Overview -- Fall 2012
Mozilla WebFWD Overview -- Fall 2012
 
1 une histoire à découvrir
1 une histoire à découvrir1 une histoire à découvrir
1 une histoire à découvrir
 
Etude sur les pratiques de communication des entreprises cotées - novembre 2015
Etude sur les pratiques de communication des entreprises cotées - novembre 2015Etude sur les pratiques de communication des entreprises cotées - novembre 2015
Etude sur les pratiques de communication des entreprises cotées - novembre 2015
 
Programme communotic 2016
Programme communotic 2016Programme communotic 2016
Programme communotic 2016
 
Podium bijeenkomst SURF - Elevate
Podium bijeenkomst SURF - ElevatePodium bijeenkomst SURF - Elevate
Podium bijeenkomst SURF - Elevate
 
Bienvenue à l'inde du sud
Bienvenue à l'inde du sudBienvenue à l'inde du sud
Bienvenue à l'inde du sud
 
Cartographie des risques 2015
Cartographie des risques 2015Cartographie des risques 2015
Cartographie des risques 2015
 
Estratégia de Conteúdo
Estratégia de ConteúdoEstratégia de Conteúdo
Estratégia de Conteúdo
 
Accel Partners India - Nasscom Reverse Pitch
Accel Partners India - Nasscom Reverse PitchAccel Partners India - Nasscom Reverse Pitch
Accel Partners India - Nasscom Reverse Pitch
 

Similaire à Article IEEE

IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...
IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...
IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...USERADGENTS
 
Réalité virtuelle et réalité augmentée
Réalité virtuelle et réalité augmentéeRéalité virtuelle et réalité augmentée
Réalité virtuelle et réalité augmentéeFFFOD
 
Rapport Projet Virtual Robots
Rapport Projet Virtual RobotsRapport Projet Virtual Robots
Rapport Projet Virtual Robotsaliotard
 
Tendances mobile 2018
Tendances mobile 2018Tendances mobile 2018
Tendances mobile 2018Viseo Digital
 
Tendances Mobile 2018
Tendances Mobile 2018Tendances Mobile 2018
Tendances Mobile 2018VISEO
 
Au coeur d'un projet Kinect innovant
Au coeur d'un projet Kinect innovantAu coeur d'un projet Kinect innovant
Au coeur d'un projet Kinect innovantMicrosoft
 
JedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RA
JedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RAJedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RA
JedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RANovabuild
 
Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...
Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...
Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...PascalBalancier1
 
Réalité virtuelle : état des lieux 2019
Réalité virtuelle : état des lieux 2019Réalité virtuelle : état des lieux 2019
Réalité virtuelle : état des lieux 2019FFFOD
 
La réalité augmentée, applications et tendances
La réalité augmentée, applications et tendancesLa réalité augmentée, applications et tendances
La réalité augmentée, applications et tendancesMinnovarc
 
Calq de réalité augmentée
Calq  de réalité augmentéeCalq  de réalité augmentée
Calq de réalité augmentéelalooda
 
Réalité augmentée
Réalité augmentée Réalité augmentée
Réalité augmentée leilameherzi
 
Prezliftexperience vv4ok 1
Prezliftexperience vv4ok 1Prezliftexperience vv4ok 1
Prezliftexperience vv4ok 1Fing
 
Alutec - Les lunettes hightech
Alutec - Les lunettes hightechAlutec - Les lunettes hightech
Alutec - Les lunettes hightechMinnovarc
 
Augmented Reality
Augmented RealityAugmented Reality
Augmented RealityMoxie Paris
 
Réalité augmentée
Réalité augmentéeRéalité augmentée
Réalité augmentéezhouyanling
 
Dossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTimeDossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTimeRoyer Sophie
 

Similaire à Article IEEE (20)

IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...
IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...
IoTeaTime #2 : Welcome to Artificial Reality | Réalités augmentée, virtuelle ...
 
Réalité virtuelle et réalité augmentée
Réalité virtuelle et réalité augmentéeRéalité virtuelle et réalité augmentée
Réalité virtuelle et réalité augmentée
 
Rapport Projet Virtual Robots
Rapport Projet Virtual RobotsRapport Projet Virtual Robots
Rapport Projet Virtual Robots
 
Tendances mobile 2018
Tendances mobile 2018Tendances mobile 2018
Tendances mobile 2018
 
Tendances Mobile 2018
Tendances Mobile 2018Tendances Mobile 2018
Tendances Mobile 2018
 
Au coeur d'un projet Kinect innovant
Au coeur d'un projet Kinect innovantAu coeur d'un projet Kinect innovant
Au coeur d'un projet Kinect innovant
 
JedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RA
JedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RAJedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RA
JedisBIM & Réalité Virtuelle, Réalité Augmentée - Etat de l'Art RV, RA
 
Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...
Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...
Réalité augmentée : démo d'un Proof of Concept développé par le MIC Mons et T...
 
Du virtuel à la réalité augmentée
Du virtuel à la réalité augmentéeDu virtuel à la réalité augmentée
Du virtuel à la réalité augmentée
 
2013-05_Plaquette Tic déj_réalité augmentée
2013-05_Plaquette Tic déj_réalité augmentée2013-05_Plaquette Tic déj_réalité augmentée
2013-05_Plaquette Tic déj_réalité augmentée
 
Réalité virtuelle : état des lieux 2019
Réalité virtuelle : état des lieux 2019Réalité virtuelle : état des lieux 2019
Réalité virtuelle : état des lieux 2019
 
La réalité augmentée, applications et tendances
La réalité augmentée, applications et tendancesLa réalité augmentée, applications et tendances
La réalité augmentée, applications et tendances
 
Calq de réalité augmentée
Calq  de réalité augmentéeCalq  de réalité augmentée
Calq de réalité augmentée
 
Réalité augmentée
Réalité augmentée Réalité augmentée
Réalité augmentée
 
Prezliftexperience vv4ok 1
Prezliftexperience vv4ok 1Prezliftexperience vv4ok 1
Prezliftexperience vv4ok 1
 
Alutec - Les lunettes hightech
Alutec - Les lunettes hightechAlutec - Les lunettes hightech
Alutec - Les lunettes hightech
 
Augmented Reality
Augmented RealityAugmented Reality
Augmented Reality
 
Réalité augmentée
Réalité augmentéeRéalité augmentée
Réalité augmentée
 
Lightning Talks Réalité Augmentée
 Lightning Talks Réalité Augmentée Lightning Talks Réalité Augmentée
Lightning Talks Réalité Augmentée
 
Dossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTimeDossier de Conception d'OPI - DreamTime
Dossier de Conception d'OPI - DreamTime
 

Article IEEE

  • 1. Retour haptique d’un monde virtuel A. Usta R. David-Leguillou H. Ait Brik Y. Akadiri F. Dam K. Rahetilahy O. Guerrida I. Diallo Abstract— La r´ealit´e virtuelle est un domaine en pleine ex- pansion depuis ces derni`eres ann´ees. De l’industrie du jeu-vid´eo aux grands laboratoires de recherche, nous pouvons trouver une infinit´e d’applications `a la r´ealit´e virtuelle. Cependant, l’immersion n’est jamais totale, c’est pourquoi nous avons imagin´e un dispositif de retour haptique pour accentuer cette immersion notamment en utilisant des haut-parleurs pour simuler le ressenti de textures. I. INTRODUCTION A. Haptique et r´ealit´e virtuelle La r´ealit´e virtuelle se base sur le principe suivant : g´en´erer une sc`ene virtuelle dans le but d’immerger l’utilisateur et de l’isoler du monde r´eel. Pour ce faire, la projection de la sc`ene sur un simple ´ecran ne suffit ´evidemment pas : un casque de r´ealit´e virtuelle (aussi appel´e ”casque VR”) est donc n´ecessaire. Avec la d´emocratisation de ce nouveau dispositif (cf. Oculus Rift de FaceBook), il est aujourd’hui beaucoup plus simple de se procurer un casque VR. Cependant, comme dit dans l’abstract de cet article, le casque VR seul ne suffit pas `a immerger l’utilisateur dans le monde virtuel : les diff´erents ressentis comme le toucher ne sont pas disponibles, rendant l’exp´erience d’immersion incompl`ete. C’est donc dans ce contexte qu’intervient l’haptique : l’id´ee est ici d’ajouter des dispositifs compl´ementaires `a l’utilisateur pour qu’il puisse avoir un retour haptique de la sc`ene dans laquelle il est immerg´e. B. ´Etat de l’art Il existe diff´erents dispositifs de retour haptique dans la litt´erature, nous ne citerons ici que les plus pertinents par rapport `a notre application : le ressenti du toucher d’objets et de textures. Un premier exemple de retour haptique consiste `a utiliser un produit connu : le Novint Falcon. Ce dispositif permet de faire ressentir `a l’utilisateur un retour de force d’une sc`ene virtuelle. C’est donc dans ce contexte que les chercheurs Pierre Renon, Chenguang Yang et Rongxin Cui ont d´evelopp´e un syst`eme de retour haptique avec ce Falcon et le simulateur iCub [1]. Un second exemple de dispositif a ´et´e propos´e par Adiyan Mujibiya de l’Institut de Technologie de Rakuten (Japon) : l’id´ee est d’utiliser des d´echarges ´electrostatiques pour donner `a l’utilisateur la sensation de toucher d’un objet [2]. Un dernier exemple (parmi tant d’autres) a ´et´e donn´e par Tatsuya Koyama, Ikuo Yamano, Kenjiro Takemura et Takashi Maeno : leur dispositif est un exosquelette permettant de donner un retour de force sur les doigts, dans le but de faire de la t´el´eop´eration (op´eration contrˆol´ee `a distance) [3]. C. But du projet Ces dispositifs ont tous un point commun, `a savoir donner une illusion de toucher ou de retour de force synchronis´ee avec la sc`ene virtuelle. Le dispositif que nous proposons dans le cadre de ce projet est le suivant : nous voulons stimuler le bout de chaque doigt de la main droite avec des petits haut-parleurs de quelques Watts. En envoyant des signaux appropri´es sur chaque haut-parleur, le tout synchronis´e avec la sc`ene virtuelle, nous pouvons ressentir le toucher de diff´erentes textures (bois, verre, papier, aluminium, etc). Avec cette technique, la seule limitation dans le type de texture que l’on va toucher dans la sc`ene virtuelle est la g´en´eration de signaux ad´equats `a envoyer au dispositif. Lors de ce projet, nous avons d´evelopp´e plusieurs sc`enes virtuelles, et en parall`ele nous avons d´evelopp´e le dispositif de retour haptique. Pour retranscrire les mouvements de l’utilisateur dans la sc`ene virtuelle, plusieurs capteurs ont ´et´e utilis´e : une Kinect v1 pour les mouvements de l’utilisateur, un leap Motion pour capter les mouvements des mains, et le casque de r´ealit´e virtuelle pour immerger l’utilisateur dans la sc`ene virtuelle, celui-ci captant aussi les mouvements de la tˆete. Le couplage de tous ces dispositifs a ´et´e r´ealis´e sous Unity 5.2.2f1. Les r´esultats de ce projet sont donn´es en conclusion. Fig. 1. Dispositif final II. INTERACTION A. Casque OSVR L’OSVR (Open Source Virtual Reality), en plus d’ˆetre un casque de r´ealit´e virtuelle, est un projet open source, d’environnement au niveau mat´eriel logiciel pour la r´ealit´e virtuelle, ax´ee pour le jeu vid´eo [4].
  • 2. Le casque est compos´e de : • Un module d’affichage avec un ´ecran OLED de 5,5 pouces avec une r´esolution de 401 PPI • Un dispositif optique constitu´e de lentilles ajustables • Un circuit ´electronique avec un acc´el´erom`etre et un gyroscope int´egr´e pour reproduire les mouvements de la tˆete. La r´ealit´e virtuelle est une simulation interactive immer- sive d’un environnement virtuel. L’utilisateur voit la sc`ene virtuelle en vision st´er´eoscopique. Il y aura deux images d´ecal´ees l’une par rapport `a l’autre qui correspond `a deux points de vue des yeux de l’observateur pour retourner une notion de profondeur. Le casque se base sur cette technologie de st´er´eo-vision et d’un tracking de la position de la tˆete de l’utilisateur. Du fait que le projet soit ouvert au grand public, en terme de com- patibilit´e et de configuration, l’OSVR poss`ede d´ej`a plusieurs kits pr´ed´efinis selon les plateformes de d´eveloppement 3D. Nous avons d´ecid´e de choisir ce mod`ele d’appareil du fait de son prix abordable par rapport aux autres mod`eles de casque VR et qu’il disposait d´ej`a en option le capteur Leap Motion, qui s’accroche sur le casque, pour permettre une reconnaissance du mouvement des mains. B. Leap Motion Afin d’augmenter l’immersion dans un monde virtuel, il est important de pouvoir interagir avec ses objets, notamment avec nos propres mains. Le Leap Motion [5] est un appareil permettant cela. Il s’agit d’un dispositif de reconnaissance de mouvements des mains compos´e de deux cam´eras et de trois LED infrarouges, qui se connecte `a un ordinateur en USB. Ses cam´eras peuvent d´etecter de la lumi`ere infrarouge de 850 nm de longueur d’onde, ce qui est en dehors du spectre visible. Grˆace `a ses lentilles grand angle, le Leap Motion a un champ d’interaction de 0,22 m3 [6]. Ce champ, ayant la forme d’un t´etra`edre invers´e, correspond `a l’intersection des champs de vision des deux cam´eras. Utilis´e dans une sc`ene virtuelle, le Leap Motion nous permet de voir et de contrˆoler une repr´esentation en 3D de nos mains afin d’interagir avec les diff´erents objets de la sc`ene. C. Kinect v1 La Kinect a pour but de transposer notre d´eplacement du monde r´eel au monde virtuel. Ainsi, il est possible de cartographier avec pr´ecision la distance pour tout objet ou personne ´eloign´e de 1,5 `a 2 m`etres de la cam´era jusqu’`a environ 4-5 m`etres de profondeur. La technologie embarqu´ee qui nous int´eresse dans le cadre de notre projet est le ” 3D depth sensor ”, qui est compos´e d’une part d’un ´emetteur IR (l’avantage de l’´emetteur IR est de pouvoir jouer dans toutes les conditions de luminosit´e) et d’autre part d’une Cam´era IR. Dans notre cas, la sc`ene contenant le joueur sera expos´ee aux rayons infrarouges de l’´emetteur IR, une partie de ces rayonnements va ˆetre r´efl´echie par l’ensemble des surfaces touch´ees, ainsi plus l’objet sera loin et plus la quantit´e de rayonnement infrarouge r´efl´echie (renvoy´ee vers la cam´era IR) sera faible, `a l’inverse, plus l’objet sera proche et plus la quantit´e de rayonnement infrarouge r´efl´echie sera importante. La cam´era infrarouge va alors mesurer la distance de l’objet en fonction de l’intensit´e. Ensuite, ce sont les logiciels qui vont effectuer le traitement des images rec¸ues, en permettant la reconnaissance des diff´erentes parties du corps par exemple, ce qui permet dans notre cas de suivre des d´eplacements lat´eraux. Fig. 2. Les 3 capteurs : OSVR, Leap Motion, Kinect v1 III. SC `ENE VIRTUELLE A. Int´erˆet de chaque sc`ene 1) Sc`ene d’entr´ee - le digicode: La premi`ere sc`ene virtuelle dans laquelle nous souhaitons que les utilisateurs commencent l’exp´erience comporte un digicode donnant acc`es `a la sc`ene suivante. En effet, sans ˆetre une tˆache trop difficile, le fait de devoir appuyer sur des touches demande une certaine pr´ecision et leur permet donc de se familiariser avec l’utilisation de leurs mains dans une sc`ene virtuelle. Cette sc`ene constitue ´egalement un tr`es bon test du dispositif de retour haptique. Ici, on ne prˆete pas attention au mat´eriau des touches, on veut simplement ressentir la sensation d’avoir touch´e un corps solide. Fig. 3. Sc`ene pr´esentant le digicode 2) Appartement: Afin de fournir un retour haptique plus r´ealiste, nous avons essay´e de mod´eliser une sc`ene virtuelle compos´ee d’objets vari´es et dans lequel l’utilisateur sera immerg´e et pourra se d´eplacer `a sa guise. La conception de la sc`ene finale se focalise sur le renforcement du sentiment de la pr´esence de l’utilisateur dans l’environnement virtuel en plus du retour haptique. Chaque objet mod´elis´e traduit une texture pr´ecise et doit avoir sa forme r´eelle pour garder l’illusion. Les mod`eles
  • 3. d’objets quotidiens aux formats 3D pr´esents dans la sc`ene sont d´ej`a disponibles sous formes de pr´efabriqu´es en ligne. Nous avons rajout´e sur ces ´el´ements les diff´erentes textures et couleurs. Nous avons mod´elis´e la sc`ene en plusieurs pi`eces `a part enti`ere d’une dimension sp´ecifique [2x2m] pour pouvoir d´elimiter dans le virtuel la distance dont pourra se mouvoir l’utilisateur dans le r´eel. L’int´erˆet de cette sc`ene r´eside dans le fait qu’elle regroupe un large panel d’objets que l’on rencontre dans la vie quotidienne (table, chaise, plastique, etc). L’utilisateur pourra donc toucher des mat´eriaux diff´erents, et donc avoir un retour haptique en fonction de l’objet touch´e. 3) Fontaine et sable: Nous avons d´evelopp´e en parall`ele une sc`ene permettant de toucher du sable et de l’eau. La sc`ene est donc constitu´ee d’un d´esert avec une fontaine et un sablier renvers´e. L’utilisateur peut se d´eplacer `a l’aide des touches directionnelles ou avec la Kinect. En touchant l’eau de la fontaine, il peut entendre le son de l’eau en train de couler et ressentir les particules d’eau, il en est de mˆeme pour le sable. L’eau a ´et´e obtenue via un plugin permettant de cr´eer des particules, il a fallu changer les param`etres et cr´eer un script pour l’interaction avec la leap motion. Pour le sable il en est de mˆeme. Le d´esert et le sablier proviennent d’un autre projet en utilisation libre et ont ´et´e modifi´es pour le projet. B. Mod´elisation des sc`enes La mod´elisation des sc`enes a ´et´e r´ealis´ee sous Unity. Unity est un logiciel de conception qui permet de d´evelopper des sc`enes en 2D et en 3D. L’ensemble de nos sc`enes avec les diff´erentes textures ont ´et´e r´ealis´e avec ce logi- ciel. La r´ealisation des sc`enes a ´et´e r´ealis´ee en important et en adaptant des ´el´ements de diff´erents projets depuis l’AssetStore d’Unity. Les objets plac´es sur la sc`ene (cam´era, lumi`ere, gamme objets et textures) pourront ˆetre positionn´es, manipul´es et anim´es. La g´en´eration de particules dynamiques (sable et eau) a ´et´e r´ealis´ee `a partir du plugin Fluvio. IV. RETOUR HAPTIQUE A. Dispositif de retour haptique Le dispositif de retour haptique imagin´e et largement inspir´e de la litt´erature est compos´e de petits hauts-parleurs plac´es sur les extr´emit´es de chaque doigt de la main droite. Rappelons-le, le retour haptique consiste `a faire vibrer les hauts-parleurs lorsqu’il y a collision entre la main droite et les objets de la sc`ene virtuelle. Les vibrations d´ependent du type d’objet touch´e, et du type de contact (toucher statique ou dynamique). Les hauts-parleurs sont en contact direct avec les doigts de la main, les vibrations des membranes des hauts-parleurs sont donc directement transmises aux doigts, donnant l’illusion de toucher. Les hauts-parleurs ont ´et´e choisi en ad´equation avec les bandes de fr´equences des signaux `a envoyer : 50 Hz Fig. 4. Illustration du dispositif de retour haptique `a 1 kHz. Ceux-ci doivent donc pouvoir reproduire d’assez basses fr´equences, avec un certain gain. Apr`es une ´etude des diff´erents mini hauts-parleurs pr´esents sur le march´e, et dans un soucis de budget limit´e, nous avons opt´e pour des hauts- parleurs Visaton K28.40, d’une puissance de 2 Watts, ce qui est suffisant pour avoir un ressenti des vibrations sans que ce soit d´esagr´eable. Ce mod`ele de haut-parleur peut descendre jusqu’`a 80 Hz sans ˆetre att´enu´e, ce qui conviendra. Le dispositif est aliment´e par des amplificateurs audio simples r´ealis´es par nos soins, et les signaux proviendront soit de la sc`ene virtuelle directement (donc de Unity), soit par l’interm´ediaire d’un micro-contrˆoleur. Dans le premier cas de figure, les signaux sont envoy´es de mani`ere synchrones via le PC o`u la sc`ene virtuelle est jou´ee. Dans le second cas de figure, les signaux sont stock´es sur le micro-contrˆoleur, et envoy´es de mani`ere synchrones lorsqu’il y a collision. Le micro-contrˆoleur est donc reli´e au PC par une liaison s´erie simple, et un protocole de communication simple a ´et´e mis en place pour savoir quel signal doit ˆetre envoy´e et sur quel haut-parleur il doit ˆetre envoy´e. B. Rendu des textures Concernant le rendu de textures, nous avons g´en´er´e pour chacune des texture un signal diff´erent et ad´equat. Concer- nant la 1`ere sc`ene avec le digicode, nous avons cr´e´e un sinus de fr´equence suffisamment grande (quelque peu inf´erieur au kHz) pour que le doigt ne ressente pas de vibrations, mais uniquement une pression continue. Concernant le rendu de textures d’eau ou de sables, nous avons d´ecid´e de prendre un signal audio de ces textures en train de couler, de les traiter, et de les rendre sur les hauts parleurs. Enfin, pour la sc`ene finale, nous nous sommes servis d’un appareil pouvant enregistrer les forces tangentielles [7] (forces que le doigt ressent le plus) ´emises sur le doigt lors d’un frottement sur une texture, afin d’obtenir les signaux repr´esentant les forces lors de frottements. Apr`es un filtrage passe bande adapt´e et une amplification, ces signaux peuvent ˆetre transmis aux hauts parleurs. Nous pouvons ainsi simuler dans notre sc`ene diff´erents mat´eriaux, que nous avons pris discriminants, tels que du plexiglas, du tapis, de l’aluminium rainur´e, etc pour que leur diff´erences de rugosit´e nous permettent d’avoir la meilleure discrimination possible. [8]
  • 4. C. Int´egration Une fois que tous les dispositifs sont correctement cal- ibr´es et fonctionnels, l’´etape ultime est de pouvoir les coupler ensemble pour avoir un syst`eme d’immersion et de retour haptique fonctionnel. Comme expliqu´e dans les parties pr´ec´edentes, les diff´erents capteurs utilis´es (Leap Motion, Kinect, Casque VR) ont ´et´e coupl´es, permettant ainsi l’immersion de l’utilisateur d’une part, et la capture de ses gestes et d´eplacements dans la sc`ene virtuelle. Le dispositif haptique est ensuite coupl´e `a la sc`ene virtuelle selon deux modes de fonctionnement possibles pour permettre une ex- citation des doigts synchronis´ee avec la sc`ene virtuelle. V. R ´ESULTATS ET CONCLUSIONS En conclusion, ce projet a d´emontr´e qu’il ´etait possible de donner l’illusion de sensation de toucher venant d’un monde virtuel. La 1`ere sc`ene avec le digicode a bien montr´e que nous ´etions capable de rendre un toucher statique sur un ou plusieurs doigts, s’att´enuant au cours du temps pour bien simuler un r´egime transitoire. La 2`eme sc`ene, quant `a elle, a ´et´e limit´e a des liquides/syst`emes granulaires coulant sur la main, et non enti`erement libres, par question de temps, mais donnait un rendu d’eau ´eclaboussant sur les doigts assez convaincant. Enfin, la 3`eme sc`ene a permis de terminer le test sur l’ensemble des touchers possibles, avec des frottements sur textures plus ou moins rugueuses, et donnait une v´eritable impression de frottement, du au fait que nous voyons ce que nous touchons, et que nous avons ´egalement un petit rendu sonore du dit frottement pour compl´eter l’illusion et mettre en jeu les 3 sens. Pour conclure, ces travaux pourront servir `a l’avenir pour le d´eveloppement de sc`enes virtuelles interactives, o`u le toucher pourra venir s’ajouter `a la vue et `a l’ou¨ıe. VI. REMERCIEMENTS Ces travaux ont ´et´e encadr´es par Monsieur Vincent HAY- WARD, dans le cadre du projet int´egratif de 2`eme ann´ee du Master ”Ing´enierie des Syst`emes Intelligents” de l’Universit´e Pierre et Marie Curie. Nous tenons ´egalement `a remercier les doctorant(e)s et/ou chercheurs de l’ISIR et de l’IRCAM ayant pu apporter leurs conseils quant `a ce projet, et aussi les techniciens des salles de travaux pratiques pour leurs aides concernant les aspects techniques du projet. REFERENCES [1] P. Renon, C. Yang, H. Ma, and R. Cui, “Haptic interaction between human and virtual iCub robot using Novint Falcon with CHAI3D and MATLAB,” in Control Conference (CCC), 2013 32nd Chinese, 2013, pp. 6045–6050. [2] A. Mujibiya, “Haptic feedback companion for Body Area Network using body-carried electrostatic charge,” in 2015 IEEE International Conference on Consumer Electronics (ICCE), 2015, pp. 571–572. [3] T. Koyama, I. Yamano, K. Takemura, and T. Maeno, “Multi-fingered exoskeleton haptic device using passive force feedback for dexterous teleoperation,” in IEEE/RSJ International Conference on Intelligent Robots and Systems, 2002, 2002, vol. 3, pp. 2905–2910 vol.3. [4] “Razer — OSVR - Open-Source Virtual Reality for Gaming,” Razer. [Online]. Available: http://www.osvr.org/. [Accessed: 23-Jan-2016]. [5] L. Motion, “Leap Motion.” [Online]. Available: https://www.leapmotion.com/. [Accessed: 23-Jan-2016]. [6] “How Does the Leap Motion Controller Work?,” Leap Motion Blog, 09-Aug-2014. [Online]. Available: http://blog.leapmotion.com/hardware-to-software-how-does-the- leap-motion-controller-work/. [Accessed: 23-Jan-2016]. [7] J. Platkiewicz, A. Mansutti, M. Bordegoni, and V. Hayward, “Record- ing Device for Natural Haptic Textures Felt with the Bare Fingertip,” in Haptics: Neuroscience, Devices, Modeling, and Applications, M. Auvray and C. Duriez, Eds. Springer Berlin Heidelberg, 2014, pp. 521–528. [8] A. M. Smith, C. E. Chapman, M. Deslandes, J.-S. Langlais, and M.- P. Thibodeau, “Role of friction and tangential force variation in the subjective scaling of tactile roughness,” Exp Brain Res, vol. 144, no. 2, pp. 211–223, May 2002.