Les tests d’utilisabilité à l’ère de l’Internet ubiquitaire - ARIM - MRIA - 3 juin 2011

1,614 views

Published on

Dans un contexte d’Internet ubiquitaire (le web partout à la fois tout le temps), quel est le rôle des tests d’utilisabilité et des tests de l’expérience utilisateur pour votre organisme ou entreprise? Même si la notion traditionnelle d’utilisateur est en très bonne voie de se transformer en une notion d’acteur, de créateur et de vecteur de l’information, les tests utilisateurs conservent et voient même croître leur pertinence. Comment déterminer le bon moment pour les utiliser, parmi d’autres méthodes et outils de captation des données utilisateur?

* quelle est la différence entre utilisabilité et expérience utilisateur?
* dans un monde connecté en permanence et aux multiples points de contact, quelle est la place des tests?
* développer pour des plateformes (mobilité, réseaux sociaux, web, iPad) ou pour des contextes d'utilisation?
* tests utilisateur à distance, en laboratoire, in situ : lesquels choisir?
* tester auprès de différents profils (âges variés jeunes/aînés, compétences variées en navigation Web; professionnels/grand public, client/citoyen, employés/employeurs/partenaires; accessibilité).

L'objectif principal de cette présentation est de démystifier le rôle des tests d’utilisabilité et des tests de l’expérience utilisateur, de sensibiliser à cette méthode dans le cycle de développement, afin de (mieux) les utiliser pour évaluer votre site Web (ou autre produit interactif – téléphone intelligent par exemple) auprès des utilisateurs, en cours de design et après la mise en ligne. Après avoir validé votre produit ou prototype «dans le monde réel», vous êtes en mesure de faire des ajustements basés sur des données réelles d’usage, en combinaison avec d’autres outils de captation des données utilisateur (analytique Web, sondages en ligne), en vue de l'améliorer et de l’optimiser. Le but ultime étant d’offrir aux clients/utilisateurs finaux une expérience utile, efficace et agréable dans un espace interactif convivial répondant à ses besoins, au moment et par le canal de son choix.

À l’aide d’exemples concrets, Nathalie Berger présente pourquoi, quand et comment utiliser les tests d’utilisabilité et les tests de l’expérience utilisateur.

Published in: Technology, Business
0 Comments
1 Like
Statistics
Notes
  • Be the first to comment

No Downloads
Views
Total views
1,614
On SlideShare
0
From Embeds
0
Number of Embeds
4
Actions
Shares
0
Downloads
17
Comments
0
Likes
1
Embeds 0
No embeds

No notes for slide

Les tests d’utilisabilité à l’ère de l’Internet ubiquitaire - ARIM - MRIA - 3 juin 2011

  1. 1. Les
tests
d’u)lisabilité
à
l’ère
de
l’Internet
ubiquitaire: toujours
per)nents
pour
les
u)lisateurs
et
vous
? Pourquoi,
quand
et

comment
procéder
? Nathalie
Berger Experte
en
expérience
u:lisateur
(UX) Présidente,
Idéac:f
Conseil 
et
U:lisabilité
Québec 3
juin
2011
  2. 2. À
propos
de
Nathalie
Berger • Présidente,
Idéac:f
Conseil • Présidente,
U:lisabilité
Québec
‐
sec:on
québécoise
du
Usability Professionals’
Associa:on
(UPA) • Ambassadrice
Montréal
pour
le
réseau
interna:onal
UX
Network • Membre
du
groupe
dintérêt
sur
les
interfaces
u:lisateurs
(SIGCHI)
de lAssocia:on
for
Compu:ng
Machinery
(ACM) • Maîtrise,
Sciences
de
la
communica:on
de
l’U
de
M;
Spéc.
en
sciences cogni:ves – Diplômée
d’honneur
2007
(FAS)
et
2010
(département
de
communica:on) • Expérience
professionnelle
: – 17
ans
de
planifica:on,
concep:on,
évalua:on
et
ges:on
de
sites
d’envergure – Cosseae
interac:f
et
groupe
Télécom
de
Cosseae – Néomédia,
Cybermédia
et
eMarke:ng – Nombreux
prix
et
dis:nc:ons
de
l’industrie – Créa:on
d’Idéac:f
Conseil
en
1999Nathalie.Berger@ideactif.com twitter: @nathalieberger ideactif.com/blogue/author/nberger
  3. 3. Qui
est
Idéac:f
?• Entreprise
fondée
en
1999
à
Montréal• Première
société‐conseil
au
Québec
à
promouvoir
une approche
de
design
web
centré
sur
l’u:lisateur• Deux
associés
fondateurs: – Nathalie
Berger,
17
ans
d’expérience
avec
Internet – Jean‐François
Pe:t,
18
ans
d’expérience
avec
Internet – Noyau
d’experts
et
un
réseau
de
spécialistes• Plus
de
350
projets
réalisés
pour
plus
de
70
entreprises
et organismes
de
toutes
tailles• Clientèle
d’envergure:
Gouvernement,
Radio‐Canada,
AXA,
CSST,
ONF, SSQ
Groupe
financier,
Bell,
Astral
Media,
Centre
des
sciences,
etc.• Expérience
diversifiée
:
gouvernemental,
ins:tu:onnel,
éduca:f,
informa:onnel, transac:onnel,
libre
service,
interfaces
persuasives,
mul:plateformes
  4. 4. Plan
de
la
présenta)on•
Objec:f
principal•
Défini:ons
et
contexte•
Des
exemples
concrets•
Ques:ons
et
discussions
  5. 5. Objec)f
de
la
présenta)on Démys:fier
le
rôle
des
tests
d’u:lisabilité
et
des
tests
de l’expérience
u:lisateur, et
sensibiliser
à
ceae
méthode
qui
s’inscrit
dans
le
cycle
de développement, afin
de
(mieux)
les
u:liser
pour
évaluer
votre
site
Web
ou
autre produit
interac:f
(mobile
par
exemple)
auprès
des
u:lisateurs,
en cours
de
design
et
après
la
mise
en
ligne.
  6. 6. Quelle
est
la
différence
entre
u:lisabilité
et expérience
u:lisateur?
  7. 7. U)lisabilité
:
simplicité
d’usage Métaphore
de
la
route: u)lisabilité
=
autorouteUne
autoroute
est
un
bon
exemple
des
principes
d’u:lisabilité
appliqués
aux
routes
:• elle
demande
moins
d’efforts
mentaux
(car
elle
est
large
et
rec:ligne)• elle
occasionne
moins
d’erreurs
(car
toutes
les
voitures
y
roulent
dans
le
même
sens)• elle
est
plus
produc:ve
(on
y
roule
plus
vite
et
toutes
les
aires
de
repos
se
ressemblent)• etc. * Analogie de Thomas Baekdal via Fred Cavazza.
  8. 8. Expérience
u)lisateur
:
plaisir
d’usage Métaphore
de
la
route: XU
=
route
de
campagneUne
pe:te
route
de
campagne
illustre
bien
l’expérience
u:lisateur
:• elle
est
visuellement
agréable
(paysages)• elle
procure
de
belles
sensa:ons
(visuelles,
olfac:ves,
…)• elle
suscite
l’intérêt
(par
la
diversité
des
villes
traversées)• etc.
  9. 9. Trouver
l’équilibre,
créer
une
synergie Avenida Las Palmas: l’autoroute entre Puerta Vallarta et la Marina, aéroport et Nuevo Vallarta Dosage judicieux de l’utilisabilité et de l’expérience utilisateur.
  10. 10. Trouver
l’équilibre,
créer
une
synergie iPod Touch : Concilier l’utilisabilité et l’expérience utilisateur.
  11. 11. Tout
dépend
du
contexte
d’usageCompléter
la
tâche
avec
succès
VS
éprouver
du plaisir
en
l’accomplissant?• S’il
s’agit
d’une
applica:on
d’entreprise,
on
privilégiera
l’u:lisabilité• Un
site
de
marque
qui
donne
à
voir
l’image
de
marque
privilégiera
plus
souvent
l’XU• S’il
s’agit
d’un
service
grand
public,
on
fera
en
fonc:on…
c’est
selon• Plusieurs
contextes
profitent
d’un
bon
équilibre
des
deux.• Bref,
il
faut
user
de
beaucoup
de
jugement
et
calibrer
au
cas
par
cas.
  12. 12. Tout
dépend
du
but
de
l’u)lisateurAaeindre
son
but,
même
si
c’est
plus
long,
moins
efficient?Si
la
sa:sfac:on
et
l’intérêt
y
sont,
pourquoi
pas?
Mais
ce
n’est
pas
toujours
le
cas…• Pour
un
service
en
ligne
à
u:liser
de
façon
intensive,
on
privilégiera
l’efficacité (pour
une
tâche
répé::ve,
si
c’est
trop
long,
le
plaisir
décroît
au
profit
de
la
frustra:on)• Plusieurs
contextes
profitent
d’un
bon
équilibre
des
deux.• Bref,
il
faut
user
de
beaucoup
de
jugement
et
calibrer
au
cas
par
cas.• Pas
de
receae
unique.
Trouver
la
balance… Pour
augmenter
nos
chances
de
succès,
ça
demande
une
certaine
attude,
une
approche holis:que,
la
triangula:on
des
données
de
recherche
et
de
la
réflexion.
  13. 13. Expérience
u)lisateur
/
client• Concept
élargi
de
l’ergonomie
cogni:ve• Mesure
non
seulement
l’u:lisabilité,
mais
également
l’u:lité,
la compréhension
et
l’apprécia:on
générale• En
plus,
confiance,
iden:fica:on,
plaisir,
sa:sfac:on,
émo:ons,
taux
de conversion• Comprend
toutes
les
interac:ons
qu’un
u:lisateur
a
avec
une
entreprise,
de
la vente
du
produit/service
jusqu’au
service
après‐vente.
Le
vécu
global.• *
L’XU
ne
palie
pas
les
manques
de
l’u:lisabilité.
À
la
limite
«la
force
du concept»
(facebook,
ebay)
et
la
qualité
du
contenu
peuvent
compenser
un manque
d’u:lisabilité.
  14. 14. Notre
vision
de
l’évalua)on
et
des
tests• L’u:lisabilité
est
l’une
des
composantes
de
l’XU• L’expérience
totale
doit
être
évaluée,
non
seulement
l’u:lisabilité – L’u:lité,
la
compréhension
et
l’apprécia:on
générale
comptent
tout
autant – Il
faut
tenir
compte
des
aspects
de
marke:ng,
de
communica:on
et
de
design – Inclure
toutes
les
interac:ons
qu’un
u:lisateur
a
avec
une
entreprise,
de
la
vente
du produit/service
jusqu’au
service
après‐vente.
Le
vécu
global.• Évaluer
n’est
pas
suffisant,
il
faut
également
savoir
concevoir – Pour
fournir
des
pistes
de
recommanda:on
concrètes,
per:nentes
et
rapidement opéra:onnalisables.
  15. 15. Extraits
vidéos
de
tests
u)lisateurs Visionnement
de
quelques
clips… SVP,
portez
aaen:on
aux
problèmes
 d’u:lisabilité/UX
que
vous
observez. Je
vais
vous
demander
de
m’en
parler.
  16. 16. Problèmes
de
performance
souvent formulés
comme...• Nous
ne
sommes
pas
sa:sfaits
de
notre
site• On
n’aime
pas
notre
page
d’accueil• Le
site
de
nos
compé:teurs
est
plus
beau• Nos
visiteurs
se
plaignent• Nos
annonceurs
sont
insa:sfaits
du
taux
de clics,
ils
voudraient
plus
d’espace
  17. 17. Problèmes
de
performance
rarement formulés
comme...• On
voudrait
que
notre
page
d’accueil
ait
un
meilleur
taux
de
clics• Le
nombre
de
visiteurs
uniques
est
à
la
baisse• Nos
visiteurs
ne
reviennent
pas
assez
souvent• Les
visiteurs
qui
font
une
recherche
dans
notre
site
quiaent
souvent
sans consulter
une
seule
page• Le
cheminement
vers
nos
pages
les
plus
importantes
pourrait
être
plus
court• Les
visites
provenant
des
moteurs
externes
(Google,
etc.)
ne
sont
pas
générées par
les
mots‐clés
qu’on
souhaiterait• Les
visites
générées
par
notre
campagne
PPC
quiaent
rapidement
le
site
et
voient très
peu
de
pages• Le
nombre
de
visiteurs
qui
se
rendent
sur
notre
page
contact
est
très
bas• Le
nombre
d’ar:cles
lus
par
visite
est
inférieur
à
nos
aaentes• Le
taux
de
rebond
est
trop
élevé
sur
nos
pages
de
des:na:on
les
plus
populaires• Le
temps
de
visite
moyen
est
plus
bas
que
la
norme
de
notre
industrie• Le
nombre
de
visites
provenant
de
pays
que
nous
ne
desservons
pas
est
trop élevé
  18. 18. Quelle
est
la
différence?• Le
deuxième
groupe
est
à
l’intersec:on
de plusieurs
dimensions – la
raison
d’être
du
site
et
de
ses
composantes
(i.e
des objec:fs
d’affaires
mesurables) – les
besoins
réels
et
évolu:fs
de
la
clientèle – les
ressources
disponibles
(budget,
compétences)• Le
problème
offre
des
pistes
de
solu:on
dès
sa formula:on
  19. 19. Une
page
Web
en
2011?– Pièce
d’un
immense
puzzle
qui
prend
de
la
valeur
avec
le
temps propor:onnellement
aux
nombre
de
rela:ons
externes
que vous
ne
contrôlez
pas
et
que
vous
devez
maintenir: • Moteurs
(Google) • Sites
collec:fs
(facebook,
linkedin,
twiaer,
digg,
delicious) • Sites
individuels
(amis,
partenaires,
répertoires,
références) • Vos
visiteurs
(signets,
habitudes
de
naviga:on)
  20. 20. Mais
pourquoi
devrais‐je
prendre
le
temps de
faire
des
tests
dans
le
cadre
de
mon projet?
  21. 21. Objec:ons
courantes
des
clients • Non
merci,
on
n’a
pas
le
temps
de
faire
ça • Non
merci,
on
n’a
pas
le
budget
pour
faire
ça • Merci,
mais
on
ne
comprend
pas
ce
que
vous
dites • Notre
équipe
interne
a
développé
une
«
méthodologie
»
qui
a éliminé
ceae
fâcheuse
étape
de
«
valida:on
» • Pas
besoin,
notre designer/rédacteur/programmeur/codeur/intégrateur
a
déjà commencé
à
créer
des
pages
dans
notre
CMS
Whizbang
Machin Web
3.0
et
on
ajustera
après
la
mise
en
ligne • Pas
besoin,
on
connaît
bien
nos
clientèles • Ça
va
brimer
notre
créa:vité
  22. 22. Quelques
arguments
pour
convaincre… • Intrant
riche
pour
comprendre
le
comportement
de
nos
clients
avec niveau
de
risque
($$)
très
bas
(ra:o
coût/bénéfice
très
avantageux) • Processus
itéra:f
accessible
à
tous
avec
des
ou:ls
simples
(on
fait circuler
et
évaluer
des
PDF,
ppt,
prototype
en
ligne
ou
papier) • Bonne
planifica:on
=
temps
de
produc:on
réduit
en
misant
plus juste
dès
le
départ
(répond
mieux
aux
besoins
et
aaentes) • Coûts
de
produc:on
et
d’entre:en
subséquents
sont
réduits • «
Passage
au
suivant
»
op:mal
:
designer,
CSS,
HTML,
backend,
sont plus
heureux
et
donc
plus
efficaces • Les
tests
=
des
données
sur
lesquels
s’appuyer
pour
améliorer
le produit,
en
mode
itéra:f, et
ainsi
sa:sfaire
l’u:lisateur
et
aaeindre
nos
objec:fs
d’affaires
  23. 23. Méthodes
de
recherche
u)lisateur Chris:an
Rohrer
:
hap://bit.ly/aEDGCZ
  24. 24. Quelle
méthode
choisir
?
Focus
dis:nctDichotomies Web
Analy)que Expérience
u)lisateurAnalyse
quoi? Le
quoi.
Comportements
u:lisateurs
(qu’est‐ce
qui Le
pourquoi.
Inten:ons
et
mo:va:ons
des se
passe) u:lisateurs
(pourquoi
ces
choses
arrivent)Approche Approche
quan)ta)ve
pour
déterminer
ce
qui Approche
qualita)ve
pour
expliquer
pourquoi
lesemployée
? arrive choses
arriventEssaie
d’aSeindre Aider
l’organisa)on
à
aaeindre
ses
buts
(exprimés Aider
les
u)lisateurs
à
aaeindre
leurs
buts
(exprimésquel
but? en
KPI) en
tâches
or
sujets
d’intérêt)Comment
les Mesurer
la
performance
(analyse
orientée
but) Découvrir
des
paSerns
et
des
surprises
(analysedonnées
sont émergente)u)lisées
?Quel
genre
de Données
sta)s)ques
(«
vraies
»
données
en
grande Données
descrip)ves
(en
pe:t
volume,
générées
endonnées
? quan:té,
parsemées
d’erreurs
;‐) labo,
parsemées
d’erreurs
;‐) Adapté
de
Lou
Rosenfeld,
Beyond
user
research,
avril
2011.
  25. 25. Approche
quan)
ou
quali
? Lou
Rosenfeld,
Beyond
user
research,
avril
2011.
  26. 26. Autres
ou)ls
de
capta)on
des
données Heatmap Tri
de
cartes Tests
A/B Web
Analy:que
  27. 27. Autres
ou)ls
de
capta)on
des
donnéesLe
monitoring
des
médias
sociaux
  28. 28. Quel
échan)llonnage
?
Ça
dépend
du
but Nombre
de But
principal Explica)on par)cipants Poli)que Démontrer
aux
par:es
prenantes
(décideurs,
TI, 2‐3 designers,
etc.)
que
des
problèmes
sérieux
d’u:lisabilité
existent dans
leur
produit.
Démontrer
que
les
tests
peuvent
en
trouver quelques‐uns. Trouver
des Conduire
un
cycle
itéra:f
u:le
:
trouver
des
problèmes
sérieux,
les 4‐8 problèmes
sérieux corriger,
trouver
d’autres
problèmes
sérieux. Trouver
tous
les Trouver
tous
les
problèmes
sérieux
d’u:lisabilité
dans
un
produit Inconnu problèmes
sérieux non‐trivial. Trouver
tous
les Trouver
tous
les
problèmes
d’u:lisabilité
dans
un
produit
non‐ Inconnu problèmes trivial. Mesurer Mesurer
des
paramètres
d’u:lisabilité
clés
(par
exemple
le
temps >
20 l’u)lisabilité pour
compléter
les
tâches
clés
et
la
sa:sfac:on
u:lisateur subjec:ve. Adapté
de
ComparaDve
Usability
EvaluaDon
(CUE)
Studies,
JUS,
mai
2010.
  29. 29. Quel
échan)llonnage
? Le but premier des tests d’utilisabilité est de déceler, dans un prototype ou un site web, le plus grand nombre d’erreurs avec un nombre restreint d’utilisateurs. Diverses méthodes mathématiques ont démontré que le pourcentage d’erreurs décelées dépend en grande partie du nombre d’utilisateurs, tel que le démontre la courbe suivante :
  30. 30. Quel
échan)llonnage
? Les
conclusions
qui
se
dégagent
de
ce
graphique? 
J.
Nielsen
a
démontré
que
des
tests
menés
avec
5
u)lisateurs
(par
profil représenta:f
des
clientèles
u:lisatrices)
permeaent
de
lever
au
moins
80
%
des problèmes
du:lisabilité,
dans
une
op)que
itéra)ve. 
Aussi,
il
n’est
pas
rentable
de
tester
avec
plus
de
8
u:lisateurs
‐
par
profil dis:nct
‐
car
à
par:r
de
ce
point,
le
nombre
d’erreurs
décelées
par
u:lisateur supplémentaire
est
très
faible.
En
fait,
un
test
avec
8
u:lisateurs
permet
de déceler,
dans
des
condi:ons
normales,
92%
des
erreurs.
Avec
15
u:lisateurs, 97%
des
erreurs
sont
décelées,
et
non
100%. 
Cela
signifie
que
pour
découvrir
seulement
5%
d’erreurs
de
plus,
il
faut presque
doubler
le
nombre
de
par:cipants
et
la
prépara:on,
donc
les
coûts.
  31. 31. Développer
pour
des
plateformes
oudes
contextes
d’u)lisa)on
?
  32. 32. Développer
pour
des
plateformes
oudes
contextes
d’u)lisa)on
?• Vision
atomique
dans
laquelle
l’XU
est
conçue
au
cas
par
cas,
pour des
supports
par:culiers• Plutôt
prendre
en
compte
dès
la
concep:on
l’ensemble
des interac:ons
des
u:lisateurs
avec
une
entreprise• Assurer
la
cohérence
dans
tous
les
canaux• Trianguler
les
données
des
u:lisateurs
à
par:r
de
plusieurs
sources• U:lisa:on
conjointe
de
Web
analy:que
et
tests
u:lisateurs
  33. 33. Différentes
portes,
une
des)na)on
principale
  34. 34. ConclusionBien
que
seulement
44%
des
répondants
réalisent
des
tests
u:lisateurs
pour
comprendre
le comportement
des
u:lisateurs… 398
répondants
EU
&
Europe,
Juin
2011
  35. 35. Conclusion La
vaste
majorité
des
répondants
(99%)
les
considèrent
«très
efficaces»
(56%)
ou
assez efficaces
(43%)
pour
comprendre
le
comportement
des
u:lisateurs. 349
répondants
EU
&
Europe Juin
2011.Les
tests
u:lisateurs
sont
considérés
encore
aujourd’hui
comme
la meilleure
méthode
pour
comprendre
le
comportement
des
u:lisateurs.
  36. 36. Conclusion« Connaître et interpréter les comportements et les sentiments des utilisateurs en temps quasi- réel dans le but d’améliorer la qualité de leur expérience devient d’une importance capitale pour les entreprises et les organismes. »• Constamment
et
de
sources
variées,
au
delà
du
labo•
Assurer
la
cohérence
dans
tous
les
canaux
  37. 37. Ques:ons
et
discussion Merci! Nathalie
Berger Idéac:f
Conseil Nathalie.Berger@ideac:f.com
www.ideac:f.com/blogue/author/nberger twiaer.com/nathalieberger www.ideac:f.com

×