Dans un contexte d’Internet ubiquitaire (le web partout à la fois tout le temps), quel est le rôle des tests d’utilisabilité et des tests de l’expérience utilisateur pour votre organisme ou entreprise? Même si la notion traditionnelle d’utilisateur est en très bonne voie de se transformer en une notion d’acteur, de créateur et de vecteur de l’information, les tests utilisateurs conservent et voient même croître leur pertinence. Comment déterminer le bon moment pour les utiliser, parmi d’autres méthodes et outils de captation des données utilisateur?
* quelle est la différence entre utilisabilité et expérience utilisateur?
* dans un monde connecté en permanence et aux multiples points de contact, quelle est la place des tests?
* développer pour des plateformes (mobilité, réseaux sociaux, web, iPad) ou pour des contextes d'utilisation?
* tests utilisateur à distance, en laboratoire, in situ : lesquels choisir?
* tester auprès de différents profils (âges variés jeunes/aînés, compétences variées en navigation Web; professionnels/grand public, client/citoyen, employés/employeurs/partenaires; accessibilité).
L'objectif principal de cette présentation est de démystifier le rôle des tests d’utilisabilité et des tests de l’expérience utilisateur, de sensibiliser à cette méthode dans le cycle de développement, afin de (mieux) les utiliser pour évaluer votre site Web (ou autre produit interactif – téléphone intelligent par exemple) auprès des utilisateurs, en cours de design et après la mise en ligne. Après avoir validé votre produit ou prototype «dans le monde réel», vous êtes en mesure de faire des ajustements basés sur des données réelles d’usage, en combinaison avec d’autres outils de captation des données utilisateur (analytique Web, sondages en ligne), en vue de l'améliorer et de l’optimiser. Le but ultime étant d’offrir aux clients/utilisateurs finaux une expérience utile, efficace et agréable dans un espace interactif convivial répondant à ses besoins, au moment et par le canal de son choix.
À l’aide d’exemples concrets, Nathalie Berger présente pourquoi, quand et comment utiliser les tests d’utilisabilité et les tests de l’expérience utilisateur.
Les tests d’utilisabilité à l’ère de l’Internet ubiquitaire - ARIM - MRIA - 3 juin 2011
1. Les tests d’u)lisabilité à l’ère de l’Internet ubiquitaire:
toujours per)nents pour les u)lisateurs et vous ?
Pourquoi, quand et comment procéder ?
Nathalie Berger
Experte en expérience u:lisateur (UX)
Présidente, Idéac:f Conseil
et U:lisabilité Québec
3 juin 2011
2. À propos de Nathalie Berger
• Présidente, Idéac:f Conseil
• Présidente, U:lisabilité Québec ‐ sec:on québécoise du Usability
Professionals’ Associa:on (UPA)
• Ambassadrice Montréal pour le réseau interna:onal UX Network
• Membre du groupe d'intérêt sur les interfaces u:lisateurs (SIGCHI) de
l'Associa:on for Compu:ng Machinery (ACM)
• Maîtrise, Sciences de la communica:on de l’U de M; Spéc. en sciences
cogni:ves
– Diplômée d’honneur 2007 (FAS) et 2010 (département de communica:on)
• Expérience professionnelle :
– 17 ans de planifica:on, concep:on, évalua:on et ges:on de sites d’envergure
– Cosseae interac:f et groupe Télécom de Cosseae
– Néomédia, Cybermédia et eMarke:ng
– Nombreux prix et dis:nc:ons de l’industrie
– Créa:on d’Idéac:f Conseil en 1999
Nathalie.Berger@ideactif.com twitter: @nathalieberger ideactif.com/blogue/author/nberger
3. Qui est Idéac:f ?
• Entreprise fondée en 1999 à Montréal
• Première société‐conseil au Québec à promouvoir une
approche de design web centré sur l’u:lisateur
• Deux associés fondateurs:
– Nathalie Berger, 17 ans d’expérience avec Internet
– Jean‐François Pe:t, 18 ans d’expérience avec Internet
– Noyau d’experts et un réseau de spécialistes
• Plus de 350 projets réalisés pour plus de 70 entreprises et
organismes de toutes tailles
• Clientèle d’envergure: Gouvernement, Radio‐Canada, AXA, CSST, ONF,
SSQ Groupe financier, Bell, Astral Media, Centre des sciences, etc.
• Expérience diversifiée : gouvernemental, ins:tu:onnel, éduca:f, informa:onnel,
transac:onnel, libre service, interfaces persuasives, mul:plateformes
7. U)lisabilité : simplicité d’usage
Métaphore de la route:
u)lisabilité = autoroute
Une autoroute est un bon exemple des principes d’u:lisabilité appliqués aux routes :
• elle demande moins d’efforts mentaux (car elle est large et rec:ligne)
• elle occasionne moins d’erreurs (car toutes les voitures y roulent dans le même sens)
• elle est plus produc:ve (on y roule plus vite et toutes les aires de repos se ressemblent)
• etc.
* Analogie de Thomas Baekdal via Fred Cavazza.
8. Expérience u)lisateur : plaisir d’usage
Métaphore de la route:
XU = route de campagne
Une pe:te route de campagne illustre bien l’expérience u:lisateur :
• elle est visuellement agréable (paysages)
• elle procure de belles sensa:ons (visuelles, olfac:ves, …)
• elle suscite l’intérêt (par la diversité des villes traversées)
• etc.
9. Trouver l’équilibre, créer une synergie
Avenida Las Palmas: l’autoroute entre Puerta Vallarta et la Marina, aéroport et Nuevo Vallarta
Dosage judicieux de l’utilisabilité et de l’expérience utilisateur.
11. Tout dépend du contexte d’usage
Compléter la tâche avec succès VS éprouver du
plaisir en l’accomplissant?
• S’il s’agit d’une applica:on d’entreprise, on privilégiera l’u:lisabilité
• Un site de marque qui donne à voir l’image de marque privilégiera plus souvent l’XU
• S’il s’agit d’un service grand public, on fera en fonc:on… c’est selon
• Plusieurs contextes profitent d’un bon équilibre des deux.
• Bref, il faut user de beaucoup de jugement et calibrer au cas par cas.
13. Expérience u)lisateur / client
• Concept élargi de l’ergonomie cogni:ve
• Mesure non seulement l’u:lisabilité, mais également l’u:lité, la
compréhension et l’apprécia:on générale
• En plus, confiance, iden:fica:on, plaisir, sa:sfac:on, émo:ons, taux de
conversion
• Comprend toutes les interac:ons qu’un u:lisateur a avec une entreprise, de la
vente du produit/service jusqu’au service après‐vente. Le vécu global.
• * L’XU ne palie pas les manques de l’u:lisabilité. À la limite «la force du
concept» (facebook, ebay) et la qualité du contenu peuvent compenser un
manque d’u:lisabilité.
15. Extraits vidéos de tests u)lisateurs
Visionnement de quelques clips…
SVP, portez aaen:on aux problèmes
d’u:lisabilité/UX que vous observez.
Je vais vous demander de m’en parler.
16. Problèmes de performance souvent
formulés comme...
• Nous ne sommes pas sa:sfaits de notre site
• On n’aime pas notre page d’accueil
• Le site de nos compé:teurs est plus beau
• Nos visiteurs se plaignent
• Nos annonceurs sont insa:sfaits du taux de
clics, ils voudraient plus d’espace
17. Problèmes de performance rarement
formulés comme...
• On voudrait que notre page d’accueil ait un meilleur taux de clics
• Le nombre de visiteurs uniques est à la baisse
• Nos visiteurs ne reviennent pas assez souvent
• Les visiteurs qui font une recherche dans notre site quiaent souvent sans
consulter une seule page
• Le cheminement vers nos pages les plus importantes pourrait être plus court
• Les visites provenant des moteurs externes (Google, etc.) ne sont pas générées
par les mots‐clés qu’on souhaiterait
• Les visites générées par notre campagne PPC quiaent rapidement le site et voient
très peu de pages
• Le nombre de visiteurs qui se rendent sur notre page contact est très bas
• Le nombre d’ar:cles lus par visite est inférieur à nos aaentes
• Le taux de rebond est trop élevé sur nos pages de des:na:on les plus populaires
• Le temps de visite moyen est plus bas que la norme de notre industrie
• Le nombre de visites provenant de pays que nous ne desservons pas est trop
élevé
18. Quelle est la différence?
• Le deuxième groupe est à l’intersec:on de
plusieurs dimensions
– la raison d’être du site et de ses composantes (i.e des
objec:fs d’affaires mesurables)
– les besoins réels et évolu:fs de la clientèle
– les ressources disponibles (budget, compétences)
• Le problème offre des pistes de solu:on dès sa
formula:on
19. Une page Web en 2011?
– Pièce d’un immense puzzle qui prend de la valeur avec le temps
propor:onnellement aux nombre de rela:ons externes que
vous ne contrôlez pas et que vous devez maintenir:
• Moteurs (Google)
• Sites collec:fs (facebook, linkedin, twiaer, digg, delicious)
• Sites individuels (amis, partenaires, répertoires, références)
• Vos visiteurs (signets, habitudes de naviga:on)
21. Objec:ons courantes des clients
• Non merci, on n’a pas le temps de faire ça
• Non merci, on n’a pas le budget pour faire ça
• Merci, mais on ne comprend pas ce que vous dites
• Notre équipe interne a développé une « méthodologie » qui a
éliminé ceae fâcheuse étape de « valida:on »
• Pas besoin, notre
designer/rédacteur/programmeur/codeur/intégrateur a déjà
commencé à créer des pages dans notre CMS Whizbang Machin
Web 3.0 et on ajustera après la mise en ligne
• Pas besoin, on connaît bien nos clientèles
• Ça va brimer notre créa:vité
22. Quelques arguments pour convaincre…
• Intrant riche pour comprendre le comportement de nos clients avec
niveau de risque ($$) très bas (ra:o coût/bénéfice très avantageux)
• Processus itéra:f accessible à tous avec des ou:ls simples (on fait
circuler et évaluer des PDF, ppt, prototype en ligne ou papier)
• Bonne planifica:on = temps de produc:on réduit en misant plus
juste dès le départ (répond mieux aux besoins et aaentes)
• Coûts de produc:on et d’entre:en subséquents sont réduits
• « Passage au suivant » op:mal : designer, CSS, HTML, backend, sont
plus heureux et donc plus efficaces
• Les tests = des données sur lesquels s’appuyer pour améliorer le
produit, en mode itéra:f,
et ainsi sa:sfaire l’u:lisateur et aaeindre nos objec:fs d’affaires
24. Quelle méthode choisir ? Focus dis:nct
Dichotomies Web Analy)que Expérience u)lisateur
Analyse quoi? Le quoi. Comportements u:lisateurs (qu’est‐ce qui Le pourquoi. Inten:ons et mo:va:ons des
se passe) u:lisateurs (pourquoi ces choses arrivent)
Approche Approche quan)ta)ve pour déterminer ce qui Approche qualita)ve pour expliquer pourquoi les
employée ? arrive choses arrivent
Essaie d’aSeindre Aider l’organisa)on à aaeindre ses buts (exprimés Aider les u)lisateurs à aaeindre leurs buts (exprimés
quel but? en KPI) en tâches or sujets d’intérêt)
Comment les Mesurer la performance (analyse orientée but) Découvrir des paSerns et des surprises (analyse
données sont émergente)
u)lisées ?
Quel genre de Données sta)s)ques (« vraies » données en grande Données descrip)ves (en pe:t volume, générées en
données ? quan:té, parsemées d’erreurs ;‐) labo, parsemées d’erreurs ;‐)
Adapté de Lou Rosenfeld, Beyond user research, avril 2011.
28. Quel échan)llonnage ? Ça dépend du but
Nombre de
But principal Explica)on
par)cipants
Poli)que Démontrer aux par:es prenantes (décideurs, TI, 2‐3
designers, etc.) que des problèmes sérieux d’u:lisabilité existent
dans leur produit. Démontrer que les tests peuvent en trouver
quelques‐uns.
Trouver des Conduire un cycle itéra:f u:le : trouver des problèmes sérieux, les 4‐8
problèmes sérieux corriger, trouver d’autres problèmes sérieux.
Trouver tous les Trouver tous les problèmes sérieux d’u:lisabilité dans un produit Inconnu
problèmes sérieux non‐trivial.
Trouver tous les Trouver tous les problèmes d’u:lisabilité dans un produit non‐ Inconnu
problèmes trivial.
Mesurer Mesurer des paramètres d’u:lisabilité clés (par exemple le temps > 20
l’u)lisabilité pour compléter les tâches clés et la sa:sfac:on u:lisateur
subjec:ve.
Adapté de ComparaDve Usability EvaluaDon (CUE) Studies, JUS, mai 2010.
29. Quel échan)llonnage ?
Le but premier des tests d’utilisabilité est de déceler, dans un prototype ou un site web, le
plus grand nombre d’erreurs avec un nombre restreint d’utilisateurs. Diverses méthodes
mathématiques ont démontré que le pourcentage d’erreurs décelées dépend en
grande partie du nombre d’utilisateurs, tel que le démontre la courbe suivante :
30. Quel échan)llonnage ?
Les conclusions qui se dégagent de ce graphique?
J. Nielsen a démontré que des tests menés avec 5 u)lisateurs (par profil
représenta:f des clientèles u:lisatrices) permeaent de lever au moins 80 % des
problèmes d'u:lisabilité, dans une op)que itéra)ve.
Aussi, il n’est pas rentable de tester avec plus de 8 u:lisateurs ‐ par profil
dis:nct ‐ car à par:r de ce point, le nombre d’erreurs décelées par u:lisateur
supplémentaire est très faible. En fait, un test avec 8 u:lisateurs permet de
déceler, dans des condi:ons normales, 92% des erreurs. Avec 15 u:lisateurs,
97% des erreurs sont décelées, et non 100%.
Cela signifie que pour découvrir seulement 5% d’erreurs de plus, il faut
presque doubler le nombre de par:cipants et la prépara:on, donc les coûts.
36. Conclusion
« Connaître et interpréter les
comportements et les sentiments
des utilisateurs en temps quasi-
réel dans le but d’améliorer la
qualité de leur expérience devient
d’une importance capitale pour les
entreprises et les organismes. »
• Constamment et de sources variées, au delà du labo
• Assurer la cohérence dans tous les canaux