Menu Content/Inhalt
Définition d'une métrique d'utilisabilité Imprimer Envoyer
Jeudi, 07 Août 2008 10:00

Article 3 de la série L’automatisation dans les analyses ergonomiques

L’introduction, de plus en plus poussée, des problématiques ergonomiques dans les processus décisionnels des entreprises a créé le besoin de disposer de formulations synthétiques de la qualité d’utilisabilité d’un site web, qui puisse être transposées en terme de coût/bénéfice. Des « métriques d’utilisabilité » ont donc été développées afin de donner des mesures chiffrées de l’utilisabilité du site web.

L’article précédent faisait une tournée des outils de collecte automatique de données et les métriques développées pour exploiter celle-ci. Cet article se propose d’aller plus loin. Après avoir proposé une définition de la métrique d’utilisabilité, cet article présente ses bénéfices attendus et propose une discussion sur les points clés à retenir pour guider son choix.

Les outils issus des Web Analytics constituent des candidats attractifs pour ce type de mesure, même si leur objectif initial est plus précisément de fournir des rapports en terme d’objectif business (voir présentation dans l’introduction de la série).

L’introduction d’une mesure chiffrée dans la pratique ergonomique est cependant loin d’être neutre et pose de multiples questions :

  • Qu’est il possible de mesurer et que faut il mesurer de l’activité des utilisateurs?
  • Comment collecter des données quantitatives en un temps et un coût raisonnable ?
  • En quoi consistent les outils de collecte automatique de données, quels sont leur apports et limites ?
  • Comment interpréter le volume éventuellement considérable de données recueillies ?
  • Est ce que l’utilisabilité d’une interface peut se réduire de manière adéquate à une série de mesures?

Qu’est ce qu’une métrique d’utilisabilité

Une métrique consiste en un système de mesure. En métrologie, la mesure se définit elle-même comme « une opération qui consiste à donner une valeur  à une observation». Elle s’effectue selon un modèle, qui est « une représentation abstraite, simplifiée, d'un phénomène et qui se ramène à des paramètres, des grandeurs ». Quant a la grandeur, elle « s'exprime donc par sa mesure dans une unité »[i].

Pour définir une mesure dans un domaine tel que celui de l’ergonomie, il est donc nécessaire de définir :

  1. le phénomène mesuré,
  2. le modèle permettant de ramener ce phénomène à une série de valeur,
  3. l’opération permettant d’obtenir la valeur
  4. l’unité permettant de l’interpréter.

De son coté, la définition donnée à l’utilisabilité est issue, classiquement, de la norme normes ISO 9241-11[ii] : « le degré selon lequel un produit peut être utilisé, par des utilisateurs identifiés, pour atteindre des buts définis avec efficacité, efficience et satisfaction, dans un contexte d’utilisation spécifié ».

Cette définition couvre deux approches fondamentalement différentes :

  • Une décomposition de l’utilisabilité en sous composantes, qui sont au nombre de 3 pour la norme ISO (efficacité, efficience et satisfaction) mais qui sont plus nombreuses pour d’autres auteurs[iii]. Cette distinction suggère l’utilisation et le regroupement de sous-mesures correspondant aux différentes composantes, de manière à couvrir  les différents aspects de l’utilisabilité d’un site web.
  • Un rappel de l’aspect contextuel de l’utilisabilité, dépendant d’ « utilisateurs identifiés, pour atteindre des buts définis […] dans un contexte d’utilisation spécifié ». Adopter cette perspective amène par contre à remettre en cause la généralité d’une mesure de l’utilisabilité et à en spécifier le domaine par rapport à un contexte bien défini.

Au final, le croisement des deux définitions amène à définir une métrique d’utilisabilité selon :

  1. Le phénomène mesuré : L’utilisabilité, c'est-à-dire une qualification de l’activité d’utilisateurs dans un contexte plus ou moins spécifié.
  2. Un modèle de l’utilisabilité : Définition opérationnelle, par exemple reprenant la décomposition de l’utilisabilité en efficacité, efficience et satisfaction.
  3. L’opération permettant d’obtenir les valeurs : incluant le recueil de données (observations, outils de tracking, éventuel protocole de test, etc.), les règles de codage des événements considérés comme significatifs et les règles de comptage et de pondération de ces événements.
  4. L’unité permettant d’identifier si une utilisabilité est satisfaisante ou problématique.

Objectif et modèle d’une métrique d’utilisabilité

Avant de présenter les métriques utilisées aujourd’hui, il est nécessaire de s’arrêter un instant sur leurs principaux objectifs, qui conditionnent fortement leur modèle sous-jacent. Il apparaît en effet que les métriques définies dans un objectif business vont diverger des métriques à établir dans une approche ergonomique.

Dans l’approche « business », l’un des objectifs principaux de l’application de métriques est d’identifier comment l’utilisabilité du site impacte les résultats de l’entreprise. Le modèle implicite sous-jacent est qu’un manque d’utilisabilité représente une « fuite », dans le flot des utilisateurs en route pour régler leur achat à la caisse, ce qui constitue un manque à gagner direct. C’est pourquoi, une métrique d’utilisabilité dans cette approche business à pour objectif premier de fournir une mesure synthétique quantifiant l’impact financier. En alimentant les processus décisionnels, cet indicateur permettra de suivre l’évolution des versions d’un site, de faire des comparaisons lors d’un benchmark ou encore de déclencher un plan d’action si un bénéfice en est attendu.

Dans une approche ergonomique, l’intérêt d’une métrique d’utilisabilité est de permettre le pilotage d’actions correctives. Il s’agit alors non seulement d’identifier les problèmes rencontrés, de les pondérer par rapports aux populations et aux objectifs du site mais aussi, de  les hiérarchiser par rapport à leur impact sur la performance du site. Des résultats issus d’un panel suffisant d’utilisateurs fourniraient alors un référentiel solide à partager parmi les acteurs projet afin de décider des actions correctives à apporter.

La définition d’une dimension unique, comme dans l’approche « business » apparaît alors très vite beaucoup trop limitée pour prendre en compte la richesse des situations et des causes possibles de problèmes.

Afin de présenter une image suffisamment fouillée pour réaliser ces objectifs, le modèle sous-jacent d’une métrique d’utilisabilité doit pouvoir prendre en compte les dimensions suivantes :

  • Topographique : localiser les problèmes par rapport aux zones ou aux fonctions du site,
  • Profils d’utilisation : identifier les types d’utilisateurs susceptibles de rencontrer des difficultés spécifiques,  par exemple selon leur profil socioculturel, leur expertise du web ou leur connaissance du site,
  • Facilité/difficulté d’utilisation : identifier la présence de problèmes d’utilisation en caractérisant des événements de navigation ou le résultat du parcours
  • Type de cause provoquant des difficultés d’utilisation

Si les outils de Web Analytics ne sont pas en premier lieu destinés à être utilisés dans une approche ergonomique corrective. En regardant dans le détail, il apparaît cependant que certaines des données collectées concernent les dimensions évoquées juste ci-dessus.

Discussion

Les solutions techniques apportées par les Web Analytics ne remplacent finalement pas les outils ergonomiques, et notamment les cadre de test, lorsqu’il s’agit d’évaluer l’utilisabilité d’un site web et plus encore lorsqu’il s’agit d’identifier les problèmes rencontrés. Elles se révèlent par contre potentiellement complémentaire, dans le sens où leur conjonction permet de recueillir des données systématiques sur la navigation des utilisateurs.  Idéalement il s’agirait de recueillir et d’analyser les données issues des plus fines des techniques utilisées en Web Analytics, au sein d’un cadre de performance, ou du moins de pouvoir les analyser en référence à un cadre de performance établi à un moment donné.

Afin de mettre en œuvre une métrique d’utilisabilité et notamment d’utiliser des outils de Web Analytics, il apparaît alors judicieux de garder quelques points centraux à l’esprit.

a. Ne pas surestimer la valeur des données disponibles

Chaque source de données a ses caractéristiques qui limiteront ce qu’il possible d’en apprendre de manière fiable. Pour éviter les conclusions abusives, il est nécessaire de bien cerner leurs limites :

  • Les données web récoltées par les techniques de Web Analytics présentent un niveau de bruit important[iv]. En effet la diversité des technologies, des réglages possibles et des comportements utilisateurs font que des problèmes apparaissent constamment qui bloque ou perturbe une partie des données.
  • Les verbalisations des utilisateurs, qu’elles soient issues d’un questionnaire en ligne ou même d’un questionnaire post tâche peuvent être intéressante mais ne doivent pas être prise comme témoignage fiable de ce qu’on fait ces utilisateurs ou des problèmes qu’ils ont rencontrés.
  • Une mesure quantitative n’est significative qu’à partir du moment au elle est établie à partir d’un échantillon de taille supplémentaire. La précision des chiffres obtenus ne doit jamais masquer les sources d’erreur et d’incertitude dans leur élaboration.

Au final, avoir une idée précise de ce que fait un utilisateur sur un interface nécessite de connaître ses attentes, ces interprétations, son ressenti et nécessite une observation directe comme celle proposée par les évaluation qualitatives plus classique.

b. Approfondir et croiser les données

Toute mesure prise individuellement n’apporte qu’une connaissance très limitée, réduite à une dimension, et est difficile à interpréter en terme d’utilisabilité. Par contre le croisement de données permet de formuler, creuser et valider des hypothèses sur les problèmes d’utilisabilité du site web. Toutes donnée peut alors venir apporter une connaissance utile : autre mesure dont les actions fines de l’utilisateur dans une page (click, scroll, entrée clavier), connaissance du site web ou des profils d’utilisateurs, indices apportés par les verbalisations utilisateur, etc.

Par exemple :

  • Une mesure du temps de navigation n’indique pas si l’utilisateur avait des difficultés à chercher une information, se promenait sur le site voire même avait momentanément quitté son écran.
  • Un nombre limité de click n’est pas forcément synonyme de fluidité de parcours alors que l’utilisateur a pu passer un temps important et consacré une concentration importante sur chaque page pour aller au but.
  • Sans un travail d’analyse, les mesures automatiques ne fournissent jamais directement une image précise et opérationnelle de l’utilisabilité. Elles fournissent la matière sur laquelle un travail d’enquête peut être mené.

c.  Persévérer et capitaliser

Si une mesure ne donne qu’une image approchée du phénomène qu’elle décrit, la stabilité de l’outil de mesure permet par contre d’identifier ses variations. Si à un moment donné des mesures sont difficiles à interpréter de manière claire en terme d’utilisabilité, les hypothèses énoncées pourront se préciser au cours du temps.

Toute connaissance acquise sur un site web offre des possibilités supplémentaires pour aller plus loin. La réalisation d’une étude dans un cadre de performance ou d’une étude qualitative permet d’interpréter des résultats d’audience avec un œil neuf. L’idéal reste bien sur d’articuler les différents outils à disposition dans une démarche concertée et pérenne dans le temps. Un test quantitatif de performance complété par un test qualitatif peut fournir une image précise de l’utilisabilité d’un site web et permettre d’établir les métriques précises permettant de suivre l’évolution du site au cours du temps. De cette manière l’évolution du site web peut être menée en évaluation continuellement son impact et en capitalisation la connaissances de ce qui marche et des solutions efficaces, comme cela sera développé dans un futur article.


[i] “Métrologie - Wikipédia,” http://fr.wikipedia.org/wiki/M%C3%A9trologie (accédé Août 22, 2007).

[ii] ISO 9241-11, Exigences ergonomiques pour travail de bureau avec terminaux à écrans de visualisation (TEV) – Partie 11: lignes directrices relatives à l’utilisabilité (1998).

[iii] Jakob Nielsen, Usability engineering (San Francisco Calif.: Morgan Kaufmann Publishers, 1994); Ben Shneiderman, Software psychology : human factors in computer and information systems (Cambridge  Mass.: Winthrop Publishers, 1980).

[iv] “Data Quality Sucks, Let’s Just Get Over It » Occam’s Razor by Avinash Kaushik,” http://www.kaushik.net/avinash/2006/06/data-quality-sucks-lets-just-get-over-it.html (accédé Août 24, 2007)

 

 
designed by made your web.com