«Wearables» : enjeux de design UX

En 2015-2016, j’ai entrepris une belle aventure lorsque j’ai collaboré dans une startup montréalaise, Mighty Cast, qui a conçu un wearable, le bracelet Nex. Ce qui a donné naissance à un projet R&D financé par Mitacs et dirigé par Pr Jean-Marc Robert de la Polytechnique. Du coup, l’ampleur de la tâche a été possible grâce au support de Jean-François Lavigne et à la collaboration de Alain Robillard-Bastien et Gabrielle Granger de chez Ergoweb.

Le 6 avril dernier, j’ai clos le chapitre de cette aventure avec une conférence sur le sujet. J’y ai présenté les enjeux UX rencontrés durant le projet et les pistes de solution envisageables. Ici, je vous partage les différentes retombées ainsi qu’un sommaire du contenu de la conférence.

Tout d’abord, ne manquez pas de lire l’entrevue que j’ai donné à Chloé Freslon dans sa rubrique URelles du journal Le Métro. On a notamment discuté de la place de la femme et de Montréal dans cette industrie.

Ensuite, la conférence comme telle a eu lieu au WAQ (Web à Québec) dans le cadre de la Semaine numérique. Ci-dessous, je vous partage la présentation SlideShare.

Comme cette présentation est essentiellement un support visuel, je vous invite à plutôt écouter mon entrevue avec Catherine Dionne de Tout le Monde UX. Ça vous donnera une meilleure idée du contenu.

Sommaire

D’après la firme Gartner (2016), le principal défi dans l’industrie du wearable est l’abandon. Dans un premier temps, je me suis donc intéressée à savoir pourquoi. D’après quelques études récentes, dont Motti & Caine (2016), les principaux enjeux sont les suivants :

La fiabilité : 75 % des commentaires négatifs sont reliés à un manque de fiabilité : données recueillies inexactes, connexion instable, faible résistance au choc, à l’eau et à la transpiration, atteinte à la vie privée et failles de sécurité.

L’autonomie : La durée de vie de pile demeure un enjeu important. Chaque fois que l’on doit recharger la pile, ça signifie que l’objet n’est pas porté.

L’ergonomie : Un bracelet rigide n’est pas confortable et sera rapidement abandonné. Il faut que l’objet porté soit confortable au point d’oublier qu’on le porte.

L’apparence : Un objet porté doit être l’extension de notre habillement et de notre personnalité. Du coup, personne ne veut ressembler à un ordinateur.

L’interface : L’interface détermine en bonne partie l’utilisation que l’on fait du wearable et par conséquent, de son utilité perçue et de sa facilité d’utilisation. D’une part, les utilisateurs recherchent cinq fonctions principales qui doivent être présentes et d’autre part, l’utilisation de l’interface doit être ultra simple, ergonomique et facile à utiliser.

Dans un second temps, j’ai recensé quelques pistes de solution pour améliorer l’expérience utilisateur :

Transcender l’écran : L’interface haptique, la réalité augmentée (pas celle offerte par Pokémon Go, on s’entend) et l’interface vocale sont des moyens de faire disparaitre l’écran et de favoriser une interaction transparente et contextuelle.

Personnaliser l’expérience : Pour y parvenir, il faut laisser l’utilisateur choisir les caractéristiques apparentes (format, couleur, style, etc.), mais de plus, il faut façonner l’expérience de chaque porteur en améliorant l’algorithme des capteurs par l’apprentissage machine.

Anticiper les besoins : Un peu plus loin dans la réflexion, l’intelligence artificielle permettra notamment d’anticiper les besoins de l’utilisateur pour s’adapter à son contexte et à ses besoins.

En conclusion, le wearable idéal n’existe pas, mais il ne faut pas désespérer. C’est un segment du marché qui n’est pas encore mature : le premier bracelet intelligent de masse est apparu en 2009, la première montre intelligente, en 2012 et la première lunette intelligente, en 2014.

Publicité

L’épreuve du feu : 6 mythes UX

Tout comme la recrue militaire qui vit son « baptême du feu » durant le premier combat, ceux qui ont fait une démarche de recherche avec mémoire ou thèse peuvent en témoigner : ça prend le feu sacré. Pour ma part, j’ai mis les bouchées doubles avec un sujet novateur dans une start-up en quête d’identité. Mon stage, qui s’est terminé tout récemment, ne manquait pas de piquant. J’ai fait l’expérience de quelques obstacles singuliers et propres au projet et d’autres, qui semblent usuels au domaine. Comme quoi il y a un travail d’évangélisation qui accompagne cette carrière. J’essaie d’éviter les tops 10 et les mythes, mais là, je n’ai pas pu résister puisque ces mythes résument bien mon parcours de stage.

Mythe #1 — L’ergonome soigne des bobos

Peut-être à cause des campagnes de sensibilisation de la santé et sécurité au travail, on pense en terme d’accident, d’intervention et de rééducation. Alors qu’en fait, en génie industriel, c’est plutôt un processus en amont où on adapte le travail à l’humain, que ce soit physique ou mental. Un processus en bonne et due forme comme prévu par la norme ISO 9241-210 (conception centrée sur l’utilisateur) n’est pas toujours en place ou encore, ne fait pas partie de la culture de l’entreprise. L’ergonome est alors appelé à intervenir en aval du projet, en tant qu’expert-conseil, tel un mercenaire, pour adresser une situation problématique. Alors que construire du bas vers le haut peut s’avérer plus économique et durable, assurant une pérennité du produit…

Becoming environment-friendly lowers costs because companies end up reducing the inputs they use. In addition, the process generates additional revenues from better products…

iso9241.png

Diagramme de l’ISO 9241-210

En aval, l’ergonome évalue, pose un diagnostique et fait des recommandations sur l’utilisabilité ou facilité d’utilisation du produit qui se traduit par l’efficience, l’efficacité et la satisfaction dans des tâches spécifiques. Il fera appel à une variété de moyens comme l’évaluation experte, l’analyse des traces d’utilisation et les tests d’utilisabilité.

En amont, lors de la définition de projet, l’ergonome ou le spécialiste UX explore la problématique en recueillant des données (études de marché, anthropométrie, etc.) et en analysant les besoins des utilisateurs (sondes, entrevues, etc.). Faire intervenir l’ergonome plus tôt que tard garantit la viabilité du produit alors que se fier à la bonne idée ou à une intuition sans la valider comporte un plus grand risque…

Start-ups often (…) neglect to look before they leap, surging forward with plans without taking the time to realize that the base assumption of the business plan is wrong.

Pendant la conception, ce qui est encore mieux, l’ergonome s’assure que l’équipe conserve l’équilibre entre stratégie d’affaires et attentes des utilisateurs. Traduire les besoins recueillis en éléments actionnables, comme un cahier des charges, des personas ou des scénarios d’utilisation, est une partie souvent négligée. Dans l’urgence de commencer la conception, on peut rapidement s’éloigner des données initiales et perdre de vue le pourquoi du comment.

Mythe #2 — Le design est l’art inné du surdoué talentueux

Autre mythe, c’est cette idée fausse qui entoure le design d’une aura mystique.

… future comes when we strip creativity of its mysterious, unearthly status. Artists are not magical geniuses.

Dans ce paradigme, le design est un art élitiste. Tout le monde aurait voulu être un artiste… Y compris les clients. À faire du beau insipide, pour arriver le plus vite possible à un résultat tangible et visuel, on finit par tourner en rond. Cette course effrénée dans l’atteinte du superficiel nous fait passer à côté d’une importante question : mais à quoi sert le produit?

En fait, le mot design signifie à l’origine « désigner » (designare en latin). Par désigner, on entend spécifier, définir, décider. Comme une liste de requis. L’ingénieur, l’architecte ou le designer est responsable et garant du plan de projet ou le blueprint. Il n’est donc pas étonnant de voir un ingénieur jouer aussi le rôle de gestionnaire de projet.

Bien que le design requière des aptitudes en créativité (qu’on peut développer) pour trouver des idées (qu’on découvre en travaillant), l’esthétisme n’est pas le but recherché. C’est la conséquence. La forme suit la fonction. Par contre, des études sur l’expérience utilisateur prouvent que les caractéristiques hédonistes (confort, apparence, valeur, etc.) d’un produit et l’émotion positive qui en découle sont un facteur déterminant dans l’adoption.

UX_chart.png

Diagramme interprété de Hassenzahl (2003)

L’interprétation de Kelly Goto est particulièrement intéressante où l’intersection des pôles émotive et logique par opposition à consciente et inconsciente est la recette secrète derrière les produits et services à forte valeur ajoutée.

uxpa-2016-kelly-gotos-opening-keynote-39-638.jpg

Diagramme de Kelly Goto (2016)

Ce n’est pas tout de satisfaire un besoin, le produit doit aussi plaire, nous dit Don Norman. Parce que ça devient un argument différenciateur dans un marché compétitif, on peut facilement tomber dans le piège d’en faire une priorité devant l’utilité du produit. Ce qui m’amène à mon 3e mythe…

Mythe #3 — Les facteurs humains sont les « fun factors »

Le rôle du UX, c’est d’ajouter du « fun factor », du « delight » ou encore, le « human touch », question de se donner bonne conscience. Du reste, laissons les gens sérieux — gestionnaires et analystes — s’en occuper…

Designers are constantly having to describe and prove our value to the rest of the tech world. (…) The overuse of design concepts like “delight” among marketers and non-designer executives (…) is the side effect of that broken part of the system.

Allier conception de produit, processus mentaux et limites cognitives est un savoir-faire. Il est vrai qu’on s’occupe du bien-être des utilisateurs et qu’on travaille à livrer une expérience mémorable, mais ça ne veut pas dire qu’on est des rock stars (voir mythe #2). Le design n’est pas la dernière étape où on saupoudre un peu de Magic UX Powder sur le dessus pour que ça soit cool comme des animations ou des interactions. C’est la recette dans son ensemble (ingrédients, plan de travail, préparation, etc.) qui fait que le gâteau lève. Par ailleurs, la poudre à pâte, ça fonctionne mieux quand on la met DANS le mélange AVANT de cuire (voir mythe #1).

Mythe #4 — Le UX n’est pas agile

C’est le mythe le plus pernicieux puisque c’est l’excuse facile pour ne pas investir dans une démarche centrée sur l’humain. De prime abord, beaucoup de mythes entourent la méthode Agile. Comme de supprimer la gestion de projet ou la documentation. Le start coding and ask question later semble plus agile, mais devient très coûteux à la longue s’il faut recommencer sans arrêt, faute d’avoir bien défini les besoins.

Les 2 approches peuvent être très complémentaires puisque dans un cas comme dans l’autre, l’objectif est d’atteindre un seuil minimum de viabilité (MVP) et d’acceptabilité par les utilisateurs. De plus, les boucles itératives, où on alterne entre expansion et contraction, sont au cœur de la démarche centrée utilisateur et alignées avec le Agile. Il y a moyen d’amincir les méthodes UX pour s’adapter à un flux de travail plus en accéléré, comme le guerrilla testing et le paper prototype.

One important reason usability engineering is not used in practice is the cost of using the techniques… many usability techniques can be used quite cheaply.

Mais ceci dit, ce n’est pas encore au point. Le sujet est ouvert au débat et on cherche des solutions.

For many people the Agile road is still bumpy. (…) Teams must work hard to show nonbelievers the value of Agile and encourage them to break out of their comfort zones.

Si ça vous intéresse plus à fond, je vous recommande fortement le livre de Jeff Gothelf, Lean UX : Designing Great Products with Agile Team.

Mythe #5 — Les tests d’utilisabilité sont des focus groups

Ça ne pourrait pas être plus loin de la réalité. Ces 2 méthodes ont des objectifs très différents. Les focus groups sont davantage utilisés en amont, pour obtenir les opinions et découvrir les motivations des utilisateurs entourant un sujet. Par ailleurs, cette méthode peut engendrer des données biaisées pour plusieurs raisons :

  • Il y a souvent un leader qui rallie le groupe à ses opinions. Même avec un facilitateur expérimenté, ça pose un problème.
  • Plusieurs études le prouvent : ce que les gens disent et ce que les gens font ne s’alignent pas toujours.
  • Ça ne cadre pas très bien avec l’innovation…

It’s really hard to design products by focus groups. A lot of times, people don’t know what they want until you show it to them.  —  Steve Jobs

Il y a tout un tas de méthodes valides lors de la recherche en amont. Comme le workshop, la journalisation ou les sondes culturelles où on recueille les besoins des utilisateurs sans la formulation d’opinion à voix haute dans un groupe. D’abord et avant tout, il s’agit de définir clairement les objectifs de la recherche et de choisir la méthode qui est « juste assez », comme l’explique Erika Hall dans son livre Just Enough Research.

Les tests d’utilisabilité, quant à eux, servent à observer dans quelle mesure le produit fonctionne entre les mains des utilisateurs :

  • Individuellement plutôt qu’en groupe.
  • En observation plutôt qu’en discussion, ce qu’on appelle le shadowing. Observer le comportement nous permettra d’accéder à la boite noire.
  • En mesurant le degré d’efficacité, d’efficience et de satisfaction dans des tâches précises.

Par ailleurs, quand on s’adresse à des équipes TI ou logiciel, mieux vaut employer le terme UAT (User Acceptance Testing). Autrement, le mot utilisabilité peut provoquer des yeux de merlan frit.

Enfin, ce mythe du focus group est tellement répandu et tenace que Steve Krug, auteur de Don’t make me think, en a fait une petite vidéo caricaturale.

Mythe #6 — Les utilisateurs sont comme moi

Les principes du design universel stipulent qu’un bon design est accessible par tous, même ceux qui ont un handicap. Si ça marche pour une personne handicapée, ça marche pour tout le monde. C’est aussi ce qu’on appelle le curb cut effect. Par contre, à moins de souffrir d’un handicap, ça ne fait pas de nous des experts absolus. Aussi ingénieux qu’on puisse l’être, on ne vise pas dans le mile à tout coup et ça prend un minimum de recherche auprès des utilisateurs.

Le gros bon sens ou l’intuition ne font pas de nous des designers universels. Ça conduit bien souvent au self-centered design, un piège qui nous laisse croire qu’on peut se passer des utilisateurs sous prétexte qu’on est comme eux ou qu’on les connait bien… D’où le classique « ma femme trouve que » ou « mes enfants pensent ».

Bien que, le persona est un outils incroyable pour générer de l’empathie, il est bien mal utilisé. Là où un persona devrait nous aider à poser les bonnes questions, certains intervenants y verront plutôt des réponses. Or, ces réponses sont purement spéculatives. En fait, à prime abord, être impliqué dans le projet vous rend biaisé. Si vous êtes le product owner, vous êtes encore plus biaisé puisque vous avez votre propre agenda à rencontrer qui est différent de celui de l’utilisateur, soit les besoins d’affaires.

If you work on a development project, you’re atypical by definition. — Jakob Nielsen

Quoi faire alors? Comme expliqué dans le mythe #1, l’ergonome est la personne idéale pour garder un équilibre entre stratégie d’affaires et besoins utilisateurs. Il le fera grâce à de la recherche conduite en amont (ex. entrevus) ou en aval (ex. test d’utilisabilité).

Conclusion

Pour ma part, ce qui m’a donné le plus de fil à retordre est de devoir constamment décrire notre rôle et en prouver sa valeur. Quand une start-up met sur pied une équipe, elle va miser sur l’obtention de résultats tangibles le plus tôt possible grâce à des développeurs ou des ingénieurs. Le marketing et les ventes suivront pour rentabiliser les coûts de développement. Si le produit est un peu moche, on fera intervenir un designer pour pimper le look. Au besoin, si ça bloque un peu dans l’engrenage, on fera appel à un chargé de projet pour que ça roule plus rondement.

Quand fait-on intervenir un UX ou un ergonome?

  1. Le conseil d’administration exige un niveau de qualité ou de conformité à respecter (ex. en aéronautique).
  2. Ça va mal et des problématiques surgissent lors de la mise en marché (ex. plaintes de client).
  3. On est à l’étape de l’étude de marché et de faisabilité (ex. panel d’expert).

Dans ce dernier cas, ce n’est pas l’ergonome pour ainsi dire qui intervient, mais plutôt des gens multidisciplinaires, de différents horizons, ancrés dans les réalités d’affaires, mais avec une ouverture d’esprit sur l’innovation. D’où l’importance de se diversifier plutôt que de se spécialiser, traverser les frontières de différents métiers et mixer les disciplines. Dans cette perspective, l’ergonomie est alors davantage une extension de l’axe TI (ingénieur ou analyste) ou le prolongement de l’axe marketing (stratège ou analyste).

Le flat design et l’utilisabilité

Dans le cadre du cours d’ergonomie web de la Polytechnique, ma fantastique co-équipière Karine Thériault et moi même avons investigué sur le flat design, question d’y voir plus clair à défaut de pouvoir mettre fin au débat. En effet, le flat design est ouvertement critiqué par les experts en expérience utilisateur comme allant à l’encontre de l’utilisabilité. On lui reproche notamment le manque d’affordance. Peut-on faire appel au flat design tout en respectant l’efficience, l’efficacité et la satisfaction dans les interactions ? Voici un sommaire de notre recherche.

Point de départ et méthodologie

Notre hypothèse de départ était que le flat design est là pour rester et ne pose pas de problème d’utilisabilité s’il est bien employé et maitrisé par le designer. En effet, ce n’est pas le style qui pose problème, mais plutôt la mauvaise utilisation qui en est faite.

En faisant une revue de littérature, notre objectif était de démontrer que les problèmes que peut comporter le flat design ne sont pas inhérents à sa nature ou aux principes le définissant. L’inexpérience serait en cause. Malgré le grand nombre de détracteurs et d’opinions partagées à ce sujet sur le Web, les recherches empiriques sont peu nombreuses et non valides. Comment peut-on espérer à une quelconque validité si les chercheurs construisent une expérimentation basée sur de mauvais paramètres? La plupart des exemples illustrés ne respectent pas les critères ergonomiques définis (Bastien et Scapin, 1993) dès le départ, peu importe le style de design. Après avoir délibéré sur la bonne façon de conduire une expérimentation sur le flat design, nous avons convenu qu’il faut d’abord se prémunir de bonnes définitions, théories et bonnes pratiques.

1. Définition du flat design

Le flat design (design aplat) se résume au « design d’une interface utilisateur définie par une représentation épurée et fonctionnelle visant à en rendre la lecture plus fluide et plus pratique, » (Grand Dictionnaire terminologique). Le flat design se caractérise par les principes suivants :

  • Absence d’ornement tel que les effets 3D, de texture ou de relief
  • Utilisation de formes simples et de photos
  • Emphase sur la typographie
  • Emphase sur les couleurs
  • Contenu textuel concis
  • Approche minimaliste

L’absence d’éléments décoratifs vise à épurer l’interface, alors que l’utilisation des formes, des couleurs et de la typographie servent à créer la hiérarchie visuelle. Par sa nature minimaliste et 2D, le flat design se distingue du rich design, du skeuomorphisme et du réalisme.

Rich Design Utilisation des effets 3D, d’ombrage et de relief pour donner l’impression qu’un élément peut être utilisé ou manipulé
Skeuomorphisme Représentation métaphorique d’un élément en s’inspirant d’un objet physique
Réalisme Utilisation de texture dans le but de rendre un élément le plus réaliste possible

Tableau 1. Comparaison des styles.

Skeuomorphism-vs-Flat-Design

Figure 1. Comparaison des styles, flat design (à gauche)
vs skeuomorphisme (à droite).

2. Motivations derrière le flat design

2.1 Réaction à la surutilisation du skeuomorphisme

Alors que le flat design se fait souvent reprocher d’être une tendance destinée à s’essouffler, il s’avère que c’est le cas aussi du skeuomorphisme. En réaction à la surcharge visuelle qu’entraîne souvent le skeuomorphism, la tendance est maintenant à la simplicité. Si le skeuomorphisme nous a permis de nous acclimater à un nouveau langage en reprenant des métaphores du monde physique, l’univers numérique et plus récemment du mobile devient un acquis pour la majorité des gens qui l’utilisent depuis quelques années. On n’a plus besoin de l’effet de page tournée ou de la reliure en cuir pour comprendre l’action requise ou se sentir en terrain connu.

2.2 Solution pour faciliter le responsive design (sites web réactifs)

À l’ère actuelle, où les utilisateurs sont constamment en contact avec le contenu numérique, il est essentiel de faire en sorte que le contenu puisse être accessible et efficace sur différents types de plateformes. Il faut ainsi s’assurer que le contenu puisse s’adapter à différentes tailles d’écran, résolutions et définitions. La simplicité et flexibilité du flat design facilite significativement cette adaptabilité de l’interface utilisateur.

3. Critiques du flat design et contre-arguments

Les critiques les plus courantes à l’égard du flat design en termes d’utilisabilité sont :

  • le manque d’affordance
  • l’impact négatif sur l’efficience
  • difficulté à comprendre la navigation
  • l’augmentation de la charge cognitive

Ces problèmes, qui sont rencontrés régulièrement dans ce type d’interface, découlent-ils fondamentalement des principes du flat design? Il serait simpliste d’attribuer tous les problèmes d’ergonomie au flat design.

3.1 Affordance

La définition la plus utilisée du terme affordance est celle popularisée par Don Norman et fait référence aux propriétés perçues d’un objet permettant à l’utilisateur de savoir qu’il est utilisable et d’avoir une idée du résultat de son utilisation. Hors, le terme affordance a initialement été proposé par James Jerome Gibson et fait plutôt référence aux « propriétés réelles des objets qui peuvent avoir une valeur utile pour leur observateur. Elles portent sur ce que l’on perçoit en fonction de ce sur quoi on peut agir. » Norman a plus tard clarifié qu’il aurait dû être plus précis et utiliser le terme affordance perçue (aussi appelée affordance cognitive) puisque l’affordance en tant que telle est indépendante de la perception.

affordance2

Figure 2. Technology Affordances par William W. Gaver (1991).

Ce que plusieurs reprochent au flat design est qu’il peut entrainer :

  • une affordance cachée (l’élément est non perçu comme cliquable alors qu’il l’est),
  • une fausse affordance (un élément est perçu comme cliquable alors qu’il ne l’est pas).

Les utilisateurs sont exposés depuis déjà un certain temps au minimaliste. Les utilisateurs d’interfaces numériques sont de plus en plus en mesure de reconnaître un hyperlien par sa couleur (dans une conception cohérente) ou le fait qu’il soit souligné, un bouton par sa forme, un menu déroulant par le flèche vers le bas à sa droite.

Affordance perçue
Mauvais exemple Bon exemple
Windows-8-Settings-Charm truedigital_pets.png
Avec Windows 8, ce qui est cliquable n’est pas distinct de ce qui ne l’est pas. Les éléments interactifs sont identifiés par la couleur orange de façon cohérente à travers le site; les boutons ont une forme appropriée.

Tableau 2. Exemples d’affordance.

3.2 Navigation

La navigation d’un site web est un ensemble de composantes ayant pour but d’orienter l’utilisateur à trouver des informations ou des fonctionnalités et l’inciter à prendre les actions appropriées.

Dans le flat design, la navigation ne se retrouve pas toujours où on la trouve habituellement ou dans le format avec lequel on est familier. Avec le modernisme proposé par le flat design, une vague d’exploration créative a eu lieu au détriment de conventions ou modèles établies.

Les problèmes relevés en terme de navigation vont donc à l’encontre des critères ergonomiques de guidage et de cohérence. Au même titre que tout autre type de conception, le flat design propose de mettre en place une hiérarchie visuelle afin de guider les utilisateurs. Le respect de standards en lien avec le positionnement d’un menu de navigation est inhérent au concepteur, non au langage visuel. Ce n’est pas parce que les éléments de l’interface sont en 2D qu’il n’est pas possible de créer une hiérarchie visuelle ou même de la profondeur.

Le flat design offre des façons de créer une hiérarchie visuelle pour guider les utilisateurs :

  • utilisation de typographies de différentes tailles,
  • utilisation d’icônes pour accompagner un libellé et le rendre plus visible,
  • utilisation d’espace négatif pour mettre l’emphase sur le contenu et non le design.
Navigation
Mauvais exemple Bon exemple
fabrica oak.png
Tout le contenu est au même niveau, il n’y a pas de menu de navigation, il est même difficile de comprendre la mission du site. Le menu est à un endroit cohérent avec les standards web, tous les éléments colorés sont cliquables, on distingue la mission et les produits disponibles.

Tableau 3. Exemples de navigation.

3.3 Efficience

L’efficience se définit par le rapport entre les ressources dépensées et la précision et le degré d’achèvement selon lesquels l’utilisateur atteint des objectifs spécifiés.

Une étude empirique (Burmistrov et coll., 2015) a procédé à trois expérimentations d’oculométrie en analysant la longueur des fixations, l’amplitude et la vélocité de pointe des saccades. Le flat design a eu de meilleurs résultats en termes de temps dans l’exécution de la tâche que le design traditionnel pour 2 des 3 tâches effectuées. Dans l’une des tâches, le flat design ait eu un plus haut taux d’erreurs. Près de 28 % des éléments identifiés comme étant cliquables ne l’étaient pas. Ce résultat concorde avec le rapport d’Usabilla (2013) qui arrive à des résultats similaires avec une moyenne de 29 %. Malgré les résultats en faveur du flat design en termes de performance, Burmistrov et coll. associent les données obtenues à une charge cognitive plus élevée pour conclure que le flat design est une tendance nocive pour les interfaces utilisateurs.

L’étude empirique de Burmistrov démontrant les problèmes d’efficience d’éléments en flat design adresse plutôt des éléments 2D hors contexte. Or, le flat design s’appuie beaucoup sur le contexte pour communiquer son message. Chercher un mot dans un texte de 3 paragraphes ou identifier une icône dans une matrice de 9×9 n’offre pas une bonne validité écologique pour évaluer l’utilisabilité du flat design. De plus, les deux études, Burmistrov et Usabilla, ne considèrent pas si les critères ergonomiques sont respectés ou non indépendamment du style.

Efficience
Mauvais exemple Bon exemple
rightintention vitrine_releve
Tout le contenu est au même niveau, il n’y a pas de menu de navigation, il est même difficile de comprendre la mission du site. Le contenu est minimal, l’emphase est mise sur la fonction principale (c.-à-d. voir la programmation).

Tableau 4. Exemples d’efficience.

3.4 Charge cognitive

L’addition des problèmes que nous avons abordés jusqu’ici (manque d’affordance, difficulté à comprendre la navigation et impact sur l’efficience) amène les critiques du flat design à suggérer que ce dernier entraîne conséquemment une charge cognitive plus élevée. La charge cognitive est une composante de la charge mentale et fait référence à la quantité d’effort mental mobilisé dans l’accomplissement d’une tâche.

Entre autres, l’étude de Burmistrov rapporte de plus longues fixations et de plus courtes saccades lors des exercices de recherche de texte et d’icône pour le flat design. Cette combinaison de facteurs permet de supposer qu’il y a une hausse de la charge cognitive. Ceci dit, cette combinaison de facteurs a aussi été observée lors du 3e test de recherche d’éléments cliquables pour le design traditionnel et ne peut donc être interprété comme exclusif au flat design.

Une des raisons d’être du flat design est la simplification de l’interface dans le but d’en faciliter l’utilisation en se limitant à ce qui est pertinent et fonctionnel. La critique est donc en lien avec les critères ergonomiques d’actions minimales et de densité informationnelle alors qu’ils font partie des principes mêmes du flat design.

Charge cognitive
Mauvais exemple Bon exemple
etch xplorenet
Les interactions possibles et la navigation ne sont pas claires. L’interface est simple, mais demande de la réflexion. La navigation est évidente et le contenu concis. L’utilisateur connait ses possibilités sans avoir à réfléchir.

Tableau 5. Exemples de charge cognitive.

Devant l’enthousiasme et l’adoption massive du flat design, il est vrai que dans plusieurs cas, les critères d’ergonomie semblent avoir été oubliés. Ceci dit, ce n’est pas une ligne directrice du flat design de les mettre de côté. Comme pour tout autre type de design, un site devrait se munir d’une charte graphique cohérente offrant des signifiants clairs. C’est pourquoi il serait hâtif de conclure que le flat design et l’utilisabilité ne vont pas de pair.

4. Pistes de solution ou le flat design 2.o

Le principal problème exposé par la critique du flat design est que tous les éléments se retrouvent soudainement au même niveau. Une bonne façon de régler ce problème est d’explorer la notion de profondeur. Comme expliqué par Sacha Greif dans son billet sur les lavabos, avec ses lignes modernes et un fond plat, le lavabo de salle de bain pose un problème d’utilisabilité. Parce qu’il est peu profond, l’eau éclabousse à l’extérieur. En contrepartie, l’évier de cuisine au fond plat est très utile. En général beaucoup plus profond, ce genre de lavabo n’éclabousse pas et permet de contenir plusieurs assiettes empilées. Comme quoi, ce n’est pas temps le style qui est remis en cause, mais où et comment il est utilisé.

splash.png

Figure 3. Les lavabos de salle de bain de Sacha Greif (2012).

La profondeur, c’est exactement ce que proposent les lignes directrices d’Apple avec l’arrivée de iOS 7 et de Google avec leur Material Design. Ces guides de style offrent le meilleur des 2 mondes, un compromis, qui a donné naissance au flat design 2.0 : l’affordance du réalisme et des repères visuels combinés à la pureté et la simplicité du flat design.

4.1 Le design suisse

Le flat design est fortement influencé par le design suisse. Certains principes ont d’ailleurs été repris par Apple et Google dans leur guide de style. Suivre les principes de cette théorie peut donc s’avérer utile pour bien exécuter le flat design. Le design suisse a comme principe la forme qui suit la fonction. Ses partisans préconisent la simplicité pour atteindre l’esthétisme. Mais l’esthétisme n’est jamais la motivation principale, c’est la conséquence d’un bon design de solution. Le design suisse prend plusieurs visages dans l’histoire du design : constructivisme, Bauhaus, gestalt, etc. La hiérarchie d’information, grâce à des variations dans la typographie, est le fer de lance de ce courant et le contenu est mis en vedette. D’autres moyens sont utilisés : la taille des éléments, leurs emplacements, la gestion de l’espace et des blancs, la couleur, etc.

Quant à la gestalt, en voici quelques principes :

  • Fermeture. Notre regard cherche à compléter l’information manquante et recréer le patron.
  • Symétrie. Notre regard cherche à compléter la forme, remettre de l’ordre.
  • Similitude. Notre regard cherche à regrouper des éléments ayant les mêmes caractéristiques.
  • Continuité. Notre regard tend à continuer un chemin imaginaire.
  • Proximité. Notre regard perçoit l’espace comme une forme de regroupement.

gestalt

Figure 4. Les lois de perception de la Gestalt.

4.2 La symétrie

Weyl (1952) définit la symétrie comme suit : « A thing is symmetrical if there is something we can do to it so that after we have done it, it looks the same as it did before. » Il y a 2 symétries possibles : l’objet peut être réfléchi dans un miroir ou pivoté sur lui même sans subir de changement.

La symmetry-affordance, qu’on pourrait traduire par l’affordance de symétrie, est une théorie introduite par Cairns et Thimblebly (1995). La symétrie comme telle est une notion mathématique très puissante qui régit les lois de la nature. Les visages symétriques sont perçus comme plus attirants et plus aptes à la reproduction. À l’inverse, l’asymétrie est perçue comme un signe de faiblesse, de maladie ou d’anomalie. Le traitement humain de l’information est étroitement lié à la reconnaissance de patrons dans la nature pour une question de survie. Notamment, ce qu’on appelle le fight-or-flight qui nous permet de détecter les anomalies et fuir le danger au besoin. Une forme géométrique représente un coût cognitif moins élevé parce que la moitié de la forme est nécessaire pour être traitée. L’hexagonal, la forme des alvéoles dans la ruche d’abeilles, est plus solide et plus efficient.

Dans les interactions humain-machine, la symétrie suggère l’action. L’utilisateur perçoit les propriétés et les transformations correspondantes d’un système comme étant inchangeables. Par exemple, un bouton de radio demeure inchangé lorsqu’on le tourne. L’affordance de symétrie, quant à elle, suggère les actions qui transforment d’autres actions. Par exemple, la barre de défilement transforme l’apparition du contenu. Dans le cas d’un bouton d’interface, on parle plutôt de cohérence du modèle (ce qui ressemble à autre chose fonctionne de la même façon) ou ce que Norman appelle aussi une convention (ce qui ressemble à ce qui a été vu juste avant se comporte de la même façon).

4.3 Le no interface

Cette approche revendique que parfois la meilleure solution de design — efficiente, élégante et sans distraction inutile — est pas d’interface du tout. Alors que le flat 2.0 nous amène à un compromis, qui se situe à mi-chemin entre le flat et le skeuomorphisme, le no interface est plus radical dans son minimalisme et remet en question la nature même de l’interface. Encore une fois, ce mouvement est en réaction à une autre tendance : la surutilisation de l’écran.

D’après Krishna (2015), les cinq dernières années, avec la démocratisation des téléphones intelligents et l’émergence de l’internet des objets, ont vu naitre une grande quantité de designers graphiques convertis en designers d’interface qui ne connaissent pas l’utilisabilité, le design centré sur l’utilisateur ou l’expérience utilisateur. Ces designers solutionnent un problème de design avec les outils qu’ils connaissent : plus de visuels, plus de design graphique et donc, plus d’interfaces. En découle une multiplication d’applications douteuses et d’objets sur lequel on vient placarder un écran comme les réfrigérateurs avec intégration des réseaux sociaux.

Les exemples du no interface démontrent une démarche d’expérience utilisateur où l’interaction est repensée pour être minimale, non intrusive, voire absente. Notamment, le hayon du Ford Escape qui s’ouvre grâce à un léger coup de pied sous le parechoc arrière. Cette solution ingénieuse répond à un problème simple : l’utilisateur qui a les bras pleins d’emplettes ne peut utiliser ses clés pour déverrouiller les portes à moins de faire quelques acrobaties. D’ailleurs, la solution envisagée jusqu’à maintenant dans l’industrie automobile pour éliminer les clés, soit une application sur téléphone intelligent, est dans ce cas d’utilisation précis la pire des solutions. Déverrouiller avec une application requière au moins 10 étapes où la clé n’en requière que 2 ou 3. Les capteurs Bluetooth nous permettront dans les prochaines années de créer ce genre d’interaction intelligente et sans friction où les besoins de l’utilisateur sont anticipés. Krishna résume bien le tout en disant : « The best design reduces work. The best computer is unseen. The best interaction is natural. The best interface is no interface. »

Ford-Escape-liftgate_83.jpg

Conclusion

Ce rapport de recherche nous a permis de confirmer notre hypothèse et infirmer la conjecture : le flat design ne pose pas de problème d’utilisabilité. C’est plutôt la mauvaise utilisation et l’inexpérience du designer qui est en cause. Windows 8 est un exemple flagrant de l’utilisation du flat design au détriment de l’utilisabilité. Si la plupart des sites web ne respectent pas les critères ergonomiques dès le départ, le style ne devrait pas être remis en question. Spécialement maintenant que le style prend de l’importance et est propulsé par des compagnies comme Google et Apple.

Les principaux enjeux ou désavantages sont :

  • La difficulté d’exécution
  • L’inexpérience, le style n’est pas encore mature
  • L’interprétation des lignes directrices ou guides de style
  • La nouveauté, les utilisateurs ne sont pas encore habitués
  • Le manque de personnalité si trop minimaliste

Les avantages du flat design sont :

  • La clarté
  • La lisibilité
  • Une apparence moderne
  • L’adaptabilité notamment pour le responsive design
  • Temps de chargement optimisé

Pour faire du bon flat design, il faut :

  • Faire appel à un designer professionnel et expérimenté
  • Mettre l’accent sur le contenu d’abord
  • Des accents de couleurs qui jouent un rôle sémantique dans l’interactivité
  • Les espaces blancs et les espaces négatifs sont un outil puissant
  • Une typographie prépondérante

 


 

Références

Bastien, J.M.C., Scapin, D. (1993). Ergonomic Criteria for the Evaluation of Human-Computer interfaces. Institut National de recherche en informatique et en automatique, France.

Burmistrov, I., Zlokazova, T., Izmalkova, A., & Leonova, A. (2015). Flat Design vs Traditional Design : Comparative Experimental Study. In Human-Computer Interaction–INTERACT 2015 (pp. 106-114). Springer International Publishing.

Cairns, P., & Thimbleby, H. (2008). Affordance and symmetry in user interfaces. The Computer Journal, 51(6), 650-661.

Gaver, W. W. (1991). Technology affordances. Dans Proceedings of the CHI Conference on Human Factors in Computing Systems, ACM Press : New York, 79 – 84.

Gibson, J. J. (1977). The Theory of Affordances. Dans R. E. Shaw and J. Bransford (eds) Perceiving, Acting, and Knowing (Hillsdale, NJ: Lawrence Erlbaum Associates).

Hartson, R. (2003). Cognitive, physical, sensory, and functional affordances in interaction design. Behaviour & Information Technology, 22(5), 315-338.

Krishna, G. (2015). The Best Interface is No Interface: The Simple Path to Brilliant Technology, Pearson Education.

Koffka, K. (1935). Principles of gestalt psychology (New York: Harcourt, Brace & World).

McGrenere, J. et Ho, W. (2000). Affordances : Clarifying and evolving a concept. Dans Proceedings of the Graphics Interface 2000, Canadian Human-Computer Communications Society : Toronto, 179 – 186.

Norman, D. A. (1999). Affordances, conventions, and design. Interactions, 38 – 42.

Norman, D. A. (2008). THE WAY I SEE IT Signifiers, not affordances. Interactions, 15(6), 18-19.

Oshlyansky, L., Thimbleby, H., & Cairns, P. (2004, October). Breaking affordance: culture as context. In Proceedings of the third Nordic conference on Human-computer interaction (pp. 81-84). ACM.

User Experience Report: Flat Web Design Is Here To Stay. Usabilla publication, juin 2013.
http://cache.usabilla.com/press/2013_06_Usabilla_UX_Report_Flat_Design.pdf

https://www.interaction-design.org/literature/book/the-glossary-of-human-computer-interaction/affordances

http://sachagreif.com/flat-pixels/

http://sachagreif.com/the-flat-sink/

http://www.vandelaydesign.com/why-the-flat-design-trend-is-hurting-usability/

http://vanseodesign.com/web-design/swiss-design

https://uxmag.com/articles/a-look-at-flat-design-and-why-its-significant

http://vanseodesign.com/web-design/flat-design-usability/

http://medialoot.com/blog/flat-vs-usable/

http://www.hongkiat.com/blog/flat-20/

http://www.nngroup.com/articles/flat-design/

http://www.nngroup.com/articles/flat-design-long-exposure/

http://interactions.acm.org/blog/view/can-we-afford-no-affordances-in-our-user-interfaces

http://designmodo.com/flat-design-principles/

https://www.google.com/design/spec/material-design/introduction.html#

https://developer.apple.com/library/ios/documentation/UserExperience/Conceptual/MobileHIG/

 

Rétrospectives et itérations

Avant, lorsque quelqu’un me disait faire un retour aux études, je pensais qu’il était question de petites vacances. Je vous assure que ce n’est pas un sabbat ! Ce trimestre d’automne a été très chargé : 3 cours de cycle supérieur tout en travaillant pour une startup. Me voici donc en mode récapitulatif.

Dépôt du sujet

Je devais remettre à la fin de ce trimestre, en plus de tout le reste, mon sujet de recherche. Ce n’est pas une phrase sur un bout de papier qui dit vaguement de quoi il s’agit. C’est une démarche où on suggère une problématique à résoudre, une revue de littérature qui la supporte, une hypothèse et une méthodologie d’expérimentation. Pour le moment, ça va comme suit : Étude de l’utilisation de lumières et de vibrations tactiles comme interface utilisateur d’un système porté (wearable) sans écran. Bref, je connais déjà mon sujet à fond, mais je n’ai pas encore commencé. Et j’ai changé plus d’une fois avant d’en arriver là. Le plus ironique est que ça va continuer à évoluer et à changer…

Itérations

Bien des agences se targuent d’avoir un processus itératif ou agile, mais lorsqu’on questionne, remet en perspective, fait des aller-retours entre les intervenants, il y a de l’inconfort. C’est perçu comme un frein à la productivité. Le processus en silo a la couenne dure. Il est inculqué dans notre culture dès la tendre enfance : ne sors pas des rangs, ne pose pas de question, etc. D’ailleurs, l’obéissance a donné lieu à des études très surprenantes. Il y a bien des choses qu’on accepte par convention sociale même si elles ne font pas de sens.

Sans tomber dans la philosophie, je dirais simplement qu’on n’arrête pas le progrès et que la vie est en constante évolution. Le savoir d’aujourd’hui s’est construit sur les connaissances d’hier (ex. électricité > ampoule > téléviseur > ordinateur). Le processus semble linéaire et on se complait dans cette linéarité parce que c’est une illusion d’ordre dans le chaos. Par contre, la physique quantique nous apprend que derrière cette apparence de conformité se cachent des sauts disruptifs, comme de petits bonds en arrière.

Conception centrée humain

Là où je veux en venir, et c’est ma rétrospective 2015, c’est qu’on doit remettre cent fois son ouvrage sur le métier. Il n’est jamais trop tard pour changer de cap, essayer, recommencer. À 34 ans, il est encore tout à fait possible de se redéfinir. J’ai été designer jusqu’ici parce que ça me permettait d’assouvir mon besoin de résoudre des problèmes. Je suis devenue insatisfaite quand j’ai constaté qu’on me demandait de solutionner des puzzles esthétiques ou d’ordre visuel. L’ingénierie, quant à elle, m’ouvre les portes de la conception vraiment axée sur la solution d’un problème.

En ergonomie et ingénierie cognitive, on est lié par la norme ISO 9241 soit la conception centrée humain. C’est un cycle de conception dans lequel on procède par itérations. On essaie de trouver des solutions à un problème défini et lorsqu’on trouve, on valide auprès des utilisateurs, corrige et recommence. Mon année s’est terminée sur un commentaire de mon directeur de recherche qui allait justement dans ce sens : faire un seul test est mal avisé, ça ne correspond pas à une approche itérative.

Réalité mercantile

Mon défi, il est de taille. Concilier une démarche universitaire dans un contexte de startup. C’est cependant le défi auquel on doit tous faire face dans notre travail : peu de moyen, peu de temps, mais on veut le maximum de résultats. Je reviens au principal reproche du processus itératif : un frein à la productivité. Notre cerveau adore mettre de l’ordre. C’est la loi de la conservation de l’énergie. Le chaos coûte cher. Faire des bonds en arrière, c’est l’équivalent de pédaler dans le vide pour certaines personnes. C’est inconfortable.

Je vous laisse cependant avec cette question, ou argument, soulevée dans mon cours d’analyse : peut-on se permettre financièrement l’échec ? peut-on créer des produits mal adaptés ou mal conçus sous prétexte qu’on n’a pas le temps ou les moyens de tester, valider et itérer ?

Comme dirait Jakob Nielsen, « test it or they will detest it ».

Le hacking, Iron Man et l’internet des objets

Le hacking prend son origine au MIT dans les années 60 alors qu’un groupe d’étudiants, des geeks, prenaient plaisir dans leurs temps libres à repousser les limites de la technologie avec des solutions créatives faisant appel à des prouesses de programmation informatique. Jusque là, rien de bien méchant. Le hacking est à tord teinté de criminalité et perçu négativement. On le confond avec le cracking dont l’objectif principal est d’exploiter les failles de sécurité d’un système.

Le hacking, c’est aussi une culture où tout est possible et ludique. Le hacker, c’est le même enfant qui s’amusait à construire un fort avec des boites de carton et des coussins. Les objets qui l’entourent, les lignes de code et les programmes, sont tous de la matière avec laquelle il peut jouer et détourner les fonctions de base. Tony Stark dans son garage avec ces joujoux. À ce propos, il existe tout un volet que j’aborderai dans un autre billet : l’ingénierie sociale, où les gens sont manipulés pour atteindre un but. Ça peut sembler péjoratif, mais tout comme le hacking, il y a deux côtés à la médaille !

Qu’est-ce que le hacking vient faire dans une démarche de mémoire, vous vous demandez ? Parce que mon focus est sur les objets connectés, un domaine fortement influencé par la culture du hacking. Tout le principe du hacking s’y retrouve : détourner, bonifier et transformer les fonctions de base d’un objet. Pour reprendre les termes de David Rose du MIT, ce sont des objets qui deviennent alors magiques ou enchantés. C’est le rêve de tout enfant avec ses boites de carton.

D’après Helen Papagiannis, spécialiste en réalité augmentée, ce qui fera suite à la réalité virtuelle et la réalité augmentée, c’est l’ère de l’humain augmenté. Oubliez la femme bionique et les membres artificielles. Pensez capteurs ou encore les wearables, ces objets connectés que l’on porte comme un bijou ou un vêtement et qui nous permettent d’augmenter la portée de nos capacités en tant qu’humain. De la science-fiction ? Pas tant que ça. Par contre, ce qui vous donnera peut-être des frissons, ce sont les interactions BCI (Brain-Computer Interface). BrainGate a fait plusieurs avancées dans ce sens, permettant à Cathy Hutchinson, une femme lourdement handicapée, de bouger un bras robotique avec sa pensée. Quand la technologie est au service de l’humain et de ses besoins, l’ergonome en moi jubile.

Pour revenir au hacking, cette culture trouve des ramifications partout. Notamment, le biohacking et le life hacking. Le life hacking a été mentionné la première fois en 2004 par le journaliste Danny O’Brien pour exprimer une astuce ou un raccourci permettant de simplifier des tâches ou activités de la vie quotidienne et augmentant la productivité ou l’efficacité. Quelle est la définition de l’utilisabilité, la norme ISO 9241-11, qui propulse le travail de l’ergonome ?

Le degré selon lequel un produit peut être utilisé, par des utilisateurs identifiés, pour atteindre des buts définis avec efficacité, efficience et satisfaction, dans un contexte d’utilisation spécifié.

Voilà. La boucle est bouclée. Tout l’intérêt du hacking et de l’internet des objets se trouve là-dedans. Dans un billet précédent, je mentionnais hésiter entre 2 sujets de mémoire découlant de l’internet des objets. Je réalise aujourd’hui que ces sujets s’entrecoupent et convergent vers le même but : les objets connectés permettent de hacker le quotidien de l’utilisateur, que ce soit le biohacking ou le life hacking. Conséquemment, l’utilisateur gagne en efficacité, en efficience et en satisfaction. Plus important encore, sa charge cognitive s’en retrouve diminuée.

Ma problématique sera donc la suivante : un objet connecté, en l’occurence un wearable, peut-il augmenter les capacités cognitives de l’humain en libérant des ressources attentionnelles et en diminuant la charge mentale de travail ? évidemment, mon hypothèse, à la lumière de ce billet, est que l’humain bénéficie d’un objet connecté notamment par le biohacking et le life hacking.

L’erreur humaine

L’un des aspects incontournables de l’ergonomie cognitive est la gestion de l’erreur humaine : minimiser l’erreur humaine en déployant des solutions optimisées aux capacités et limites de l’humain en s’intéressant notamment au traitement de l’information et aux processus cognitifs impliqués. Deux sujets touchés de près par cette problématique : la santé publique et les transports.

Samedi 8 août, midi. Je sors du nouveau centre hospitalier McGill, le CUSM. Mon père vient d’y opérer à coeur ouvert. Les avancées de la médecine nous permettent de faire ce genre d’opération avec moins de risque et plus d’aisance. N’empêche que c’est une opération sérieuse où un chirurgien ouvre le thorax d’un patient pendant au moins 5 heures, arrête le coeur et pompe le sang à l’aide d’une machine pendant au moins 40 minutes. Mon père ne se souvient plus de ces heures fatidiques, mais nous, sa famille, alors que nous étions dans la salle d’attente, nous avions le temps d’y penser. Un tas de choses aurait pu mal tourner. Heureusement pour nous, tout s’est déroulé sans heurt.

Après deux jours de veille à regarder l’état de mon père se stabiliser et enfin s’améliorer, je continuais à y penser en retournant chez moi. L’erreur humaine, surtout en milieu médical, ça existe. Parce que nous ne sommes pas des machines. Et au volant, nous sommes d’autant plus vulnérables. L’humain n’est pas le meilleur quand vient le temps de faire une tâche répétitive ou de surveillance. Notre seuil d’attention diminue au fil du temps. Il m’a suffi d’un moment d’inattention pour que je percute le camion devant moi sur l’autoroute. Une erreur humaine qui en a engendré une autre : la circulation s’était arrêtée brusquement, probablement parce que les voies convergent vers une seule voie, et je n’ai pas eu le temps de freiner suffisamment pour éviter la collision.

En 2015, j’ai du mal à comprendre pourquoi nous conduisons encore nos véhicules. D’une part, le transport collectif me permet d’optimiser mon temps à faire autre chose que consacrer mon attention à la route. Conduire est une activité sans valeur ajoutée et abrutissante. D’autre part, la conduite automobile fauche la vie de tellement de gens chaque année pour des tas de raisons : alcool, fatigue, stress, intempéries, textos, etc. Comme l’explique le designer Golden Krishna, l’industrie automobile semble échouer à faire des changements significatifs de design, ajoutant toujours plus de gadgets qui complexifient l’interface et augmentent le coût cognitif. Pourquoi placarder un écran tactile dans le tableau de bord si l’on doit aviser et sensibiliser l’utilisateur du danger potentiel à chaque démarrage ? Cette industrie répond à un besoin d’affaires, tout simplement. Le véritable changement ne peut que se produire plus haut, par des législations, comme le port obligatoire de la ceinture de sécurité. Avec un peu de chance, la voiture autoconduite fera partie intégrante de nos vies et conduire sera illégal d’ici 2030.

Encore en 2015, des gens meurent subitement d’un arrêt cardiaque sans symptômes pour semer le doute. Si vous êtes chanceux, comme mon père, vous aurez une douleur à la poitrine, une pression artérielle beaucoup trop élevée et peut-être même le souffle court pour sonner l’alarme des artères bloquées. Là aussi, il y a des enjeux d’affaires. Tant que vous prenez vos multiples médicaments pour la pression, le cholestérol et le diabète, tout le monde se porte bien. Alors que quelques pontages plus tard, vous voilà comme neuf. Parfois, la pression artérielle diminue au point où un médicament n’est plus nécessaire. Un régime alimentaire sain et quelques aspirines peuvent suffire à éviter le bistouri de nouveau. Pour ce qui est de légiférer, tant que le pouvoir est dans la cour des grands, pharmaceutiques ou assurances, c’est l’argent qui dicte les règles. Votre rendez-vous annuel chez votre médecin de famille ne permet pas de capturer toute l’étendue de votre santé. Au mieux, il pourra prendre un seul cliché, flatteur ou non, de l’ensemble du portrait. L’état de santé fluctue et plusieurs mesures dans le temps sont nécessaires pour comprendre les dynamiques sous-jacentes. La raison est simple : une régression linéaire requière un seuil minimum de données. Il est possible que la fenêtre qui correspond à votre prélèvement sanguin annuel n’est qu’une anomalie ou l’exception du tableau. Le corps humain est une machine où tout fonctionne en co-dépendance dans un équilibre fragile. Les sportifs et athlètes professionnels l’ont compris et font appel au biohacking depuis plusieurs années. Pourquoi attendre que les symptômes apparaissent pour consulter ? Ou pourquoi s’en remettre à une seule mesure par année pour construire un bilan de santé ? Avec de plus en plus d’objets connectés et de capteurs biométriques abordables sur le marché, on assistera à une démocratisation et une appropriation de notre santé. À ce propos, Peter Diamandis mentionne la disruption du système de santé dans son article The World in 2025: predicting the next 10 years.

Les sciences cognitives permettent de trouver des solutions à l’erreur humaine : la conscience de la situation (Situation Awareness), l’automatisation, la robotisation, les capteurs, le big data, l’intelligence artificielle, etc. En acceptant nos propres limites en tant qu’humain et en mettant nos scrupules de côté, on a l’opportunité d’améliorer la condition humaine.

L’internet des objets

La portion la plus difficile d’un mémoire de maîtrise est probablement de cadrer le sujet et trouver la problématique. L’ergonomie cognitive est un domaine relativement large et les avenues possibles abondent. Comme je suis présentement stagiaire en UX dans une startup montréalaise de wearable, ça l’a grandement influencé mon choix.

Que sait-on des objets connectés, de l’internet des objets, du wearable ? le sujet est relativement jeune, mais pas si nouveau. Avec l’arrivée de l’AppleWatch, on assistera à une plus grande démocratisation. À l’heure actuelle, je vois deux problématiques possibles à résoudre :

  1. La santé connectée et le soi quantifié ou comment un object connecté peut motiver l’utilisateur à changer ses habitudes par une meilleure conscience de la situation.
  2. La charge de travail mentale et le coût cognitif d’un object dit sans interface visuelle (No GUI) par rapport à un appareil avec écran ou quelles sont les stratégies et autres langages possibles pour optimiser une tâche.

Bref, ce sont deux sujets très chauds. D’un côté, le Biohacking et de l’autre, le No Interface. Présentement, je lis tout ce que je trouve sur l’internet des objets en général mais aussi, plus spécifiquement sur ces 2 problématiques. Si vous avez des suggestions de lecture ou des articles scientifiques qui vous semblent pertinents, surtout, n’hésitez pas à me les suggérer.

Ergonomie cognitive… hein ?

Pour faire suite à mon premier billet, il m’a semblé pertinent d’expliquer davantage l’ergonomie cognitive dans un premier temps. Ça sera aussi pour moi l’occasion de faire un récapitulatif. Qui sait, peut-être que vous aussi vous aurez la piqure pour ce domaine !

Définition

Pour comprendre l’ergonomie cognitive, faut d’abord définir l’ergonomie :

Ergonomics (or human factors) is the scientific discipline concerned with the understanding of interactions among humans and other elements of a system, and the profession that applies theory, principles, data and methods to design in order to optimize human well-being and overall system performance.

— International Ergonomics Association

La cognition réfère à tous les processus de traitement de l’information, de perception et les limites de l’humain. L’ergonomie cognitive prend essence dans les sciences cognitives qui rassemble 6 axes de recherche : la philosophie, la linguistique, l’anthropologie, la neurologie, l’informatique et la psychologie.

Avant même d’être en contact avec l’ergonomie, j’étais très attirée par les sciences cognitives en général dont le fonctionnement du cerveau humain et la psychologie, comme le béhaviorisme (la boite de Skinner), le Flow Theory par Mihaly Csikszentmihalyi ou le Positive Psychology par Martin Seligman. À ne pas confondre avec la pop psycho ou « la pensée positive ». D’ailleurs,  Seligman est à l’origine du learned helplessness, une expérimentation sur des chiens qui dément la boite de Skinner et pour lequel il a été accusé de maltraitance envers les animaux. Bien qu’à prime abord son angle de recherche visait à comprendre la dépression, ça lui a permis de découvrir certains mécanismes inverses. Comme quoi un projet de recherche nous réserve parfois des surprises.

Ce qui m’amène à un autre sujet très relié : les biais cognitifs. Une partie importante du travail de l’ergonome est de reconnaitre certains biais, patrons et modèles mentaux chez les utilisateurs. En étudiant l’ergonomie cognitive, on est régulièrement exposé aux principaux biais cognitifs. Il y en a des tonnes, mais celui que je préfère est le IKEA effect. Je n’en dis pas plus et je vous laisse le découvrir.

Applications

L’ergonomie cognitive connait un essor fulgurant avec la démocratisation des outils numériques et la multiplication des interfaces humain-machine. Cette science est applicative : conception, modèles et résolution de problèmes. C’est ce qu’on appelle l’ingénierie cognitive. Notamment, elle se penche sur l’impact de la charge mentale de travail dans notre ère numérique surchargée d’activités intellectuelles.

L’application la plus connue est le design d’expérience utilisateur (ou UX). L’ergonomie vise surtout l’utilisabilité et l’obtention d’un degré de performance dans la tâche. L’expérience utilisateur s’intéresse à la couche supérieure, le gravy, qui permet d’atteindre une expérience satisfaisante et agréable. On cherche à susciter des émotions favorables chez l’utilisateur pour le convaincre de réutiliser le produit. Le design d’expérience utilisateur fait beaucoup appel à des mécanismes de persuasion, comme l’esthétique, pour orienter le comportement de l’utilisateur.

Des produits comme le iPhone ou le tout nouveau AppleWatch ont été façonné grâce à l’ingénierie cognitive. Le digital crown est un bel exemple d’affordance, concept introduit en interaction humain-machine par le grand manitou du design Don Norman, qui stipule qu’un objet, comme une poignée, a une capacité suggestive d’action.

Les objets connectés sera d’ailleurs mon prochain topo. Les applications sont multiples et tôt ou tard, je devrai cadrer un sujet de mémoire ! alors restez connecté…

 

Relier les points ensemble

Tranche de vie… Je suis au restaurant samedi soir passé avec mes cousines. La dernière fois qu’on s’est vu recule à plus ou moins 10 ans. Chacun fait un résumé des dernières années comme en mode speed dating. Ce n’est pas la première fois qu’on me regarde de façon perplexe. Déjà, quand je disais designer graphique ou directrice artistique, je devais démystifier mon rôle. Maintenant que j’étudie les facteurs humains et l’ergonomie, c’est encore plus obscure.

J’essaie alors d’expliquer l’ergonomie cognitive en quelques mots à mes cousines. Pas évident ! ça l’a donné quelque chose comme : ça ressemble à de l’ergonomie telle qu’on la connait, où on s’intéresse au confort et l’utilisation d’un poste de travail, mais appliqué spéciquement à l’utilisation des interfaces humain-ordinateur. Bref, au lieu de se pencher sur les critères physiques, ce sont les critères cognitifs qui sont explorés (la perception, l’apprentissage, les modèles mentaux, la sémantique, etc.).

Comment en suis-je venue à découvrir et me passionner pour ce domaine ? premièrement, déjà en design graphique, j’avais un intérêt pour la gestalt. Je voulais appliquer une science, un raisonnement à ce que je faisais, peut-être parce que j’éprouvais un inconfort à rester à un stade abstrait et non justifié dans mes créations. Une partie de moi, l’ingénieur, voulait que ce soit davantage que simplement de l’esthétisme ou du gut feeling. Et puis, j’ai entendu que le design passe d’abord par la fonction, ça m’a encore plus interpellée. Mes premières années en agence, j’ai eu la chance de faire du design d’emballage alimentaire. Ça m’a permis de faire un art qui demandait du raisonnement sur les volumes, les faces et la hiérarchie d’information.

Dans l’emballage alimentaire, j’ai eu aussi à me poser des questions sur le consommateur, sa perception et l’impact du produit en tablette. J’étais intriguée par les processus impliqués dans l’achat du produit. Je me suis interrogée sur la psychologie du consommateur et un brin à l’anthropologie. J’envisageais déjà un retour sur les bancs d’école, mais pour étudier quoi ?

Puis les 3 dernières années, j’ai délaissé complètement le monde de l’imprimé pour sauter dans l’ère numérique. J’ai eu l’occasion de travailler au sein de Nurun, une grosse agence de développement de sites web où j’ai côtoyé des gens multidisciplinaires qui m’ont ouvert les yeux sur plein de possibilités. L’une de ces facettes est le design de l’expérience utilisateur ou le UX dans le jargon des initiés. Puis, dans une autre agence, j’ai rencontré des gens extraordinaires qui m’ont parlé du belief-based consumption. J’ai ainsi développer un fort intérêt pour le UX.

Au même moment, j’ai enfin trouvé une formation à la hauteur de mes espoirs. La Polytechnique offre des cours ciblés sur les interactions et les interfaces humain-machine. Quand j’ai été admise au programme, tous les éléments se sont mis en place. Comme le disait Steve Jobs à son discours aux finissants de Stanford de 2005, je suis en train de relier les points ensemble. Des fois, le chemin est sinueux, mais les expériences s’empilent et ça finit par faire du sens.

You can’t connect the dots looking forward; you can only connect them looking backward. So you have to trust that the dots will somehow connect in your future.

— Steve Jobs

Aujourd’hui, j’entreprends cette démarche de mémoire et de recherche dans le cadre de la maitrise à la Polytechnique. Je suis un brin anxieuse, mais excitée. Je ferai probablement des erreurs, rencontrerai des obstacles, mais je découvrirai et apprendrai plein de choses. Surtout, je pourrai expérimenter et appliquer ce que j’apprends pour en faire profiter les autres. Ma motivation principale : contribuer.

Je vous invite donc à suivre mon parcours qui devrait s’échelonner sur la prochaine année. N’hésitez pas à me poser vos questions ou me suggérer des sujets ci-dessous.

Merci et à bientôt !