Offre de stage UX Designer

Nous souhaitons former une personne ayant plutôt un profil webdesigner, s’intéressant au marketing et souhaitant devenir un expert en expérience utilisateur.

Cette personne sera amenée à assister notre équipes dans les missions suivantes :

  • Mise en place de tests utilisateurs et analyse des résultats
  • Conception d’interfaces
  • Optimisation avec tests A/B et multivariés

Les compétences requises :

  • Savoir utiliser Photoshop et Illustrator
  • Avoir des connaissances HTML et CSS pour pouvoir faire l’intégration de tests A/B ou multivariés
  • Avoir un bon niveau rédactionnel pour la rédaction de rapports d’audit d’interface

Compétences appréciées

  • Dessin
  • Affinités avec les médias sociaux et l’animation de communauté
  • Montage vidéo (After Effect, Final cut, …)
  • Bonne culture graphique et typographique
  • Sensibilité pour la mise en forme de données

 

Poste basé à Roubaix dans le Nord
Salaire : rémunération légale pour un stage
Date d’embauche : dès que possible

 

Formation requise :

  • Formation : niveau BAC+2 ou BAC+3 avec une formation de préférence dans la marketing, le digital ou le webdesign

Adressez vos candidatures par email ou par courrier à : jeveuxunjob@wexperience.fr

Ou demandez Olivier Sauvage au 06 59 38 92 92.

Commenter l'article

Testez avant de « révolutionner » !

touchphone in female hands

Cet article est un plaidoyer pour le test des applications mobiles ou logiciels par les utilisateurs finaux. Et qui montre que bien des innovations pourraient mieux trouver leur marché si elles étaient testées.

A force de bosser dans les NTIC, on voit passer un nombre presqu’invraisemblable de « révolutions ». Certes, Apple avait lancé le mot, mais tout le monde aime à le reprendre en coeur pour la moindre innovation. Créant par là une sorte de nuage permanent de révolutions. A lire parfois les articles de blogs, les interviews, les études, les compte-rendu de salon, on aurait parfois l’impression que le monde serait en révolution permanente.

Mais l’article qui m’a fait réagir et me fait écrire ici concerne les beacons, ces jolis petits galets de plastiques que l’on place dans les lieux non accessibles au GPS et qui permettent entre autres de faire de la géolocalisation indoor.

L’article, que je ne citerai pas, mettait en avant tous les monts et merveilles promis par les beacons : la géolocalisation en magasin, les alertes en magasins, les accueils personnalisés, et j’en passe. A le l’article, les beacons sont la NEXT THING dans le commerce digital.

Comme en général, la vraie révolution, dans le digital, se fait en douce (qui avait prévu Google ou Facebook ???), dès qu’on parle de révolution, ma méfiance s’éveille.

Les beacons : une vraie-fausse révolution ?

Si je reprends les beacons, par exemple, une des applications révolutionnaires engendrées par eux serait la possibilité d’adresser un message personnalisé aux personnes entrant dans un magasin équipé de ce matériel. Fabuleux ! Plutôt que d’avoir un vendeur honnête et sympathique, vous recevriez un SMS qui vous souhaiterait la bienvenue. Pour ce qui est de la qualité de la relation client on repassera, mais c’est sans doute dans l’air du temps de remplacer les êtres humains par des machines, puisque pour certains ça semble être une idée géniale.

Plus sérieusement, les beacons permettraient entre autres d’offrir des code promos en affinité avec votre profil dès que vous entreriez dans un magasin. Pourquoi pas ? Mais là encore on peut s’interroger sur la pertinence d’une telle proposition. A supposer que tous les magasins fassent la même chose, on imagine la foire d’empoigne dans la poche du client, qui verrait son smartphone vibrer à chaque fois qu’il passe à proximité d’une enseigne ou qu’il y rentre. Et, c’est à supposer qu’il ait installé l’application adéquate et accepté de recevoir des notifications, ce qui n’est pas gagné.

Autre immense avantage des beacons, pouvoir, par exemple, retrouver sa place de parking. Certes, ce n’est pas inutile, mais combien de personnes préféreront se servir de leur mémoire, d’un stylo ou prendre une photo pour noter leur emplacement de parking. Faut-il vraiment une application pour ça ???

L’innovation oui, mais pour quels usages ?

Je pourrai continuer à dérouler sarcastiquement bon nombre d’exemples du même genre, mais l’important n’est pas de se moquer, mais de faire réfléchir. Car de mon expérience, alors que l’innovation technologique permet effectivement de faire beaucoup de choses : les applications qui en découlent ne prennent bien souvent pas du tout en compte le vrai besoin utilisateur. Elles sortent souvent tout droit de l’imagination de leur concepteur sans jamais avoir testées auprès du public cible l’idée, ni même l’avoir essayé. Résultat : des tonnes d’innovations à jeter à la poubelle et beaucoup de bruits dans les médias pour pas grand chose.

Je vous donne un dernier exemple d’une application que j’ai testée récemment. Il s’agit d’un système capable de reconnaître des produits dans une page de magazine et de les afficher ensuite dans une e-boutique pour avoir plus d’infos dessus et les commander.

L’idée est bonne, la technologie fonctionne, mais quand on passe à la pratique, c’est autre chose. A plusieurs reprises, l’application n’a pas été capable de détecter un seul produit sur la page de magazine en question. Et quand elle y arrivait, c’était au prix de requêtes extrêmement longues sur un serveur distant.

Au total, l’expérience utilisateur était décevante et, si je n’avais pas été un obstiné, j’aurais sûrement rejeté l’application d’un virulent « Ca ne marche pas ! » qui est la réaction normal d’un utilisateur lambda.

2 travers de la conception d’application par des équipes peu sensibilisées à l’UX

Car ce genre d’applications fait ressortir deux choses :

- la plupart des utilisateurs n’utilisent pas le matériel dernier cri qui est utilisé par les développeurs. Beaucoup de gens n’utilisent que des vieux smartphones d’occasion ou de moyenne puissance. Et quand on sait à quelle vitesse, ces appareils se déprécient en terme de performance, on peut imaginer que pour beaucoup de gens, une application qui fonctionne parfaitement sur un iPhone 5 ne fonctionnera pas aussi bien sur beaucoup d’autres modèles de téléphone

- la plupart des utilisateurs ne passent pas leur journée à utiliser un ordinateur ou à tester des applications. C’est une grande erreur de croire que parce que votre équipe de développement arrive à utiliser une application que tout le monde va y arriver. Loin de là !

Résultat, trop d’applications arrivent sur le marché en étant trop compliquées à prendre en main, trop lourde, nécessitant une mise à jour, etc. Les freins à l’adoption peuvent être nombreux.

Et pourquoi ? Parce que la plupart (bien sûr, nombreux sont ceux qui me contrediront, j’imagine), ne sont jamais testées par des utilisateurs cibles sur du vieux matériel avec une connexion « normale ». Et la plupart ne sont pas non plus testées en contexte. Car c’est uniquement en testant une application en prenant en compte tous ces paramètres que l’on peut arriver à se faire une véritable idée de l’expérience utilisateur.

Et c’est pour ça que Wexperience est là !

Bonne réflexion, et d’avance, merci de vos commentaires si vous en avez !

Commenter l'article

Test A/B : n’arrêtez pas avant d’avoir assez attendu

Une des grandes questions que se posent nos clients lorsqu’ils font appel à nous est : « Quand est-ce qu’un test A/B ou multivarié doit s’arrêter ? » OU « A partir de quel moment est-on sûr d’être sûr du résultat ? »

Questions simples, mais réponses compliquées !

Première remarque : il est, la plupart du temps, malvenu d’arrêter un test en cours si ses résultats sont négatifs ou supposés négatifs. Mais c’est une réaction normale que l’on peut comprendre : voir la courbe d’un test s’effondrer peut signifier (en e-commerce) une perte de chiffre d’affaires. Grande est dès lors la tentation de stopper le test ou de le modifier et de passer à un autre test.

Première leçon : ne pas se fier aux apparences

C’est d’après moi une erreur.

Ou du moins, une erreur, tant que la question n’a pas été plus approfondie. Pour cela, il est indispensable de se pencher plus en avant sur les données dont on dispose. Je le montrerai à travers un exemple d’un test sur un site dont je ne peux citer le nom, mais qui prouve bien, cependant, qu’il faut savoir attendre, et pas seulement pour des raisons statistiques.

L’indice de confiance des logiciels de tests est intéressant dans la mesure où il donne une vue mathématique d’une expérience en cours. En gros, il considère qu’à partir d’un certain volume de données, le résultat peut être considéré comme fiable. L’inconvénient, ou en tout cas, l’erreur, serait de croire qu’il serait entièrement fiable d’un point de vue commercial, et cela pour une bonne raison : l’indice de confiance si le test n’est pas suffisamment calibré ne peut pas prendre en compte les différences intrinsèques du trafic testé.

Je m’explique. Dans le test dont je parle, le trafic n’était pas suffisant pour mettre en place un test multivarié alors que beaucoup d’éléments devaient être testés. Je me suis donc rabattu sur un test A/B en privilégiant une hypothèse précise. Il me fallait prendre tout le trafic possible pour obtenir suffisamment vite le résultat de mon test. Le but d’un test n’est pas, n’est-ce pas, de durer plusieurs mois.

Courbe de résultats du site testé

Courbe de résultats du site testé

Au bout de quelques jours, comme vous pouvez le voir sur la courbe ci-dessus, la version gagnante semblait être la version de contrôle (et non pas la version de test). Mais en y regardant de plus près et en croisant les données avec Google Analytics, je me suis aperçu qu’il y avait beaucoup plus de visiteurs anciens dans le trafic de la nouvelle version que de visiteurs nouveaux, introduisant par là un biais dans le résultat. En effet, qui dit « plus de visiteurs anciens » dit plus de résistance au changement et donc propension à moins convertir. J’appelle ça l’effet d’accoutumance. Et malgré un indice de confiance suffisant de la part du logiciel de test, il fallait donc attendre que le trafic s’équilibre entre visiteurs anciens vs nouveaux.

Et effectivement, au bout de quelques jours, la tendance s’inversait définitivement au profit de la version B (la nouvelle version donc). Il me suffisait alors ensuite de contrôler à nouveau la répartition du trafic entre anciens et nouveaux visiteurs pour être certain de mon résultat.

Donc en cas d’un constat de moindres performances sur les variations testées, ne paniquez pas. Vous risquez d’arrêter le test trop tôt, de tirer des conclusions hâtives et de ne pas retirer les bénéfices de la version gagnante. Demandez-vous d’abord si le trafic impliqué dans le test est correctement distribué entre les versions. Regardez si les répartitions suivantes sont quasi-égales selon les variations : nouveaux visiteurs / anciens visiteurs, sources d’acquisition, résolution d’écran, navigateurs, dispositifs utilisés (ordinateurs, tablette, mobile), visites des pages promotions, utilisation du moteur de recherche, etc.

Deuxième leçon : toujours aller plus loin

Ceci étant dit, il me semble également très important d’ajouter qu’un test ne doit pas être regardé qu’à l’aune de son objectif principal.

Dans le cas précédent, il s’agissait de tester une fiche produit. Les indicateurs intéressants pour la fiche produit sont souvent le taux d’ajout au panier, puis, ensuite le taux de conversion et la valeur par visiteur. Cela permet de voir, si effectivement, une amélioration de la performance de la page a lieu.

Sans pouvoir vous dévoiler la maquette, voici les modifications auxquelles nous avions procédées.

  • Augmentation de la visibilité des éléments de rassurance sous le bouton « Ajouter au panier »
  • Amélioration de la visibilité du nom du produit
  • Amélioration de la visibilité du stock
  • Amélioration de la visibilité du prix

Ces quatres éléments, vous le constaterez avec moi, tendent vers une meilleure rassurance et une meilleure information sur la fiche produit. Ce sont des facteurs extrêmement important pour augmenter la conversion.

Les résultats à la fin du test ont été probants :

+ 14 % en taux de transfo et ce, malgré une baisse de 1,4% du taux d’ajout au panier

Que s’est-il passé ?

Premier point : malgré une baisse du taux d’ajout au panier, on constate une augmentation de 9% de la validation du panier pour les personnes ayant vu la nouvelle fiche produit.

Deuxième point : on discerne très nettement dans le trafic des visiteurs ayant la version de test une augmentation des visites vers les pages de rassurance (+15% environ). Effet indirect ou induit, ces mêmes testeurs vont moins solliciter la page de contact.

Troisième point : une meilleure information entraîne un meilleur engagement des visiteurs avec une très nette augmentation de pages vues par visites, ainsi qu’un taux de retour (de visite) en augmentation également.

Comme vous pouvez le voir, ce test simple nous a permis d’en apprendre beaucoup sur le comportement des utilisateurs et nous a permis de découvrir de nouvelles pistes d’optimisation : amélioration des informations sur les pages produits et services notamment.

Il nous a aussi montré qu’il n’est pas possible de ne pas attendre suffisamment longtemps la conduite du test, car trop d’éléments humains entrent en jeu pour se contenter d’un résultat obtenu en moins de 2 semaines.

Tester consiste donc à bien mesurer les effets de bord et à être patient.

Commenter l'article

Quoi de neuf dans Visual Website Optimizer ?

idea_factory

Nous avons pu assister en interne au dernier webinar de Wingify, maison fondatrice de Visual Website Optimizer, notre outil d’A/B testing préféré.

Et quand on parle d’A/B testing, on parle évidemment bien de tests multivariés, split test, etc.

Trois nouveautés majeures au rendez-vous.

Une refonte complète de l’interface

Que ça ait un impact ou pas sur l’efficacité de ceux qui font les tests tient du domaine du possible. Toujours est-il que la nouvelle interface de VWO semble plus ergonomique, plus conviviale, et surtout adaptée au mobile. De là à piloter des campagnes de tests depuis son smartphone, il n’y a qu’un pas que nous franchirons allègrement dès que l’occasion nous en sera donnée.

La segmentation des résultats

Beaucoup plus importante est la possibilité désormais de pouvoir segmenter les résultats d’un test et donc d’en affiner la lecture. C’est une évolution que nous attendions depuis longtemps et qui va permettre d’améliorer le conseil et le testing dans le long terme en permettant une analyse plus fine.

Exemple simple : il deviendra possible de mesurer l’impact d’une évolution sur tablette ou desktop dans le même test. Mais cela n’est qu’un exemple. Ainsi pour un même test pourra-t-on aussi mesurer quelles sont les sources de trafic qui convertissent le mieux. Cela pourra être décliné à toutes les sauces : nombres de visites, valeurs dans un cookie, nouveaux visiteurs, etc… Les possibilités qui s’ouvrent à l’analyse sont immenses.

variations_chart

Les tests d’applis mobiles

Enfin, et c’était la grosse surprise du Webinar, il va aussi être désormais possible de faire du test d’applications mobiles. Pour l’instant, cette option est encore en bêta, mais elle est extrêmement prometteuse dans un domaine où le test était impossible. Réservé à iOS, nulle doute qu’elle sera aussi disponible prochainement pour Android. Et pour vous faire patienter, vous pourrez vous faire une idée de l’outil sur le screenshot ci-dessous.

ios_testing

Au vu de toutes ces nouveautés, et si l’envie vous prend d’optimiser votre site, n’hésitez pas à nous contacter pour en savoir plus.

Commenter l'article