acti, agence web lyon

Le Blog

Le web dans la Présidentielle 2017 française : quelle place ? Quelles stratégies ? Quelle efficacité ?

Par Raphaël, le lundi 13 Feb 2017 dans Actualité digitale Brand content Réseaux Sociaux

Pour la très grande majorité des candidats à la Présidentielle 2017 (on en dénombre plus de 50 à ce jour), le web apparaît d’abord comme l’opportunité de faire parler d’eux, alors que les médias traditionnels (télé, radio…) ne leur accordent pas ou peu de temps de parole. Un média « classique » doit raisonner audience de masse : il lui est impossible d’accorder du temps d’antenne à un(e) candidat(e) qui ne représente pas une masse media assez critique pour générer de l’audience.

Des petits candidats en mode survie grâce au digital

Du coup, le seul moyen qui reste aux micro-candidats pour exister –un peu-, ce sont les média maisons et clés en main, à savoir les réseaux sociaux (Facebook et Twitter étant les plus utilisés). Mais aucun d’eux ne parvient à construire une audience quantitative et qualitative au-delà de leur famille, de leurs amis (les vrais) et de quelques électeurs égarés en quête de renouvellement. Ça ne pèse pas lourd ! Au final, ces candidats –fantaisistes pour beaucoup- en sont réduits peu ou prou au même sacrifice de leur personne : non pas à la France, mais à la science… électorale. Heureusement qu’il n’existe pas de bocal digital au formol !

Parmi ces micro-candidats, ceux qui disposent, comme l’écrivain-candidat Alexandre Jardin d’une notoriété réelle, voire qui incarnent une figure politique comme l’ex-ministre Rama Yade, ne sont guère mieux lotis ? Leur électro-encéphalogramme digital est aussi plat que leur potentiel électoral. Ça vaut aussi pour Charlotte Marchandise-Franquet, pourtant première candidate désignée par les internautes sur LaPrimaire.org.

Le digital n’apparaît d’ailleurs pas comme une nouvelle inconnue qui bouleverserait l’équation de l’opinion. Quand une candidature ne prend pas sur le web, elle ne prend pas tout court : ni sur les marchés, dans la vraie vie ; ni, encore moins, dans les médias traditionnels. Où sont les Philippe Poutou (NPA) ou Nathalie Artaud (LO) à l’extrême gauche ? Où sont les plus-gaullistes-que-moi-tu-meurs Nicolas Dupont-Aignan, Michèle Alliot-Marie (pourtant ministre pendant 10 ans) ou Henri Guaino, député et plume de l’ex-Président Sarkozy ? À l’inverse, comme un paradoxe ultime, sorte de démonstration par l’absurde : François Bayrou. Cet ex-futur-peut-être-candidat à ce jour, seul contre tous et vraiment tout seul dans son micro-parti, dispose de plus de temps d’antenne que bon nombre des sus-nommés alors que sa présence digitale est réduite à pas grand chose…

Des grands candidats à l’offensive sur les réseaux sociaux

Qu’en est-il alors du côté des « grands candidats », ceux qui probablement pourront concourir effectivement à la compétition officielle ? Tous ont bien compris que désormais la joute démocratique se joue désormais tout autant sur le web-échiquier politique que dans les meetings ou sur les plateaux du JT de 20h. Et certains avec plus d’audace que d’autres.

Ceux, tout d’abord, qui peuvent capitaliser sur des commandos de militants très mobilisés, très aguerris sur le terrain du tractage au marché ou aux entrées-sorties des usines et des barres d’immeuble. Comme aux militants d’Obama dès 2008 ou de Trump en 2016, donnez leur une application pour optimiser et cibler le porte à porte, mettez à disposition des éléments de langage digitaux, émettez, ne serait-ce qu’un seul tweet, et ce sont toutes ces communautés digitales acquises à votre candidature qui se lèvent, partant à l’assaut de l’opinion dans la rue et sur les réseaux. Militants de jour, ils militeront désormais la nuit, de l’autre côté de la sphère. Les cyber-militants sont d’abord des hyper-militants ! Toujours disponibles et prêts pour soutenir à distance leur candidat via un Facebook Live, poster des commentaires sur les réseaux sociaux, argumenter sur les forums de discussion… et pour les plus digital natives d’entre eux, ils n’hésitent pas à créer et à propager un bon mot, un détournement, une vidéo choc… quitte à prendre des risques juridiques pour eux-mêmes comme pour leur candidat de cœur ; quitte à pratiquer parfois une désinformation malodorante… Des logiciels spécialisés ont vu le jour au cours des derniers mois. Le marché décolle.

Les primaires de la droite et de la gauche ont accéléré la conquête du web comme aire de jeu idéale des politiques : pratique, réactif, permettant une liberté de ton inégalé et surtout pas cher, un critère crucial pour ces élections internes à des partis politiques. Avec son lot de vainqueurs surprises, François Fillon à droite et Benoit Hamon à gauche. Deux candidats que personne n’avait vu venir. Aucun sondage n’en avait mesuré la percée avant les 15 derniers jours de campagne. Alors que pour prédire ce qui se passerait dans la vraie vie, il aurait suffi aux sondeurs, soit de prendre le métro ou de se rendre à la sortie des messes du dimanche ; soit et surtout, d’analyser ce qui se passait sur le Web. Les cas Fillon et Hamon sont exemplaires.

Hors les primaires, Jean-Luc Mélenchon a créé une chaîne YouTube dédiée, orchestrée par Antoine Leaument, un Youtubeur influent. Emmanuel Macron a lui lancé son mouvement « En marche » en avril exactement comme Obama en 2008 et 2012 : grâce à une vidéo typiquement conçue pour le web, avec un story telling très étudié… 

Le Front National enfin, avec Marine Le Pen qui compte s’adresser le plus souvent possible à sa communauté sur Facebook (1,174 million de membres en janvier, de très loin la plus nombreuse maintenant que Nicolas Sarkozy n’est plus dans la course) ou encore Florian Philippot, qui lorgne de l’oeil une communauté à part dans le Web français, le forum Blabla 18-25 anx de jeuxvideo.com.

La jeunesse : vraiment une cible politique ?

Les jeunes justement : sont-ils la cible désignée de cette web campagne ? Sans doute, même si aujourd’hui, l’ensemble du spectre socio-démographique est représenté sur les canaux digitaux. Comment expliquer alors que des candidats s’investissent (et investissent) sur les canaux digitaux les plus orientés jeunes ? Pourquoi le font-ils alors que, chacun le sait, la jeunesse est la cible de population de très loin la plus éloignée de la vie publique ?

Pour comprendre, il faut observer deux choses. Premièrement, ne sont pas visés tous les jeunes mais seulement certains. Inutile de s’adresser aux jeunes qui s’abstiennent dans les urnes comme sur le net : sur les réseaux sociaux, il faut viser -et (r)animer puis tenir en haleine- exclusivement les plus militants d’entre eux.

Ce n’est donc pas un hasard si les communications digitales les plus adaptées et ciblées jeunes sont celles de Jean-Luc Mélenchon, Emmanuel Macron ou Marine Le Pen… les 3 candidats qui se proclament « hors système », en rupture avec les vieux partis de papa-maman, papy-mamie.

Des super-hérauts de partis alternatifs, des héros « punks » – malgré les costumes bien coupés -, pour ces jeunes déjà très politisés. Les urnes en attestent : aux élections des 10 dernières années, sans discontinuer, le Front National est le premier parti chez les votants de moins de 30 ans, suivi du Front de Gauche sous ses divers avatars et ses divers porte-drapeaux : Mélenchon aujourd’hui, Besancenot hier. Reste à attendre encore un peu pour mesurer un éventuel effet Macron chez les jeunes votants. Ce sera d’autant plus intéressant qu’il est de facto le plus jeune des candidats à une Présidentielle depuis toujours !

Effet Macron ou #PenelopeGate : ça passe ou ça casse ?

Au final, faire campagne sur le web : réelle opportunité ou passage obligé pour tous les candidats ? Les deux ! 

Passage obligé car comment imaginer faire campagne efficacement sans d’abord le faire sur les médias sociaux. Les marques investissent désormais majoritairement sur ces médias car c’est là que nous sommes au quotidien, nous les consommateurs ? Alors comment les candidats à une élection pourraient-ils ignorer que ce sont aussi sur ces médias qu’une bonne partie de leurs électeurs se trouvent désormais ; et que cela ne peut aller que crescendo ?

Réelle opportunité surtout dans un système politique et médiatique resté figé au cours des décennies passées. Et vis-à-vis duquel, justifiée ou non, il existe une crise de confiance de la part de l’opinion publique. Pour les citoyens qui veulent se forger une opinion, les médias sociaux sont un espace de liberté politique nouveau. Liberté de s’informer, de de dialoguer, de décrypter les discours politiques customisés à la sauce « spin doctors » des agences de comm’. Avec ses dangers et ses risques : la désinformation, l’injure, la diffamation, le délit d’opinion…

Réelle opportunité surtout, pour les femmes et les hommes politiques en position de challenger. La part de marché qu’ils n’ont pas à priori sur le marché de l’opinion et dans l’espace médiatique traditionnelle, ils la conquièrent sur le Web. Ensuite, à eux de choisir : ou bien le web reste la colonne vertébrale de leur stratégie de conquête de l’opinion, en contournant ainsi le système médiatique traditionnel (Mélenchon, Le Pen). Ou bien, ils font du web un levier pour réinvestir le champ des médias classiques : stratégies de Macron, de Fillon ou de Hamon.

Macron

Dans les deux cas, le web devient un outil de dialogue direct entre les candidats et l’opinion. Sans intermédiation. Fini les journalistes entre les candidats et le peuple. Avec le web, le candidat maitrise son discours ; il dit ce que sa communauté attend et veut entendre. Du coup, celle réplique, diffuse, amplifie le message ; le débat s’anime… il s’envenime parfois. Et voilà un buzz formidable à moindre coût. En un tweet, une vidéo, un bon mot ou une posture sur le digital, un candidat peut générer gratuitement tellement de contenus rédigés par ses communautés proches que l’impact sera au moins équivalent à celui d’une émission radio ou télé. Mais gare à ne pas se tromper. Ca marche dans les deux sens : le bad buzz peut plomber une campagne en quelques heures. François Fillon en sait quelque chose à propos du #penelopegate. Et sa tentative de sauvetage sur les réseaux sociaux n’a pas été efficace. Pire, elle a accentué le mal. 

Finalement, et si la clé de toute campagne électorale digitale tenait sans surprise dans un éco-système web cohérent faisant la part belle au contenu ? Pourvu que ces contenus traduisent un discours lui-même cohérent. Faire campagne sur le web, n’est-ce pas tout simplement prolonger la politique des estrades, des marchés et des allées d’immeuble par d’autres moyens ?

Commenter cet article Voir les commentaires (0)

Paris Web et séminaire Accessiweb 2016

Par Marie, le vendredi 21 Oct 2016 dans Actualité digitale

Paris Web : On a tous un rôle à jouer

Paris Web : On a tous un rôle à jouer

Après un avant-goût de Paris Web il y a 3 ans, j’ai eu la chance cette année de participer à l’événement en entier. Et comme se déroulait la même semaine le 23ème séminaire Accessiweb, voici mon retour sur ces 4 jours riches en découvertes et en échanges !

Vous y découvrirez, entre autres, comment rendre les contenus sur Twitter accessibles, un formulaire pour calculer le salaire d’une nourrice, ou comment un site peut être consulté sans connexion internet…

Sommaire :

 

Un web inclusif, prendre soin des utilisateurs/rices

Autant annoncer tout de suite la couleur : la baseline de Paris Web est « web design, qualité et accessibilité », et ce dernier domaine étant la thématique d’Accessiweb, les deux événements se sont particulièrement fait écho.
L’idée que j’y ai vu en fil rouge est de tenir compte des multiples contextes des internautes, que ces contextes soient culturels, personnels, techniques…

On a donc parlé internationalisation, par exemple, avec la conférence d’Aurélie Guillaume, 15 minutes très denses pour évoquer les gros impacts d’un passage d’un site à l’international.

Eh oui, la gestion des différentes langues, déjà complexe en tant que telle, n’est qu’une partie des points à avoir en tête : les champs de formulaire, l’orientation et la taille du texte, les dates, les prix, les symboliques de design mais aussi les lois en vigueur peuvent varier d’un pays à un autre !

1 250,42€ : 1,250.42 € ou € 1.250,42 ou $ 1.392,90 ou $ 21097,013 (ARS) ou 144 131 ¥ ? TVA, douane ?
Extrait de la présentation

Et n’oublions pas que les services tiers dont nous avons l’habitude n’existent pas partout, et que cela peut nécessiter de gros ajustements de fonctionnalités parfois principales (ex : Facebook Connect, Google Maps… qui ne peuvent pas marcher en Chine).

Tout cela résulte en une multitude de points plus ou moins grands à traiter le plus en amont possible, et idéalement à avoir en tête, même lorsque le projet n’a pas (encore) vocation à être internationalisé.

Voir la présentation « Lancer son site à l’international facile ? Oui, si l’on pense à tout ! »

Le sujet a trouvé un prolongement lors d’une discussion informelle sur « comment rendre le web plus inclusif au quotidien », où ont été évoquées ces situations où l’internaute peut se sentir non-accueilli(e) voire rejeté(e) : non-accessibilité, mais aussi formulaires qui n’acceptent pas les informations (correctes) car trop restrictifs, langage genré inadéquat, représentations visuelles limitées…

A été discutée l’idée d’un web « glocal » : global dans sa dimension internationale, mais en même temps local dans son adaptation aux différentes cultures et usages, voire personnalisable par chacun(e).

La discussion a également dérivé sur la problématique de la diversité au sein des conférences et du métier en général, car c’est en faisant se rencontrer différentes cultures, personnalités et expériences, qu’on peut plus facilement questionner ses propres biais et concevoir des projets réellement « accueillants » pour toutes les personnes.

Le concept des informelles est que chaque participant(e) à Paris Web peut proposer sur place un sujet de discussion, qui sera éventuellement retenu par le staff et planifié dans la journée.
C’est ici la seule à laquelle j’ai participé, mais j’ai trouvé que ce format ajoutait un espace d’échanges intéressant en parallèle des conférences, et se prêtait bien à ce type de discussion.

Goulven Champenois, qui était présent, s’est motivé pour retranscrire quelques points l’après-midi même dans un lightning talk (présentation chronométrée de 4 minutes) : « Pour un web inclusif ».

On a tous... un prénom et un nom de plus d'un caractère et lié à notre genre affiché, une adresse fixe, un portable, etc : faux !
Extrait de la présentation

En parlant de lightning talks et d’expérience utilisateur, ce fut mémorable d’écouter les coups de gueule de Vincent Aniort et Sylvie Duchateau sur l’accessibilité.

Le premier nous a listé les quelques points basiques à mettre en place pour l’accessibilité des sites :

  • alternatives textuelles d’images et vidéos
  • utiliser des composants natifs
  • structurer correctement le contenu
  • utiliser des contrastes suffisants
  • prendre en compte la navigation au clavier.

Si tous les sites implémentaient ces points, ce serait déjà un énorme pas pour les internautes… Alors Vincent n’a pas lésiné sur les moyens :

Outre les accroches sans pincettes, Vincent expliquait tous les bienfaits de ces mesures… pour toute personne consultant les sites, en fait : malentendant(e) ou sans casque sous la main, en environnement trop lumineux ou malvoyant(e), geek full-clavier ou utilisateur/rice de lecteur d’écran, etc.
En gros, travailler sur l’accessibilité, c’est travailler sur l’ergonomie et l’utilisabilité !

Voir la présentation « Faites-vous du bien et prenez soin de vos utilisateurs »

Et avec Sylvie, nous avons eu droit au point de vue de l’utilisatrice en colère. Aveugle et utilisant un lecteur d’écran pour naviguer sur internet et travailler au quotidien, elle est revenue sur les points qui la bloquent très régulièrement et sont pourtant corrigeables très simplement :

  • renseigner l’attribut lang sur la balise HTML (au risque de ne rien comprendre à la synthèse vocale qui lit du français comme si c’était de l’anglais)
  • les alternatives textuelles, toujours elles, surtout pour les images utilisées en lien ou bouton (« bouton, bouton, bouton… et comment je fais moi pour payer ? »)
  • la structuration du contenu, pour naviguer rapidement de titre en titre et ainsi « lire en diagonale »
  • relier les champs de formulaire à leurs étiquettes, pour savoir quel contenu y renseigner
  • des alternatives aux captchas, qui embêtent d’ailleurs tout le monde.

Car dans le cas contraire, la réaction est simple : « c’est fini, je boycotte ce site ! ».

6ème frustration : captchas. Veuillez taper les caractères afffichés à l'écran. Sélectionnez les images montrant une maison.
© Yann Kozon

Intégrer l’accessibilité dans ses process

Après tout ça, si vous n’êtes pas convaincus et vous demandez encore pourquoi faire des sites accessibles, Nicolas Hoffmann tente une approche audacieuse : l’accessibilité décomplexée.

Son hypothèse : faites de l’accessibilité d’abord pour vous-même, elle vous le rendra bien !
Il a ainsi présenté toutes les compétences qu’il a pu acquérir ou approfondir via la création de ses plugins Javascript accessibles.

J’ai beaucoup apprécié aussi sa remise en question du discours tenu sur l’accessibilité : au lieu de focaliser sur tout ce qui ne marche pas, arriver à communiquer de manière positive, donner envie, et surtout, au lieu d’exiger la perfection au risque de décourager, privilégier plutôt l’amélioration continue.

Voir la présentation « L’accessibilité décomplexée : ce qu’elle peut faire pour vous »

À côté de cette approche très personnelle du sujet, le séminaire Accessiweb proposait de se pencher sur l’industrialisation de l’accessibilité, notamment au sein des grands groupes : comment appréhender l’accessibilité numérique de manière globale, lorsqu’on a un parc de centaines voire milliers d’applications ou services ?

C’est ce dont différents intervenants ont tenté de rendre compte : Sandrine Alèbe pour Pôle Emploi, Vincent Aniort (à nouveau) pour Orange, Éric Maillard pour le Groupe La Poste.

J’ai trouvé ces présentations complémentaires, dans le sens où les approches et objectifs initiaux étaient différents pour chaque entité, mais les mises en places en interne présentaient de nombreux points communs :

  • équipe de plusieurs personnes
  • travail en transversalité avec d’autres services (notamment le service handicap qui gère entre autres l’aménagement des postes de travail)
  • engagement de la direction indispensable
  • priorisation et travail au fur et à mesure (l’étendue est trop vaste pour être abordée dans sa globalité dès le début)
  • communication, sensibilisation et formation à un maximum de publics différents en interne, sous des formes variées (vidéos, présentiel, e-learning, gamification…)
  • centralisation de ressources et outils techniques sur le sujet, voire création en interne
  • rédaction et diffusion de guides pratiques, checklists, outils d’accompagnement
  • automatisation de tout ce qui peut l’être, et souhait de rendre autonome les différents intervenant(e)s, pour focaliser l’énergie des expert(e)s sur les cas complexes
  • intégration le plus en amont possible, et à tous les échelons des process existants (au même niveau que la sécurité, par exemple) pour éviter d’en faire une démarche spécifique qui pourrait être mise de côté
  • tests utilisateurs

En plus de tout ça, j’ai trouvé intéressant le rôle important que l’open source joue, notamment chez Orange avec leur framework Boosted, basé sur Bootstrap : collaboration, utilisation massive et support en continu, en plus de la visibilité à l’externe.

Voir la présentation « Accessibilité numérique et industrialisation chez Orange »
Voir la présentation « Mise en œuvre de l’accessibilité, retour d’expérience avec La Poste » (merci à Access42 pour l’hébergement)

Nous avons aussi découvert avec intérêt le retour d’expérience d’Anne Cavalier, de la DILA (Direction de l’Information Légale et Administrative), sur la refonte de service-public.fr.

J’ai noté plusieurs idées à retenir :

  • méthode agile beaucoup plus adaptée que le traditionnel cycle en V
  • équipe d’expert(e)s pas forcément dédiée à plein temps au projet, mais présente physiquement dans l’open-space, pour être disponible aux questions, et pouvoir rebondir plus facilement sur les échanges
  • présence systématique aux réunions d’étapes importantes et « rituels » agiles (mélée, pokérisation, démo…) pour suivre, conseiller et lever des alertes
  • sensibilisation systématique des nouveaux arrivants sur le projet
  • revue d’accessibilité intégrée à la revue de code
  • démo d’accessibilité intégrée à chaque démo de fin d’itération
  • corrections en duo : pair-coding, qui permet une perméabilité des compétences
  • ateliers dédiés pour décortiquer les erreurs à répétition et ainsi « mettre à niveau » toute l’équipe
  • accompagnement externe à intervalles réguliers, qui peut servir d’arbitrage.
Questions, celles qui font plaisir : On n'y connait rien, pouvez-vous nous aider ? Quelle méthodologie sera le mieux adaptée ? Où peut-on trouver des documentations ? Y aura-t-il un expert sur le plateau ? Peut-on organiser une présentation pour les développeurs ?
© Ariane Andurand

On retrouvait donc l’idée que pour être prise en compte avec succès, l’accessibilité devait être intégrée le plus en amont possible et traitée au fil de l’eau, avec la même exigence que d’autres contraintes telles que la sécurité, la performance, ou le respect d’une charte imposée.

Voir la présentation « Accessibilité et industrialisation – Retour d’expérience service-public.fr »

Léonie Watson est également intervenue pour présenter les grandes lignes de la « stratégie de l’accessibilité », qui reprenaient la majeure partie des points évoqués ci-dessus sur l’intégration de l’accessibilité numérique au sein des organisations, en y ajoutant une partie rarement évoquée : la gestion de contenus accessibles à l’externe, notamment sur les réseaux sociaux.

Ainsi, une des recommandations est de garder simplicité et homogénéité dans les messages, qui permettra facilement d’identifier l’entité qui communique et de construire une relation de confiance.
L’idéal est également de doser soigneusement les textes et les images, pour permettre une identification aussi rapide pour ceux qui lisent peu que pour ceux qui ne peuvent pas voir les images.

À propos des images, il faut savoir que Facebook intègre désormais un outil automatique pour générer les alternatives textuelles : grâce à la reconnaissance visuelle de plus en plus poussée, cet outil liste les éléments qu’il détecte dans l’image. C’est un premier pas qu’il faut déjà saluer, mais le mieux reste encore de décrire l’image dans le texte de légende, en attendant d’avoir la possibilité de renseigner soi-même l’alternative.
Sur Twitter, en revanche, c’est déjà possible et il est vivement conseillé de le faire : il faut auparavant activer la fonctionnalité depuis les paramètres d’accessibilité de son profil.

Un autre point sur Twitter : penser à utiliser des majuscules dans les #HashTags pour différencier les mots et les rendre ainsi intelligibles à la vocalisation par les lecteurs d’écran.

Voir la présentation « Accessibility strategy, project management and content delivery »

Léonie a également abordé YouTube, mais c’est surtout John Foliot qui a fait le tour de l’accessibilité des vidéos, en particulier avec l’élément HTML5 <video>.

Pour rappel, les éléments obligatoires sont :

  • les sous-titres, qui soient synchronisés avec le déroulement de la vidéo (élément <track>)
  • l’audio-description (ou une vidéo alternative qui l’intègre)
  • des contrôles activables indépendamment du device utilisé (attribut « controls » pour les contrôles natifs, accessibles par défaut, ou alors développer ses propres contrôles, en s’assurant qu’ils soient accessibles)
  • la transcription textuelle accompagnante, qui reprend tout le déroulé de la vidéo (bénéfique aussi pour les moteurs de recherche).

Un point dont il faut tenir compte, pour les contrôles et les sous-titres, c’est que ces derniers prennent traditionnellement le tiers de la hauteur, en bas de la vidéo : il faut donc éviter que l’emplacement des contrôles vienne en gêner la visibilité.

Pour finir, concernant les sous-titres, un peu de vocabulaire anglais, là ou le français ne dispose que d’un seul mot :

  • captions désigne le texte reprenant les informations sonores de la vidéo : dialogues mais aussi bruits ou musiques nécessaires à la compréhension globale, dans la même langue que la vidéo
  • tandis que subtitles désigne spécifiquement les sous-titres de traduction (dans une langue différente), et peuvent donc cohabiter avec les captions
  • par ailleurs on parle de closed captions (CC) lorsqu’ils sont incrustés directement dans la vidéo
  • tandis que les open captions sont, eux activables ou désactivables par l’internaute (fonctionnalité proposée par YouTube, par exemple).

 

Conception et technique

Pour revenir à Paris Web, cela a été l’occasion de découvrir des méthodologies de conception, notamment avec le retour d’expérience de Marie-Amélie Cotillon sur un design sprint organisé avec des militaires.

Tout d’abord, un design sprint, qu’est-ce-que c’est ?
Il s’agit d’une méthode diffusée par Google, avec pour principe de fonctionner en phases très courtes, pour s’assurer le plus tôt possible de la viabilité du service ou produit, avant de se lancer dans une longue phase de production.
Je le vois un peu comme une application de la méthode agile à la partie conception et design.

Le contexte était le suivant : dans le cadre d’un projet global d’amélioration des relations entre les militaires et les services administratifs qui leur sont dédiés, il s’agissait de travailler sur un premier parcours, la préparation au départ en opération extérieure (OPEX) en individuel.
En effet, il s’agit d’un processus qui se répète souvent dans la vie des militaires : après candidature et réception d’un ordre de mission, un ensemble de formalités administratives diverses sont à effectuer avant le départ, mais les militaires doivent se débrouiller sans accompagnement, et sans communication entre les différents services concernés, ce qui aboutit généralement à l’impossibilité de prise en charge totale de ces tâches.

Demander, c'est facile... Copinage, formation, bricolage, manque d'infos, procédures... Obtenir, c'est dur !
Extrait de la présentation, © Florent Courtaigne

Des études utilisateurs avaient déjà été faites pour défricher la complexité, et le but était maintenant de produire un outil pour répondre à ce besoin, en le construisant en collaboration avec les utilisateurs finaux : les militaires eux-mêmes.
Ce sont donc 5 jours très intenses qu’ont passé l’ensemble des participants au sprint : militaires qui avaient fait une OPEX dans les 6 derniers mois, travailleurs des services concernés, décisionnaires, et bien sûr designers et consultants de l’agence.

Chaque jour correspondait à une étape :

  1. accueillir tout le monde, prendre connaissance du projet et des différentes parties prenantes
  2. rechercher des idées, échanger dans toutes les directions possibles
  3. décider et définir l’idée choisie dans le détail
  4. réaliser le prototype
  5. tester, observer, analyser pour les prochaines étapes.

Le fait que tous les acteurs concernés soient présents permettait de prendre des décisions rapides, en même temps que d’avoir une vue globale des différents parcours utilisateurs.

Au total, une trentaine de wireframes ont été produits, et quelques maquettes graphiques, qui étaient accessibles sur un écran tactile et testables au fur et à mesure.
Ce sprint a ainsi permis d’avoir rapidement un prototype validé, pour continuer ensuite sur l’approfondissement du design, puis sur des développements, avec des déploiements progressifs sur plusieurs bases militaires.
Le projet est donc encore en cours, et s’enrichit des retours d’utilisation après chaque déploiement.

Pour conclure, ce que Marie-Amélie nous rappelait, c’est que faire un design sprint nécessitait un énorme travail de préparation en amont, et n’était productif que s’il était appuyé par des décisionnaires impliqués côté client.

Voir la présentation « Quand les militaires se prennent au jeu du design sprint »

Par ailleurs, certaines conférences nous invitaient à nous questionner sur nos responsabilités en tant que concepteurs et conceptrices de sites web.

Ce fut le cas par exemple de Thibault Jouannic qui nous a présenté la problématique de la gestion des données personnelles sur le web. On parle ici bien sûr des coordonnées, mais aussi de données indirectes telles que les pages visitées et les interactions réalisées.
Selon les personnes, certaines de ces informations peuvent être très sensibles : une adresse rendue publique, la visite de certains sites peuvent avoir des impacts énormes selon le contexte (loi du pays, profession à risque…). On ne connait pas le contexte des utilisateurs/rices, et ce contexte peut changer dans le temps, donc il faut partir du principe que toutes les données sont sensibles.

- Et bien Lucien ! L'historique de ton navigateur, c'est pas joli joli dis donc... - Arrête ! Rends-moi mon iPhone j'te dis !
Extrait de la présentation

Après avoir expliqué comment ces données sont actuellement exploitées et monétisées, Thibault nous a expliqué les différents moyens utilisés pour récupérer ces informations, et surtout quelles stratégies nous pouvons mettre en place. En effet, lors de la réalisation de sites, nous pouvons limiter au maximum les intrusions dans la vie privée de nos utilisateurs/rices en arrêtant de collaborer avec les GAFA (Google, Apple, Facebook, Amazon et consorts), notamment :

  • ne pas utiliser les widgets de partage (qui en plus ralentissent les pages) mais de simples liens qui fonctionnent tout aussi bien
  • auto-héberger les polices de caractères plutôt que de faire les inclusions de Google Fonts
  • utiliser OpenStreetMap à la place de Google Maps
  • héberger soi-même les plugins plutôt que passer par des CDNs de ces géants

Il faut aussi s’assurer de ne pas être soi-même une menace, en intégrant le respect de la vie privée par défaut dans la conception :

  • ne recueillir que les données qui sont strictement indispensables, en se posant la question du niveau de précision nécessaire
  • toujours demander l’autorisation
  • concevoir le stockage de manière à éviter le danger si une des bases est compromises, avec un point d’attention particulier sur les mots de passe
  • utiliser le chiffrement avec HTTPS
  • réinternaliser les fonctionnalités plutôt que les laisser gérées par des tiers (ex : commentaires par Disqus)
  • ne pas bloquer les internautes qui utilisent Tor.

En revanche, pour les sites qui affichent de la publicité, il est impossible pour l’instant de faire grand-chose, sachant que ces dernières incluent et sont basées sur des systèmes de trackers.

Voir la présentation « Désintoxication au web sous surveillance »

Dans le côté responsabilisation, il en est une autre à laquelle nous sommes encore peu sensibilisés : la responsabilité environnementale. C’est Frédéric Bordage qui a présenté ce sujet, en expliquant le principe d’éco-conception.

En effet, on considère que l’empreinte environnementale actuelle de l’internet mondial correspond à environ 2 fois celle d’un pays comme la France, et cela grossit en permanence.
L’idée est donc d’intégrer cette perspective dans la conception des sites, en visant la moindre consommation de ressources. Cette démarche va d’ailleurs généralement aussi dans le sens de la qualité, de la performance et d’une meilleure expérience utilisateur.
Il faut donc réduire la puissance informatique nécessaire au fonctionnement, sachant que la partie la plus « coûteuse » du web est plutôt du côté utilisateur (ressources à télécharger, mémoire) que du côté des data-centers auxquels on pense en premier.
Pour cela, il faut se concentrer sur les fonctionnalités principales, en adoptant une démarche d’efficience et de frugalité : réduire tout le superflu.

Avec quelques retours d’expérience, Frédéric nous montrait que les actions ayant le plus d’impact consistaient en la compression/optimisation des images, le remplacement de certaines par du CSS, la suppression d’animations, mais aussi externaliser, épurer, valider et compresser le code, ou éviter les allers-retours avec le serveur.
Il recommandait également la conception mobile-first, qui oblige à se concentrer sur l’essentiel.
Enfin, il faut savoir que cette démarche fait déjà l’objet d’une norme ISO, ainsi que d’un référentiel de bonnes pratiques.

Voir la présentation « Eco-conception : mon site web au régime »

Côté technique, c’est le concept de Progressive Web Apps qui a été présenté par Hubert Sablonnière.
Basé sur des technologies existantes, ce n’est donc pas une nouvelle technologie en tant que telle : l’idée est de faire se rapprocher les sites de l’expérience des applications natives, avoir les avantages de celles-ci (réactivité, ne dépend pas de la connexion internet) sans les inconvénients (nécessité d’installation même pour utiliser une seule fois, développements différents selon les OS).

La technologie principale sur laquelle ce concept se base est le service worker : codé en Javascript, il intercepte les requêtes vers le serveur et peut, à la place, décider de renvoyer des informations stockées dans le cache navigateur.
Cela ne fonctionne qu’avec HTTPS, pour éviter justement les attaques par injections à l’occasion de l’interception des requêtes.

Les grands principes des progressive web apps sont donc les suivants :

  • linkable : pas besoin de l’installer, accès via une URL (permet les utilisations « one-shot »)
  • responsive : s’adapte au device utilisé
  • safe : sécurisé car basé sur HTTPS
  • connectivity independancy : fonctionne en mode hors ligne, grâce aux service workers (pour les pages déjà visitées)
  • fresh : reste à jour en gérant des chargements en arrière-plan, voire en forçant les mises à jour
  • app-like interaction : gestion de la structure principale (conteneur, autrement appelé shell) indépendamment du contenu, ce qui permet son chargement rapide
  • re-engageable : ré-engager l’utilisateur, par exemple en utilisant des notifications push, disponibles maintenant sur le web également
  • discoverable : c’est un site web donc il est présent dans les moteurs de recherche, et on peut renseigner son fichier « manifeste » pour aider Google dans son indexation
  • installable : on peut ajouter un site (une URL et son icône) à l’écran d’accueil de son smartphone, comme si c’était une application
  • progressive : doit pouvoir fonctionner même si les service workers ne sont pas supportés sur le navigateur utilisé.

La conclusion de cette présentation, c’était que c’est un concept très prometteur, qu’il va falloir encore expérimenter dessus, pour en ressortir des bonnes pratiques, et aller plus loin encore dans l’expérience utilisateur.

Voir la transcription textuelle de la présentation « Progressive Web Apps : le futur du web arrive »

Nous avons également eu droit à une présentation sur la blockchain, par François Zaninotto.

Paris Web : La blockchain, quand l'individu sert au collectif... malgré lui - François Zaninotto
© Yann Kozon

Difficile de résumer en quelques mots ce mécanisme plutôt complexe, alors que François a pris le temps (et l’humour) nécessaire pour nous l’expliquer pas-à-pas…
L’idée principale est de s’affranchir des intermédiaires (autrement appelés autorités centrales, telles que les banques), et de les remplacer par un programme qui encadrerait les échanges (autrement appelées transactions).

Les bases sont les suivantes :

  • peer-to-peer : chaque ordinateur possède une copie de l’information, en l’occurrence, la liste des transactions effectuées
  • cryptographie asymétrique : système de clé privée associée à une clé publique, qui permettent de « signer » une transaction
  • proof-of-work : le nom blockchain s’explique littéralement par une « chaîne de blocs », chaque bloc contenant des transactions, et la création d’un bloc nécessite un gros travail de serveurs, d’où le principe de « preuve de travail ».

Pour les usages, le plus connu est le Bitcoin, monnaie virtuelle permettant d’effectuer des transactions en ligne ou pour des objets réels.
Parmi les applications envisagées, on a la signature de contrats qui seraient ainsi infalsifiables, la gestion programmée de propriété, des paris en ligne, des sociétés sans dirigeant, du stockage crypté sur le cloud

Après avoir testé le développement d’une application avec son équipe, François arrivait au constat que c’est une technologie qui n’est pas encore très mature, reste lente (de 10 secondes à 10 minutes pour valider une transaction), et peut être très coûteuse (littéralement mais aussi en empreinte environnementale).
Par ailleurs, toute l’idée est de faire d’un programme une autorité, or ce programme reste écrit par des humains, et peut toujours être hacké, donc n’est pas d’une sécurité infaillible.

Dernier point technique, la journée d’ateliers du samedi a été l’occasion de se frotter à Git, grâce à Agnès Haasser et Guillaume Turri.
Malgré une salle surpeuplée et un léger flou organisationnel, chaque participant(e) a pu se frotter aux commandes connues ou moins connues de cet outil de versioning (gestion d’un historique – versions – de développement).

Les explications étaient plutôt techniques, mais j’ai l’impression que l’atelier a permis à celles et ceux qui étaient déjà connaisseurs d’approfondir certaines pratiques, tandis que les autres ont pu tester les fonctionnements plus basiques, en même temps que profiter de l’expérience de leurs voisin(e)s.

Voir la présentation « Git is choupi »

 

Et pour finir…

J’ai une mention spéciale pour la présentation d’Agnès Haasser (à nouveau) sur comment elle a dépassé son syndrome de l’imposteur, pour faire sa première conférence et surtout son premier projet open-source sur Github.

Le syndrôme de l'imposteur est lorsque les compétences perçues sont inférieures aux compétences réelles. L'inverse est le syndrôme du petit péteux : c'est la droite de la lucidité qui les sépare.
Extrait de la présentation

Ce projet est parti d’un besoin personnel : calculer le salaire de la nourrice. Un tableau Excel au départ, qui d’améliorations personnelles en échanges avec d’autres parents, est devenu un mini-site sous forme de formulaire.
Je vous invite donc à aller consulter le Pajomatic, ça pourrait vous servir, et vous pouvez même proposer ou apporter des améliorations !

Voir la présentation « Libérée, délivrée… du syndrome de l’imposteur »

Autre mention spéciale, l’atelier animé par Corinne Schillinger et Laurence Vagner, sur toutes sortes d’astuces pour affronter le monde professionnel. De l’organisation du temps et du travail à la gestion des clients ou des collègues, c’était l’occasion de découvrir et partager des bonnes pratiques du quotidien acquises après quelques années d’expérience.

Voir la présentation « Trucs & astuces pour débuter sereinement »

Enfin, mention particulière à toute l’équipe de bénévoles de Paris Web, qui se démènent chaque année pour faire de l’événement un succès.
Je parlais plus haut du fait d’être inclusif : ces conférences sont celles qui mettent la barre le plus haut, avec la vélotypie (transcription textuelle en direct) et la traduction simultanée en langue des signes, en même temps qu’une attention particulière à tous les détails lors du déroulement de ces 3 jours.
Un grand merci à eux donc, et peut-être à l’année prochaine !

Commenter cet article Voir les commentaires (1)

Les 6 tendances du web en 2016 selon #BlendWebMix

Par Laura, le jeudi 5 Nov 2015 dans Actualité digitale

Blend Web Mix est l’un des évènements clés pour être à l’affût des tendances en marketing digital, web design, développement ou entrepreneuriat digital. J’ai eu l’immense chance de participer à la toute dernière édition de cet événement à Lyon, et j’avais envie de partager avec vous mes impressions concernant l’avenir du digital et les grandes tendances à suivre de près en 2016. Vous êtes prêts ? C’est parti !

1/Le web est full mobile

Cela peut paraître une évidence, et pourtant, les projets digitaux pensés, conçus et développés d’abord pour le mobile sont encore rares. Cette année, les conférenciers de BlendWebMix ont mis l’accent sur l’accessibilité des projets et la nécessité de penser chaque interface en privilégiant une navigation simple, intuitive et agréable, quel que soit le support. J’ai particulièrement apprécié la conférence d’Amélie Boucher sur « Comment concevoir la navigation sur mobile ? ». Une conférence intéressante, pleine de bonnes astuces et complètement dans l’air du temps.

2/ L’UX à tous les niveaux

On en a parlé pendant les conférences, dans l’espace « startups », pendant les plénières, dans les couloirs, à la pause déjeuner, au soleil, sous la pluie, à midi ou à minuit. L’expérience utilisateur est au centre des stratégies digitales et a un impact fort dans toutes nos missions, dès la publicité aux applications mobiles en passant par le marketing ou le design. Vive l’UX !

3/ La publicité s’humanise

BlendWebMix m’a également permis de me conforter dans l’idée que l’ad-blocking n’est pas la solution et que la plupart des utilisateurs sont à l’aise avec l’idée de consommer de la publicité en ligne, à partir du moment où cette publicité est dynamique, intuitive, créative et surtout, ciblée.

Le coût total des ad-blockers pour les éditeurs en 2015 est de 22 milliards de dollards. Si les médias veulent (re)devenir compétitifs, il faut qu’ils fassent évoluer leur offre pour proposer aux annonceurs des formats pertinents, des ciblages efficaces et des statistiques plus poussées. Si les indicateurs de performance traditionnels ne sont plus bons, changons-les !

4/ La vidéo est « everywhere »

On en avait déjà parlé lors du dernier atelier acti il y a quelques mois : la vidéo est LE format à privilégier pour l’année 2016. En effet, la vidéo est un format dynamique, créatif et vivant par définition. De plus en plus court, de plus en plus animé et de plus en plus démocratisé, le format vidéo se retrouve désormais à tous les niveaux : sur les homepages des sites Internet, sur les applications mobiles, sur votre fil d’actualité Facebook ou Twitter et, depuis peu, sur vos campagnes Instagram.

D’après Google, 60% des publicités vidéo ne sont pas vues. Pas de panique : le marché est en train d’évoluer. Il faut laisser derrière nous les vieux formats publicitaires intrusifs et anti-UX comme le visionnage de 30 secondes forcé, pour privilégier des formats plus interactifs, courts et créatifs. Le format à privilégier en 2016 : les bannières vidéo mobile-first.

5/ Retour vers le futur avec le marketing automation

Le marketing automation, une méthode futuriste et hors de portée ? La réponse est NON. Le marketing automation n’est finalement pas SI technique, SI compliqué et SI cher. Cette nouvelle stratégie qui emploie différentes techniques pour planifier et automatiser vos campagnes marketing ultra-ciblées.

Vous avez déjà entendu parler du retargeting, du reciblage comportemental ou du trigger marketing ? Tout cela a l’air bien complexe, mais le marketing automation est tout simplement l’art de cibler la bonne personne avec le bon contenu, au bon endroit et au bon moment. Je l’avais dit, c’est super simple ! (ou pas)

6/ Les bons liens c’est bien, les bons contenus, c’est mieux

Le netlinking, vous connaissez ? Non ? Et si je vous parle des liens qui pointent vers votre site Internet ? Ah, là cela vous parle ! Le netlinking, c’est un métier.

Une bonne stratégie de netlinking en 2015 consiste à auditer les sites concurrents, extraire les meilleurs liens pour essayer de les obtenir, créer des contenus qualitatifs et uniques (oubliez le duplicate content !) et créer un « private blog network » ou écosystème digital autour de votre site principal.

Pour décrypter les nouvelles tendances dans l’art du tissage de liens, je vous invite à lire ces quelques tweets :

Vous n’avez rien, mais alors rien compris ? N’hésitez pas à nous écrire pour poursuivre la conversation autour d’un café !

J’ai besoin de plus d’informations concernant le webmarketing : l.dormois@acti.fr

J’ai besoin de plus d’informations concernant la rédaction de contenus, les médias sociaux ou la publicité sociale : l.molina@acti.fr

J’ai besoin de plus d’informations concernant l’UX et le mobile : r.balcerak@acti.fr

Commenter cet article Voir les commentaires (2)

Rechercher