De la mesure déterministe à la mesure probabiliste : un changement de paradigme dans la publicité digitale

Strategy Consulting 4 mars 2020

Personne n’aime vivre dans le doute. Nous avons tous besoin de certitude, peu importe la source des réponses à nos questions. Même Einstein avait commencé par rejeter les théories de la mécanique quantique dans les années 1920, alors convaincu que « Dieu ne joue pas aux dés ». Il refusait l’idée de voir la science devenir une discipline probabiliste, donc incertaine. J’ignore si Dieu joue aux dés, mais Google oui. Et que cela vous plaise ou non, vous feriez bien de vous habituer aux estimations de taux de conversion et autres extrapolations de reach.

Le géant du web a annoncé il y a quelques semaines le lancement d’une nouvelle fonctionnalité de machine learning permettant aux éditeurs et annonceurs de gérer la fréquence des publicités sur Google Ad Manager. Basée sur un échantillon anonymisé d’utilisateurs que Google trace avec précision, cette fonctionnalité peut estimer combien de fois un individu a été exposé à une publicité, afin de réaliser des analyses de reach ou de fréquence.

La fonctionnalité vient compléter toute une série de nouveautés sur les produits Google. Vous souhaitez savoir combien de visites vos publicités et votre site web ont généré en magasin ? C’est exactement le but de « visites en magasin » (In-store visits), un rapport généré par Google Ads / Google Analytics qui estime combien de personnes se sont rendues en boutique après avoir vu une publicité payante ou visité votre site web. Vous souhaitez mesurer les conversions cross-device ? Les estimations de conversion multi-environnements sont faites pour vous.

Alors pourquoi est-ce que Google propose des estimations, quand la publicité en ligne est censée être entièrement traçable, au sein d’un écosystème où Google est omniprésent ?

Entre un parcours utilisateur toujours plus fragmenté sur différents appareils et canaux, et de nouvelles contraintes légales ( RGPD/CCPA) et techniques (ITP), les annonceurs ne peuvent plus s’appuyer sur des chiffres exacts. Aucun système de mesure, pas même celui de Google, n’est capable de suivre un utilisateur tout au long du parcours client avec une précision totale. Les publicités visionnées sur un appareil Apple ne peuvent plus être rattachées au reste du parcours d’achat, de même que la grande majorité des ventes offline. Il est même souvent impossible de suivre précisément un parcours d’achat simple, commençant par exemple avec une recherche sur un smartphone et se terminant par une transaction sur un site e-commerce depuis un ordinateur.

Parce que les marques doivent désormais mesurer la performance en comparant les différents canaux, et que les régulateurs – associés aux géants de la tech – se sont attaqué aux cookies, les mesures sont désormais inexactes et vos rapports classiques deviennent chaque jour plus obsolètes. Le seul moyen de mesurer la performance entre différents appareils ou canaux sans enfreindre les nouvelles règlementations sur la vie privée est de réaliser des projections à partir d’un échantillon. C’est pourquoi Google investit autant dans un machine learning utilisable pour des mesure cross-device comme en magasin, qui soit compatible avec les nouvelles contraintes techniques comme ITP.

Le calcul diffère pour chaque fonctionnalité, mais la méthode reste la même.

Google base ses calculs sur un échantillon – de taille non divulguée mais que l’on suppose très grand – d’utilisateurs ayant accepté de partager leurs données, qui peuvent donc être tracés de manière précise parmi différents éditeurs, appareils et canaux offline. Ces données sont ensuite extrapolées sur toute une population en utilisant du machine learning ou de simples sondages en ligne. Le rapport final se présente toujours sous forme de synthèse avec des données agrégées, et n’est publié que si un certain volume de réponses est atteint. Cela vous rappelle les mesures statistiques traditionnelles de type Nielsen ? La méthode s’inspire en effet des techniques d’échantillonnage, mais celle-ci est boostée aux stéroïdes, s’appuyant à la fois sur l’omniprésence de Google dans l’écosystème adtech et sa gigantesque base de données personnelles. Parce que l’ID Graph est aussi énorme et que la collecte est réalisée en temps réel, l’estimation finale est non seulement précise, mais aussi granulaire et actionnable : exactement ce qui manquait aux solutions d’échantillonnage traditionnelles.

La question n’est pas de savoir s’il faut ou non utiliser ces outils : ils sont absolument indispensables. Il s’agit plutôt de savoir comment intégrer ces nouveaux rapports dans vos processus de travail et vos prises de décision, et comment faire évoluer les mentalités quant à la mesure de la performance. La plupart de ces fonctionnalités sont encore en version bêta, souvent compliquées à exporter, et jusqu’ici incompatibles avec des outils tiers. Par ailleurs, rémunérer une agence de média en fonction du coût par acquisition devient plus complexe puisque le taux de conversion est par définition estimé et ne peut donc être vérifié. Google Marketing Platform renforce ainsi sa position comme l’outil indispensable pour les professionnels du marketing. Là encore, le géant du web endosse à la fois le rôle de juge et de parti.

Cependant, la publicité digitale fait face à une nouvelle réalité, et chez fifty-five nous sommes convaincus que la stratégie d’une marque n’est pas viable si elle cherche à protéger avant tout son indépendance vis-à-vis de Google ou les méthodes de travail habituelles de son agence au détriment de la performance marketing à long terme.

Vous reprendrez bien une tasse de thé ?