Bonjour François, Bonjour Maxence. Tout d’abord, pouvez-vous vous présenter ?
François N. : Je m’appelle François Nollen. Je travaille chez SNCF Connect & Tech, on a 2 métiers : notre activité d’e-commerçant bien connue du grand public, et celle d’éditeur pour différents acteurs des mobilités.
J’ai un rôle de Référent Technique sur la collecte des données et celle des consentements –essentiels pour la protection des données. Nous avons créé une nouvelle architecture de collecte server-to-server pour SNCF Connect, pour notre produit tout-en-un des mobilités durables.
Maxence G. : Je suis Maxence Gama, Chef de projets digitaux pour le compte de SNCF Connect & Tech sur le site et l’appli SNCF Connect. J’étudie les besoins d’évolution de tracking pour les outils analytics, media et d’attribution, en choisissant la solution la plus adéquate avec les équipes techniques et métiers.
Pouvez-vous nous en dire un peu plus sur SNCF Connect ?
François N. : Plus d’un an après son lancement SNCF Connect rassemble plus de 3 millions de visites chaque jour (1 milliiard en 2022) qui accèdent à des mobilités durables à travers la recherche d’itinéraires, l’information voyageur ou l’achat de billets – on pense évidemment au train mais aussi le covoiturage, les transports urbains en Ile-de-France et
dans près de trente villes en France.
Nos équipes enrichissent continuellement le service, avec et pour nos clients des améliorations déployées chaque semaine depuis le lancement début 2022. Sous le capot, il y a de nombreuses innovations technologiques, comme l’utilisation de
Flutter en “mobile-first” ou l’architecture 100% “Cloud-native”. La collecte server-to-server, c’est aussi une de ces innovations.
Quels sont les enjeux que vous rencontrez aujourd’hui dans votre stratégie data marketing ?
Avec des utilisateurs de plus en plus cross-device et cross-channel, ainsi qu’une réglementation RGPD évolutive, la collecte de données doit être fiable et cohérente entre nos applis web et mobiles, toujours en respect des consentements.
De même, l’approche data driven nous permet de plus rapidement nous adapter aux attentes évolutives de nos clients.
Toujours pour nos clients et vers des services numériques plus responsables et plus verts, nous essayons également de limiter les effets sur les navigateurs et les terminaux mobiles, améliorant ainsi leurs performances et limitant d’autant l’obsolescence technologique. Et puis bien sûr, c’est très important de garantir le juste niveau de protection
des données à nos clients, sur la base de leurs consentements.
Pour toutes ces raisons, nous avons complètement repensé l’architecture de notre collecte par rapport aux techniques de tracking classiques qu’on utilisait auparavant.
Vous suivez tous les deux de très près l’actualité concernant le cookieless, quelles alternatives au monde sans cookies qui se prépare avez-vous étudiées ?
Maxence G : Chez SNCF Connect, nous nous appuyons donc sur nos données 1st party, sécurisées. Quel Français n’a pas déjà utilisé nos services au moins une fois dans sa vie ?
Nous n’avons pas de nécessité d’acheter des données tiers, moins fiables et moins sécurisées.
C’est pour cela que les approches CDP et de “data clean room” sont intéressantes et se développent activement; d’ailleurs nous les étudions également de très près pour améliorer nos ciblages et renforcer la relation-client.
François N. : Tu l’as très bien dit, se contenter essentiellement des données 1 st party, les données qu’on a déjà, on se rend compte que ça nous rend beaucoup moins dépendants des cookies tiers. L’autre élément important, c’est de maîtriser davantage la remontée et la transmission de ces données utiles et uniquement les données utiles, grâce à une collecte côté serveur respectant les consentements.
Pourquoi être passé par du tracking server-side ?
François N. : Généralement pour des données collectées sur mobile on intègre des SDK tiers et on les laisse collecter et transmettre directement aux partenaires.
Pour SNCF Connect, on a voulu aller plus loin et ajuster nous-même la collecte ainsi que ce qu’on choisit de transmettre aux uns ou aux autres via un hub (on a choisi la solution Tealium EventStream) qui joue le rôle d’un TMS mais côté serveur.
En effet, côté serveur la logique métier est plus fiable et cohérente, la même pour tous les canaux. L’interface de Tealium est actionnable directement par des profils fonctionnels et métiers. Il y a moins d’effets sur les navigateurs et terminaux mobiles de nos clients puisque la logique se situe côté serveur. Et en cas de modifications, pas besoin de redéployer sur les
stores, pas besoin que l’utilisateur mette à jour son application.
Maxence G. : C’est après une phase d’expérimentation avec toutes les parties prenantes de l’entreprise (Marketing,IT, les équipes sécurité, de webPerf, de Digital Analyse …) que nous avons adopté une stratégie dans laquelle nous donnons la priorité au server-to-server.
On reste sur une architecture hybride car, encore aujourd’hui, tous les acteurs de l’Adtechne sont pas encore passés au serverside – certains ne fonctionnent qu’avec des tags JavaScript.
Toutefois pour nous, l’essentiel se fait désormais côté serveur. Et les avantages sont tels (cohérence des données, fiabilité de déploiements etc.), qu’aujourd’hui personne ne pense revenir en arrière.
Comment gérez-vous le consentement côté serveur ?
François N. : Nombreux se demandent comment gérer les consentements dans une architecture server-side. Ce qu’il faut retenir, c’est qu’il existe des solutions.
Sur SNCF Connect, nous travaillons avec une CMP intégrée côté Web et mobile. Une fois les consentements recueillis, nous les transmettons à chaque appel vers nos services, puis systématiquement au hub (Tealium).
Ainsi en back-office, nous avons toutes les informations nécessaires pour transformer telle ou telle donnée, éventuellement la conserver en interne voire la transmettre à tel partenaire, selon les consentements de l’utilisateur.
Maxence G. : Cela nous permet de gérer finement les consentements des utilisateurs concernant les finalités associées aux traceurs et le cas échéant nos partenaires en toute conformité. A l’aide de ces outils nous pouvons simplifier certaines configurations déjà établies si nous le souhaitons.
En pratique, on observe que très peu de nos clients configurent leurs consentements dans le détail.
Quelles sont les difficultés rencontrées et comment s’assurer de la qualité de la donnée ?
François N. : On a fait face à plusieurs défis car nous avions peu de REX et d’exemples prêts-à-l’emploi pour des architectures server-to-server.
Bien gérer les consentements et le niveau de protection des données en conformité. Tester de bout-en-bout sans plugin ni JavaScript partenaire. Ou encore trouver des profils opérationnels sur les nouveaux outils : Il a fallu trouver des solutions, parfois imaginer nos propres mécaniques, puis les tester à grande échelle.
La qualité de la donnée reste un enjeu, même après le lancement, mais notre nouvelle architecture et la collecte unifiée web et mobile nous ont vraiment fait gagner en cohérence et en fiabilité.
Maxence G. : La donnée étant collectée à la source (directement depuis le serveur),il est plus aisé et fiable de superviser, d’analyser la chaîne de valeur s’il y a des écarts. On a mis en place des tests automatisés pour s’assurer qu’il n’y a pas de régression sur les données collectées.
Grâce à cela, on a gagné en capacité d’analyse, en stabilité et fiablilté de la collecte. Un exemple clair, c’est la cohérence entre les ventes enregistrées dans notre base CRM et celles dans Adobe Analytics: n’étant plus soumis aux aléas des navigateurs et bloqueurs de publicités, on est passé de 40% à moins de 2% d’écarts ! On peut alors considérer notre
collecte comme fiable pour effectuer des analyses, sans avoir à faire des redressements.
Comment travaillez-vous avec Elevate sur l’implémentation server-side de vos solutions ?
Maxence G. : Elevate nous accompagne au sein des équipes spécialisées dans l’analyse de données. La maîtrise des outils comme Adobe Analytics permet d’ aider les collaborateurs à être plus autonomes, et à mieux tirer parti de leurs données pour améliorer le produit continuellement.
Merci à Maxence Gama et François Nollen pour ce retour d’expérience.