Retour d’expérience avec Paul, Head of Data Nickel
Ismael Goulani – Modeo : Bonjour Paul, pour commencer, peux-tu nous dire qui tu es et ce que fait Nickel ?
Paul Marcombes – Head of Data chez Nickel : Bonjour ! Je suis Paul, responsable de la Data chez Nickel, une fintech qui permet d’ouvrir un compte courant dans les bureaux de tabac. Nous avons ouvert 4 millions de comptes en 11 ans. On est présents en France, mais aussi en Espagne, Belgique, Portugal et Allemagne.
“Les débuts : une équipe data centralisée devenue un goulot d’étranglement”
Ismael : Tu es arrivé il y a six ans chez Nickel. À quoi ressemblait l’organisation Data à ce moment-là ?
Paul : On avait 300 employés, 1 million de clients… et seulement trois personnes en data. Une équipe centrale efficace, mais vite submergée. On est passés d’un rôle stratégique à une usine à tickets. Résultat : frustration des métiers et démotivation en interne.
Ismael : C’est un classique : la scalabilité du modèle centralisé finit toujours par plafonner. Le vrai défi c’est d’en sortir intelligemment. Quel a été ton pari pour sortir de cette impasse ?
Paul : On a commencé à recruter des data analysts directement dans les équipes métiers. Le premier analyste a mis en place des dashboards de suivi… puis un moteur de recherche dans la donnée. L’impact a été immédiat. Alors on a répliqué.
Ismael : Effectivement Paul, dès qu’un analyste est au contact du terrain, il peut passer en mode proactif et générer de la valeur sans même qu’on lui demande. Bien joué.
“Le changement : vers une organisation décentralisée et autonome”
Ismael : Et où en êtes-vous aujourd’hui ?
Paul : On est 40 dans l’équipe data dont 25 data analysts dans une dizaine d’équipes métiers. Leur particularité ? Ils sont full-stack : ingestion, transformation, documentation, dashboards, analyses et même déploiement d’algorithmes. Ils maîtrisent toute la chaîne.
Ismaël : En fait, vous avez créé des mini start-up dans chaque équipe. Trois analystes pour 30 personnes : c’est un vrai centre de gravité data local !
Stack technique et vision plateforme
Ismael : Quelle est votre stack ?
Paul : Tout repose sur Google Cloud,
- BigQuery pour le stockage
- Cloud Run pour l’ingestion et le temps réel
- BigTable pour les traitements rapides
- DBT pour la modélisation
- Looker Studio pour les dashboards
Pas d’orchestrateur : chaque job est autonome et piloté depuis une interface web interne.
Plateforme + communauté : un duo gagnant
Ismael : Comment garder la cohérence entre autant de data analysts autonomes ?
Paul : C’est simple Ismael, Deux leviers :
- Une équipe centrale qui développe des apps standards (ex : notification, scoring, exports…)
- Une communauté de data analysts animée par deux analytics engineers, qui définissent les bonnes pratiques.
Ismael : C’est du platform engineering pur, vous construisez les briques, vous laissez les équipes jouer avec et vous orchestrez la symphonie.
Paul : oui en quelque sorte, chaque équipe possède son dossier dédié dans un mono repo git, avec des règles d’organisation communes. Et les data analysts seniors valident les contributions. Résultat : autonomie + gouvernance.
Choix de modèle
Ismael : Pourquoi ne pas avoir adopté un data mesh “pur” avec analystes, data scientists et ingénieurs dans chaque équipe ?
Paul : On voulait éviter la complexité et la dépendance croisée. Nos analysts full-stack sont capables de tout faire. Moins de frictions, plus de réactivité. Bien sûr, ça demande des outils solides et une gouvernance forte.
Impact & ROI : mesurer la valeur de la data
Paul : Le ROI a évolué par étapes,
- Visibilité des chiffres → transformation de la culture interne
- Industrialisation des actions (emailing, scoring…) → gains de dev
- Réduction de la fraude → impact mesurable immédiat
- Aujourd’hui : les data analysts sont devenus de véritables co-pilotes métier. Ils ne se contentent plus de répondre aux demandes : ils identifient les points de friction dans les parcours ou les process, proposent des actions correctives et parfois les mettent en œuvre eux-mêmes grâce aux outils à leur disposition.
Exemple : un analyste a mis en place un algorithme pour prédire les ruptures de stock en point de vente afin de déclencher automatiquement une commande via une simple requête SQL.
Open Source et esprit de partage
Paul : On a développé Big Functions, un outil open source pour permettre à un analyste SQL d'appeler des APIs, envoyer des événements à Kafka, déclencher des actions… le tout depuis BigQuery.
Ismael : Ce genre d’outil, c’est la touche finale, tu donnes du super-pouvoir aux Analysts. Et tu fais rayonner ta culture data au-delà de l’entreprise et si tu devais résumer l’approche de Nickel en une phrase ?
Paul : Empowerer les équipes métiers avec des profils data full-stack, des outils standards et une plateforme solide. Tout ça, sans jamais renoncer à la cohérence.
Pour découvrir l'intégralité de ce Webinar, nous vous donnons RDV sur notre page Youtube,
> N'hésitez pas à vous abonner ici afin d'être alerté de nos dernières news !
Découvrez également "Comment piloter une équipe Data" avec Matthieu Rousseau, CEO de Modeo et Quentin de Carné