Retour d’expérience d'Olivier Monnier,
Group Chief Data Officer chez Matmut

Comment structurer son équipe Data ?

Insurtech

Comment structurer son équipe Data ? Où positionner la Data dans l’organisation ? Quels profils recruter en priorité ?

Pour obtenir des réponses à ces questions que de nombreux CDOs se posent, nous avons interviewé Olivier Monnier, Chief Data Officer chez Matmut, groupe d’assurance employant 6300 personnes pour un chiffre d’affaires de 2.9 milliards d’euros.

Olivier, merci de nous recevoir, peux-tu te présenter s’il-te-plait ?

 
 

Je suis Olivier Monnier, Group Chief Data Officer chez Matmut depuis deux ans. Avant cela j’ai évolué au sein de Roquette, HSBC et Scor dans des contextes très différents. J’ai une formation de statisticien.

 

Peux-tu nous raconter comment tu es devenu Chief Data Officer chez Matmut?

 

Il y’avait une volonté de la part du groupe d’avancer sur les sujets Data. En 2015, le groupe avait mené des initiatives via un « Datalab » intégré à la DSI qui a lancé de nombreux petits projets Data.

Le board de la Matmut a voulu passer à l’échelle et sortir de l’expérimentation. Le but était de bénéficier pleinement de nouvelles technologies comme l’IA pour gagner des clients et augmenter l’efficacité opérationnelle.

Où est positionnée la Data au sein de la Matmut ?

 

Comme je l’ai indiqué avant mon arrivée il existait déjà un Datalab rattaché à la DSI. Pourtant, nous avons pris la décision de créer une Direction Data à part entière rattachée directement au COMEX. L’idée était de créer une passerelle entre le métier et la DSI qui ont traditionnellement des rythmes différents.

Comment as-tu structuré ton équipe ?

 

 

Il faut savoir qu’au démarrage, j’étais seul, deux ans plus tard on est 15.

J’ai structuré mon équipe en 4 pôles différents :

– Data Analytics
– Data Science
– Data Engineering
– Data Management

J’ai décidé de staffer en priorité deux rôles : Data Analysts et Data Engineers.

Les Data Analysts ont été primordiaux pour moi car ils étaient mon relais au sein des métiers. En terme de profils, j’ai misé sur des experts de la Data qui n’avaient plus trop envie de mettre la main dans le code mais plutôt de passer du temps à comprendre les enjeux métiers.

Ensuite j’ai passé beaucoup de temps à staffer des Data Engineers dont la compétence est de plus en plus rare sur le marché, mais je me suis armé de patience parce que cette fonction est déterminante.

Comment fais-tu pour faire face à la crise de talents ?

 

C’est un enjeu prioritaire pour nous. Je n’ai pas de recette miracle mais j’ai adopté la stratégie suivante : je ne cherche pas à staffer les meilleurs talents mais plutôt à staffer une équipe complémentaire. Il faut aussi être prêt à faire monter en compétence des profils pas totalement mûrs, il faut de la patience c’est indispensable. La MatMut est à Rouen, donc on a une difficulté supplémentaire.

C’est pourquoi, on a beaucoup travaillé avec les RH, on a passé du temps avec les recruteurs pour les former aux métiers de la Data et instaurer un processus de recrutement qui inclut des tests techniques.

Comment as-tu priorisé les premiers use cases pour générer de la valeur ?

 
 

Pour commencer, j’ai un principe de base… je ne fais pas de PoC (Proof of Concept).

Il y’a 7, 8 ans on faisait des POCs pour déterminer si un projet Data pouvait délivrer de la valeur. Aujourd’hui ce point n’est plus à prouver. La réponse est évidemment oui.

Aujourd’hui, je fais des PoV (Proof of Value). La question que soulève un PoV est différente, cette fois on se demande quelle est la rentabilité d’un projet Data. Dès lors il faut valider avec les métiers trois points primordiaux :

1) Pourquoi ce use case ?
2) Quelle valeur va-t-il générer ? Je parle bien de valeur et pas de ROI.
3) Quel est le risque à ne pas faire ?

Si le métier n’est pas clair sur ces trois questions, on ne prend pas le use case. Ensuite au niveau de l’équipe Data, pour arbitrer comment prioriser nos projets, on utilise une méthodologie basée sur 5 questions :

1)  Est-ce que nous pouvons exploiter la donnée ? (Fiabilité, Accessibilité, Diversité)
2) Quel est l’effort du pré processing ?
3) Quel est la complexité des algorithmes à créer ?
4) Quelle est la visibilité du projet au sein de l’entreprise ?
5) Quel impact sur le business ?

On donne un score à chacun des points. A la fin du compte, les projets avec le score le plus élevé sont priorisés.

Comment arrives-tu à sécuriser le sponsorship?


Le Sponsorship se fait à deux niveaux.

Il faut à la fois travailler et expliquer sa vision au niveau CODIR et aussi sécuriser la relation avec les responsables métiers.

La chance que j’ai, c’est que mon COMEX était à peu près convaincu qu’il fallait accélérer sur la Data.

Par contre, c’était moins gagné avec les responsables métiers. Il fallait les impliquer et ne pas qu’ils subissent cette transformation data. Pour cela, on a procédé de la façon suivante : rencontrer d’abord les responsables métiers, identifier avec eux les use cases data puis remonter la synthèse au CODIR.

 A ce moment, c’est le CODIR qui tranche quel use case prioriser. Cette méthodologie nous a permis d’embarquer l’ensemble des parties prenantes.

Quid de ta relation avec la DSI ?


La DSI intervient partout, c’est un partenaire hyper important et j’ai passé du temps avec mon DSI pour scinder les rôles, définir les responsabilités des uns et des autres et surtout éviter les guerres de chapelle.

Quelles sont les responsabilités de l’équipe Data Management ?

 

L’équipe Data Management se concentre sur trois enjeux majeurs pour nous :

– La qualité de la donnée
– Le Data Catalog
– La définition des Data Owners, jusqu’à écrire une feuille de mission

En terme, de stack technologique, peux-tu nous parler d’outils qui t’ont aidé dans tes fonctions ?

Il y’a un outil auquel je pense naturellement, car il nous a bien boosté et qu’il change la façon de penser des CDOs, c’est Datarobot. Ce type d’outils change le métier du Data Scientist, grâce à cette technologie, la façon de coder du data scientist passe au niveau secondaire car le logiciel va pouvoir créer des algorithmes de bonne qualité.

En terme de recrutement cela a un impact énorme, il y’a 4 ou 5 ans on recherchait les profils qui étaient les meilleurs en codage. Aujourd’hui, grâce à l’Auto Machine Learning, je recherche les profils qui sont les plus capables de m’aider sur du feature engineering ou sur de la prise de recul face à des algorithmes.

L’autre avantage de cet outil est qu’il prend en compte, nos propres codes python développés en dehors du logiciel.

En terme, de gouvernance au sein de l’équipe Data, quel mode as-tu choisi ?

 

J’ai eu un management très centralisé au démarrage pour faire mûrir mon équipe, mais le projet à moyen terme est de décentraliser mon équipe pour aller vers du Data Mesh, qui est un objectif pour nous car c’est un modèle auquel je crois.

Que penses-tu de Hubadviser ?


Je recommande Hubadviser car il n’y a rien de mieux que des échanges avec des pairs pour te permettre de prendre du recul par rapport à ta propre situation. Le format proposé permet de prendre de la hauteur et de te baser sur des retours concrets et opérationnels. En cela c’est enrichissant et novateur.

Pour obtenir notre livre blanc sur une tendance clé du Data Management, la Data Mesh, co-écrit avec Noël Cavalière, Ex Head of IT Architecture de Stellantis, faites le nous savoir.