Ekimetrics : 6 étapes pour réussir son projet de data science
La mise en place de parcours client permettant une expérience sans couture et personnalisée est plus que jamais une nécessité pour les entreprises. Une réalité qui pousse les entreprises à développer ou adopter des outils basés sur l’intelligence artificielle et le machine learning. Mais atteindre cette proximité avec le client peut s'avérer plus complexe que prévu. En effet, les seuls investissements technologiques ne suffisent pas, et ces derniers doivent également être accompagnés de changements structurels et organisationnels. Les équipes Marketing, IT, Digital, Produit ou CRM sont toutes concernées par ces nouveaux défis autour de la data, et ce à tous les niveaux : de la collecte, à l’analyse, puis à l’application des données récoltées. Alors, comment bien mener et réussir son projet de data science de A à Z ?
Ayant constaté que beaucoup d'initiatives n'apportent que peu de valeur commerciale tangible, les équipes d’Ekimetrics se sont concentrées sur les éléments qu’ils considèrent comme essentiels au succès d'un projet de data science. Pour ce faire, le leader européen en Data Science s’est appuyé sur plus de 1 000 projets de science des données réalisés au cours des 14 dernières années. De cette étude approfondie des données Ekimetrics découlent les 6 étapes d’un projet data science réussi :
- Définir les challenges initiaux
- L’encadrement stratégique
- L’encadrement opérationnel
- L'héritage technologique
- La création d’algorithmes modulaires
- L’industrialisation par & pour les métiers
Étape 1 : Définir les challenges initiaux
Pour aspirer à réussir un nouveau projet, la première étape consiste à s’assurer que les bases sont posées pour avancer sereinement sur le reste du parcours. Selon Ekimetrics, il existe 4 points clés à prendre en compte pour réussir au mieux son projet data science :
- Les plateformes et outils déjà en place (ERP, CRM, DMP, etc.), ainsi que ceux dont l’implantation est planifiée, sont des considérations à prendre en compte très tôt. Ces outils déterminent en effet la fluidité et le rythme du projet de data science.
- L'accès aux données est également un facteur clé pour la réussite d'un projet de data science. Dans les entreprises, en particulier celles disposant d’une structure matricielle, les données sont souvent fragmentées, multisources, multiformes et dispersées dans l'entreprise.
- Identifier les bonnes données, dans le but de pouvoir y accéder, de les nettoyer et de pouvoir les agréger est un des grands défis pour les data scientists pour, à terme, créer des modèles statistiques fiables ayant un fort impact sur l’entreprise.
- Enfin, maîtriser ses outils d’IA. Une excellente compréhension des forces et des faiblesses de chaque technique permettra au data scientist de construire un algorithme de qualité qui sera capable d'absorber toutes les contraintes en place.
Lors d’un projet de data science, il est fréquent d’assister à une stagnation du projet au stade de POC (Proof of Concept) ou de POV (Proof of Value). Dans certains cas, les projets data science dépassent le stade de POC, mais ce sont les investissements humains (recrutement, charge de travail…) qui bloquent.
La phase d'industrialisation est de loin la plus complexe [...] et la plus coûteuse d'un projet de data science. Nous aimons rappeler à nos clients que la conception de l'algorithme représente environ 20% du travail, alors que l'industrialisation représente les 80% restants.
- Livre blanc “Data Science & Industrialization” (Ekimetrics)
Étape 2 : Prendre le temps de mettre en place sa stratégie en amont
La deuxième étape d'un projet de science des données réussi réside dans un cadrage stratégique impliquant un ou plusieurs membres du comité exécutif. Cela permet de maintenir une perspective adéquate en tenant compte très tôt des contraintes et des ambitions de l'entreprise. Par exemple, l'optimisation de la marge dans l'ensemble de l'entreprise peut entrer en contradiction avec la nécessité d'investir dans les données et la technologie. Il s’agit également de la phase où se posent les questions d’attribution des ressources, toujours avec le ROI en tête.
Cette phase initiale permet, en fin de compte, de mesurer tous les risques, enjeux et bénéfices tout en définissant dans quelle mesure ce nouveau projet peut avoir un impact positif à tous les niveaux de l’entreprise. Plus ces variables sont connues et prises en compte, plus le projet aura de chance d’aboutir.
Étape 3 : Aligner les collaborateurs vers un même objectif
Une fois que les use cases à fort impact auront été définis et hiérarchisés, les entreprises doivent procéder à un cadrage opérationnel et technique. Une étape décisive, puisqu’elle permet de mettre en correspondance les défis de l'entreprise, du secteur d'activité, technologiques et les contraintes de coûts implicites.
Une fois ces facteurs mis en perspective, il est important d’intégrer toutes les équipes concernées, de près ou de loin, au processus. Les entreprises doivent ainsi chercher à intégrer l’ensemble des parties prenantes le plus tôt possible, dès la conception de l’algorithme. Cette phase d’intégration contribue grandement à l’acceptation générale de ces nouvelles pratiques et permet, in fine, de faciliter l’industrialisation du projet puisqu’experts data et équipes business évoluent ensemble sur cette phase.
Étape 4 : S’adapter à l’héritage technologique de l’entreprise
Si les nouveaux projets créent de nouveaux besoins, les entreprises ne doivent pas pour autant chercher à révolutionner leur stack technologique. Il est ainsi préférable d’adapter et de faire évoluer les outils déjà existants dans l’entreprise afin de garantir une meilleure intégration des projets dans le quotidien de l’entreprise. Il est ainsi plus opportun d’opter pour une architecture flexible, suffisamment souple pour s'adapter au projet en cours, mais aussi pour soutenir les autres projets de l'entreprise dans le futur.
Cependant, faire évoluer l'architecture existante ne signifie pas simplement superposer de nouveaux outils avec ceux qui existent déjà. Par défaut, chaque nouveau projet de data science doit faire évoluer la technologie et les outils en place, et oblige indirectement les entreprises à s’adapter à de nouvelles contraintes.
Étape 5 : Créer des algorithmes modulaires
Face au nombre grandissant de données et leur constante évolution, des algorithmes sur-mesure doivent être mis en place. Ils doivent être à la fois capables de répondre et de s’adapter à l’hétérogénéité et au volume des données.
Une partie de cette adaptation est basée sur les contraintes du projet comme les données ou le secteur d'activité. Le reste peut s'appuyer sur des bibliothèques de code existantes et parfaitement maîtrisées, qui constitueront les différents modules de l'algorithme final.
La création d'un algorithme consiste donc à assembler de manière experte ce qui existe déjà, ce qui requiert un savoir-faire complexe plutôt qu'une recette miracle. En d'autres termes, c'est comme une partie de Tétris, l'objectif étant de placer la bonne brique au bon endroit !
- Livre Blanc “Data Science & Industrialization” (Ekimetrics)
Étape 6 : Industrialiser les projets par et pour les métiers
Comme mentionné, une industrialisation réussie du projet repose en grande partie sur son adoption par les équipes. Cette étape requiert une adaptation managériale ainsi que de nouvelles habitudes de travail entre les collaborateurs. Pour faciliter ces changements, l’entreprise peut mettre en place des workshops éducatifs et/ou techniques, plus ou moins avancés, en fonction de la maturité data déjà acquise par l’entreprise ou la BU concernée.
Nous conseillons vivement à toutes les entreprises de ne pas considérer leur cas d'usage comme un projet de data science isolé, mais comme la première étape d'un parcours. Ce “data capital” - hérité puis amélioré à chaque nouveau projet - servira à développer de nouveaux avantages concurrentiels qui orienteront la stratégie de l'entreprise sur le long terme.
- Livre blanc “Data Science & Industrialization” (Ekimetrics)