Passer au contenu principal

PARIS : Mehdi KHARAB : « Le machine learning en prévision n…

Partager :

PARIS : Mehdi KHARAB : « Le machine learning en prévision n’est ni magique, ni un simple argument marketing »

Selon Mehdi Kharab, expert chez Colibri, le machine learning révolutionne la prévision, à condition de l’adopter avec rigueur et pragmatisme.

Le marché de la data science voit une explosion de la demande en machine learning, notamment dans le domaine de la prévision des ventes. Présentés comme le nouveau standard, les algorithmes « dopés au ML » suscitent un engouement considérable. Pourtant, il est essentiel de conserver une distance critique face aux discours marketing, aussi séduisants soient-ils. « Comprendre la portée et les limites de l’approche, savoir quand l’utiliser selon les besoins métier et être capable d’interpréter les résultats sont des conditions indispensables pour réellement créer de la valeur », analyse Mehdi Kharab, expert au sein de la société Colibri.

Une technologie ancienne, une révolution récente

Souvent perçu comme une technologie d’avant-garde, le machine learning est en réalité apparu dès les années 1950 et a gagné en maturité à partir des années 1980. Son application à la prévision remonte aux années 1990. Pendant près de quarante ans, les compétitions internationales de référence, comme les compétitions Makridakis, ont montré qu’aucun modèle de machine learning ne parvenait à surpasser les méthodes statistiques classiques. L’édition 2020 a même vu dix-sept modèles de ML obtenir des résultats inférieurs au modèle le plus simple.

Le paysage a toutefois changé radicalement en l’espace d’un an. De nouveaux modèles, enrichis de variables explicatives supplémentaires (« features ») comme les prix, les promotions, les ruptures de stock ou les canaux de distribution, ont commencé à dépasser toutes les approches précédentes. Depuis 2021, la recherche s’est accélérée grâce à des jeux de données plus volumineux et des capacités de calcul accrues. Si ces modèles ont gagné en performance, ils présentent des contreparties : ils sont gourmands en ressources, plus sensibles au surapprentissage et très dépendants de la qualité des données. Ils sont également moins robustes, plus instables et souvent difficiles à interpréter, nécessitant une configuration experte et une supervision continue.

Deep learning et « foundation models » : la nouvelle ère

En parallèle, le deep learning a connu une transformation rapide avec l’émergence d’architectures comme les Transformers. Ces avancées ont permis la création de « foundation models » à grande échelle, capables d’apprendre à partir de jeux de données massifs et de se généraliser à de nombreuses tâches de prévision. Un exemple marquant est Chronos-2, un modèle de 120 millions de paramètres qui atteint des performances de pointe sur des benchmarks de référence.

Comparé à des approches classiques comme l’algorithme XGBoost, le deep learning offre des avantages notables : il apprend automatiquement des motifs temporels complexes, traite nativement les interactions entre de multiples variables et se généralise à de nouvelles situations sans nécessiter de réentraînement complet. Si XGBoost reste un excellent choix pour des ensembles de données plus petits et pour lesquels l’interprétabilité est primordiale, les « foundation models » dominent désormais les scénarios complexes et à grande échelle.

Une adoption pragmatique comme clé du succès

L’essentiel, selon Mehdi Kharab, n’est pas « d’utiliser du machine learning pour le principe ». Brûler les étapes est contre-productif. Une approche pragmatique doit commencer par définir des objectifs métiers clairs, comprendre les besoins en données et garantir leur qualité avant de déterminer si le ML est réellement la solution la plus adaptée.

Une fois les modèles avancés introduits, il est crucial de s’assurer que les résultats, souvent issus d’algorithmes opaques, soient interprétables et exploitables par les utilisateurs finaux. Cette transparence renforce la confiance, favorise l’adoption et permet un suivi pertinent, aligné sur les réalités du terrain. « Le machine learning ne bénéficie pas à tous de manière identique. Il ne présente d’intérêt que si le modèle correspond en tous points au métier visé », insiste l’expert. Entre les modèles statistiques simples et les architectures neuronales sophistiquées, une large palette de solutions existe. Le succès repose sur une préparation rigoureuse des données, une discipline méthodologique et une mise en œuvre progressive, idéalement accompagnée par des experts pour identifier le bon niveau de sophistication adapté à la maturité de l’organisation.