Renault : « Analyser les données, scénariser, prédire et automatiser »
Par Guillaume Trecan | Le | Industrie
Après plus de deux ans consacrés à créer son data lake, la direction supply chain de Renault est passée au stade de l’analyse, en s’appuyant sur une Control Tower sophistiquée. Explication par le directeur supply chain de Renault, Jean-François Salles et Quynh-Nhu Neve, chargée des procédés logistiques pièces détachées.
Quel est le périmètre de responsabilité de la direction supply chain de Renault ?
Jean-François Salles : Notre organisation supply chain travaille pour les marques Renault, Dacia, Alpine et Mobilize. Nous agissons d’une part sur le S&OP, l’ordonnancement de la production en fonction de la demande commerciale, et d’autre part sur une dimension plus physique : toutes les opérations logistiques, transport et packaging en amont des usines. Ces opérations concernent l’approvisionnement d’une trentaine d’usines dans une douzaine de pays, à partir de quelque 6 000 fournisseurs. Nous opérons un million de routes chaque année, avec 15 000 points de distribution de véhicules.
Quel est le besoin à l’origine de votre projet de control tower ?
JFS : La maîtrise de nos données de flux de bout en bout et la capacité à croiser les données - demande commerciale, production, situation de nos fournisseurs, conditions de transport… - revêt une grande valeur pour le business de l’entreprise. C’est un gage de sécurisation et de stabilité pour le système industriel. Cela permet aussi de mieux répondre aux exigences commerciales, à la fois d’un point de vue satisfaction des clients, mais aussi en orientant les productions sur ce qui sera le plus rentable pour l’entreprise. Pour en arriver là, nous devions pouvoir analyser les données, scénariser, prédire et automatiser des tâches pour gagner en efficacité.
Nous utilisons Google Cloud Paltform comme réceptacle de ces données. Nous avons aujourd’hui 100 % de nos données dans ce data lake
Quand et par quoi avez-vous entamé ce chantier ?
JFS : C’est parti d’un premier travail, peu rentable en apparence, qui consiste à investir dans la structuration des données provenant de systèmes faiblement structurés. La supply chain de l’automobile est assez complexe, elle s’est sophistiquée au fil des décennies en utilisant d’importants systèmes Legacy très silotés de gestion de production, de management de transport, d’entrepôts… La première tâche a consisté à extraire ces informations, à les structurer et à les rendre intelligibles en les déversant dans une plateforme commune. Nous utilisons Google Cloud Paltform comme réceptacle de ces données. Nous avons aujourd’hui 100 % de nos données dans ce data lake.
Comment avez-vous abordé les questions de la qualité et de la propreté de la donnée ?
Quynh-Nhu Neve : Nous avons commencé par les cartographier, les catégoriser et les caractériser sur l’ensemble du périmètre et à l’intérieur des domaines. Nous avons poursuivi ce travail sur plusieurs niveaux de profondeurs en fonction des métiers. Nous avons créé une organisation dédiée, composée de data ingénieurs côté IT, dont le rôle consistait à traiter la donnée, tandis que notre rôle, côté métier supply, consistait à définir le sens des données et les notions de propriété, afin que les règles de gestion soient conformes à ce que nous voulons en faire.
Un data manager par domaine anime une communauté de data analystes qui savent manipuler la donnée et créer des outils de reporting
Cette organisation se compose aujourd’hui de plus d’une trentaine de personnes à la Supply Chain. Un data manager par domaine anime une communauté de data analystes qui savent manipuler la donnée et créer des outils de reporting. Pour aller plus loin, nous avons identifié des data champions, des personnes, au sein des équipes métiers, qui ont la capacité de développer en autonomie des outils de reporting. En outre, une équipe de data scientists nous accompagne dans le développement d’outils utilisant l’intelligence artificielle, comme l’outil de prédiction de coûts utilisé par la Control Tower. Cette équipe, constituée depuis 2021, est baptisée IA@SC (Intelligence Articficielle @ Supply Chain).
Ces outils basés sur nos datas doivent devenir aussi naturels qu’Excel. Aujourd’hui une partie des équipes possède les compétences particulières requises pour la manipulation de la data mais, à terme, l’usage de la data sera démocratisé. Pour ce faire, nous avons créé un parcours de formation permettant à chacun d’accéder aux compétences adaptées à ses besoins réels : spécification de besoins liés à un outil data, réalisation d’outils, etc.
Quels sont les origines et la nature de ces données ?
JFS : Beaucoup viennent de systèmes de gestion de production qui traduisent les flux en demande de pièces aux fournisseurs et en demandes de transport. D’autres viennent de systèmes de gestion de packaging, de suivi de transport inbound et outbound. Nous récupérons aussi de la donnée venant de nos fournisseurs, ainsi que l’information de tracking et de prévision d’arrivée de transport générée par nos prestataires Shippeo et Buyco. Enfin, nous utilisons des données publiques : situation météo, situation de trafic sur une zone portuaire et actualités.
L’idée est d’aller vers un système qui nous permet de capter les risques dans toute la chaine d’approvisionnement, en rangs 1 et plus, de manière statique et prédictive
Où en êtes-vous de l’analyse des données issues de votre data lake ?
JFS : Depuis un peu plus d’un an, nous avons accéléré la partie exploitation de nos data. Nous avons une feuille de route calée sur les différents process supply. Sur la partie S&OP, l’idée est d’aller vers un système qui nous permet de capter les risques dans toute la chaine d’approvisionnement, en rangs 1 et plus, de manière statique et prédictive. Sur la partie transport et approvisionnement, cela va de la simple analyse de données à un instant T, à la prescription de solutions suivant différents scénarii, avec une transparence sur les paramètres de performance coût, délai, ou encore CO2, selon que l’on change de route, de programmation, de moyen de transport…
Il est possible d’aller plus loin et d’automatiser une partie de ce prescriptif, dans des situations où la décision est claire et où la machine peut proposer une alternative dont le risque induit est faible.
Pouvez-vous donner un exemple de situation dans laquelle vous pourriez laisser la main à la machine pour choisir une alternative ?
QNN : Pour l’instant, nous en sommes à l’étape des recommandations. La mise en œuvre de solutions en toute autonomie par la machine est l’étape d’après. Nous n’en sommes pas loin puisque nous avons déjà automatisé ce système d’alertes et de propositions de scénarii quantifiés. A l’heure actuelle, ces outils d’aide à la décision font monter les équipes en compétences parce que ces informations leur permettent de prendre des décisions sur la base de données tangibles, donc avec plus d’autonomie. Grâce aux scénarii quantifiés proposés par la machine, les opérateurs de transport peuvent travailler avec les transporteurs et autres parties prenantes la mise en œuvre de solutions de contournement pour sécuriser la livraison des pièces en usine. Par exemple, lorsqu’une crise intervient sur une pièce, ils savent où elle est disponible ailleurs - dans une autre usine, chez un fournisseur, dans un camion - et ils ont les arguments en main pour demander un dépannage au départ de ces sites. Cette visibilité a ouvert le champ des possibles.
Nous avons bénéficié d’une approche différente de l’industrie automobile sur la gestion de projet, consistant à combiner une grande rapidité d’action et un niveau d’ambition très élevé
Que vous apporte le partenariat avec Google ?
JFS : Il a débuté il y a un peu plus d’un an et nous a permis d’aller très vite sur des sujets complexes. Il nous apporte la puissance de GCP, des compétences techniques, celles de Google et celles de ses partenaires, par exemple ArkeUp, très pointu en termes de mapping et de développement d’outils. Nous avons aussi bénéficié d’une approche différente de l’industrie automobile sur la gestion de projet, consistant à combiner une grande rapidité d’action et un niveau d’ambition très élevé.
Quelle dimension a apporté l’implémentation de la solution de tracking de Shippeo ?
JFS : Cette solution, qui nous permet d’avoir des prévisions d’arrivée de nos pièces en temps réel, est le fruit d’un travail collaboratif, dans lequel une startup française spécialiste du tracking a accepté de s’engager avec un chargeur. Leur aptitude à codévelopper et comprendre nos problématiques métiers était le premier critère qui nous a déterminé à travailler avec eux. L’autre étant la fiabilité de leur outil en termes d’ETA. Une grande partie de la qualité des informations de la supply chain dépend en effet de nos transporteurs.
En fiabilisant le transport, nous sécurisons le système industriel de bout en bout
Quel est le ROI de la control tower à ce stade de développement ?
QNN : Tout d’abord nous réduisons les coûts de dépannages grâce à une meilleure anticipation des actions. Nous visons aussi une réduction des coûts de retouche des véhicules en évitant de devoir fabriquer des incomplets par manque de pièces. Enfin, en fiabilisant le transport, nous sécurisons le système industriel de bout en bout, ce qui permet de réduire les stocks de sécurité mis en œuvre par précaution.
Affiner le pilotage de la supply chain vous donne-t-il également une arme pour lutter contre les ruptures d’approvisionnement ?
JFS : Une meilleure visibilité sur la réalité des approvisionnements et le délai précis d’arrivée des pièces permet en effet aux usines d’anticiper des contre-mesures et de mieux organiser le temps des équipes de production. Si l’on prend l’exemple du maritime, que nous allons basculer bientôt dans le périmètre du service apporté par Shippeo, l’un de nos besoins est de pouvoir anticiper les saturations de port et d’avoir une visibilité sur les possibilités de décharger dans les ports voisins. Nous pouvons ainsi anticiper également le transport routier nécessaire pour aller chercher les conteneurs.
Comment organisez-vous le partage de ces informations dans l’entreprise ?
QNN : Les premiers concernés sont les responsables logistiques des usines et les directeurs d’usine. Cette année, nous sommes donc en train de donner accès à l’ensemble des sites industriels. Cela va avec le fait de donner plus d’autonomie à chaque pôle industriel dans la gestion de ses approvisionnements.
Dans ce metaverse, l’ensemble de nos données, à la fois nos véhicules, nos processus, nos transports, est modélisé, représenté par des data
A travers ce projet le partage de la data a-t-il aussi pour effet de décloisonner la fonction supply chain par rapport au reste de l’organisation ?
JFS : Oui, mais il doit aussi permettre de désiloter les autres fonctions. C’est un peu le sens du projet de metaverse industriel que nous avons présenté à Flins. Dans ce metaverse, l’ensemble de nos données, à la fois nos véhicules, nos processus, nos transports, est modélisé, représenté par des data. Nous pouvons manipuler ce modèle digital de notre business à très grande vitesse, dans toutes les directions pour simuler et interagir avec les opérations à un niveau que nous étions incapables d’atteindre auparavant. Nous sommes peut-être un peu plus avancés au niveau de la supply en termes de structuration des données, mais toutes les fonctions sont en train de bouger dans ce sens.