Newsroom

Les data scientists opérants de Wavestone

Jeudi 23 mars 2020, Stephan Mir et Paul Desigaud sont intervenus dans le cadre des séminaires des Mastères Spécialisés Big Data et IA pour présenter l’entreprise Wavestone et en particulier les activités du pôle « Machine Learning & Data Lab ».

Stéphan Mir (Télécom Paris) dirige le Machine Learning Data Lab chez Wavestone et Paul Designaud (INSA Lyon) est consultant chez Wavestone depuis deux ans.

Wavestone est un cabinet de conseil créé en 1990, présent sur quatre continents, spécialiste de la transformation des entreprises et des organisations. Il compte aujourd’hui 3 300 collaborateurs. Ce nombre a progressé d’un facteur 6 en douze ans, ce qui dénote une forte croissance.

L’objectif de Wavestone est de savoir comment aider et accompagner les entreprises à intégrer l’intelligence artificielle à leurs projets. Wavestone ne fait que du conseil et pas d’intégration logiciel. Il s’agit de proposer à ses clients des solutions entièrement adaptées à leurs besoins.

Stéphan Mir a comparé la « Data Science Kaggle » versus celle de la « réalité » c’est à dire celle en phase avec les besoins du marché. En effet, même si les projets de Data Science Kaggle sont intéressants pour se tenir au courant de nouveautés, il insiste sur l’importance des modèles classiques pouvant faire l’objet de développements robustes dans l’industrie. Le cœur du métier de conseiller est donc principalement axé sur la technologie en interaction directe avec le business.

Stéphan Mir a également mentionné l’aspect « great place to work » de l’entreprise. Au-delà de l’exigence du métier, l’accent est mis sur des échanges réguliers entre tous les collaborateurs et la qualité des relations humaines. Une attention particulière sur l’équilibre personnel des consultants permet un mode de fonctionnement peu hiérarchisé et épanouissant.

Stéphan Mir distingue trois façons de « faire » de l’IA :

  • dans un laboratoire de recherche ou un centre de R&D d’une grande entreprise telle que chez les GAFA. On touche alors à des challenges impressionnants qui font avancer l’innovation dans la data science.
  • au sein d’une start-up où il y a un mélange d’IA et d’un projet permettant une levée de fonds. L’objectif étant d’améliorer un produit ou un service.
  • une troisième façon s’approchant des besoins des clients de Wavestone. Ces derniers ont des milliers de processus internes différents, concentrant de multiples contraintes, que des personnes en interne tentent d’améliorer sans avoir forcément accès aux bonnes données ou en étant dans les bonnes alliances politiques.

Le pôle Machine Learning & Data Lab de Wavestone est né de besoins et problématiques de clients grands comptes cherchant à mieux cerner les contours de l’IA d’abord, puis à incorporer cette dernière dans leur processus. Le pôle Machine Learning & Data Lab se compose de « data scientists opérants » exerçant leurs compétences aux frontières des aspects business, managériaux/organisationnels, IT et scientifiques.

Business

Dans le cadre du développement d’un algorithme efficace et de sa mise en production, des étapes telles que la préparation des données et le nettoyage apparaissent incontournables. Ensuite, le « data scientist opérant » se doit d’échanger avec le Métier concerné afin de mettre en perspective les besoins et problématiques avec les solutions apportées. Enfin, le data scientist accompagne la conduite du changement aux côtés du client.  L’interaction Homme-Machine est ici au cœur de la démarche.

Exemple :  prédire l’absentéisme dans une entreprise. Il est difficile de prédire les aléas pouvant conduire un salarié à être absent (par exemple, s’il se casse une jambe). Par contre comprendre pourquoi il est absent est tout à fait possible, dans la perspective de mettre en place un plan d’action RH. Beaucoup de clients ne possèdent pas de compétences techniques liés à la data science et réussir à poser les bonnes questions est une compétence clé du data scientist chez Wavestone.

Management et organisation

Quant à l’aspect management/organisation, le data scientist caractérise ici le panel d’outils nécessaire à l’atteinte de l’objectif. La question de la « gouvernance data » (producteur de la donnée, stockage de la donnée, cohérence des formats, etc.), est également abordé via cet aspect.  Au-delà est aussi envisagée toute la stratégie liée à la donnée où le propos va être de dresser l’ensemble des plans d’actions pour atteindre un objectif visé.

Exemple pour la région Île-de-France avec la mise en place d’une politique de partage de données de types météo et cadastre afin d’étudier la pertinence de l’installation de panneaux solaires à certains emplacements.

Technologies de l’information

L’aspect IT de la mission du data scientist vise à s’assurer que le code produit est supporté et bien documenté. Ce même aspect vise également à s’assurer de la robustesse de la chaîne d’approvisionnement de données, en collaboration notamment avec les équipes SI du client.

Science

L’aspect scientifique de la mission du data scientist vise à transposer les avancées académiques dans un cadre concret, s’articulant autour des besoins et problématiques des clients. C’est également un aspect nécessaire dans l’interprétabilité des résultats.

L’interprétabilité, ou encore l’explicabilité des résultats font d’ailleurs l’objet de mesures de la part des régulateurs. En Europe, le Règlement Général sur la Protection des Données (RGPD), Raison 71, énonce que :  « La personne concernée devrait avoir le droit de ne pas faire l’objet d’une décision, qui peut comprendre une mesure, impliquant l’évaluation de certains aspects personnels la concernant, qui est prise sur le seul fondement d’un traitement automatisé et qui produit des effets juridiques la concernant ou qui, de façon similaire, l’affecte de manière significative, tels que le rejet automatique d’une demande de crédit en ligne ou des pratiques de recrutement en ligne sans aucune intervention humaine. […] En tout état de cause, un traitement de ce type devrait être assorti de garanties appropriées, qui devraient comprendre une information spécifique de la personne concernée ainsi que le droit d’obtenir une intervention humaine, d’exprimer son point de vue, d’obtenir une explication quant à la décision prise à l’issue de ce type d’évaluation et de contester la décision. »

Compte-rendu rédigé Thomas Rivière et Kaelig Castor,  étudiants de la promotion 2019-2020 du Mastère Spécialisé Big Data de Télécom Paris.