Retour

Comment les organisations peuvent-elles gérer judicieusement l’intelligence artificielle ?

Au cours des dernières années, l’intelligence artificielle (IA) a été rapidement introduite dans le monde du travail à travers différents secteurs et fonctions. Alors que les entreprises utilisent l’IA pour créer de la valeur, son implémentation a aussi engendré des défis, pas seulement en ce qui concerne la technologie en elle-même mais également en termes d’organisation et de culture du lieu de travail, ainsi que des questions éthiques. Avec ses co-auteurs, de Vrije Universiteit Amsterdam, le professeur Lauren WAARDENBURG de l’IÉSEG a étudié l’expérience de huit organisations dans l’implémentation et l’utilisation de l’IA, pour nous éclairer sur ce qui se passe réellement et concrètement. Les conclusions de leur travail ont été publiées dans un nouveau livre sur « comment gérer l’IA à bon escient » (« Managing AI wisely »*).

Ces dernières années, les médias ont publié une multitude d’articles et de rapports sur le potentiel de l’IA et les menaces ou problèmes qu’elle peut poser. Parmi ceux-ci, on trouve des exemples notoires d’échecs ou de problèmes, par exemple lorsque des entreprises ont utilisé des algorithmes de recrutement qui peuvent faire preuve de partialité lors de l’embauche de candidats.

« L’IA est devenue de plus en plus accessible aux organisations partout dans le monde et a clairement le potentiel d’apporter une valeur considérable à la société. Elle est déjà utilisée dans une grande variété de domaines, notamment la planification et la logistique, la représentation des connaissances, le traitement des langues (traduction, interprétation, etc…), la reconnaissance et la vision des images et la recherche d’informations (par exemple, les moteurs de recherche), pour n’en citer que quelques-uns. Cependant, nous pensons qu’il existe encore un grand potentiel pour améliorer la façon dont elle est mise en œuvre », explique Lauren WAARDENBURG.

Les auteurs ont identifié 4 défis généralement rencontrés par les entreprises qui mettent en œuvre l’IA : l’organisation des données, des tests et de la validation de l’IA, des intérmédiaires (en relation avec les algorithmes) et de la nature changeante du travail. Ils ont cherché à expliquer comment surmonter ces défis et répondre à des questions telles que : de quelles données ai-je besoin ? Quand un système est-il suffisamment bon pour prendre en charge des tâches ? Et comment préparer mes employés à travailler avec l’IA ?

« Nous avons constaté qu’il existe généralement quatre grandes catégories de défis organisationnels liés à la mise en œuvre. Toutefois, la réponse à ces défis ne doit pas être considérée comme une série d’étapes linéaires, mais plutôt comme un processus continu, car la nature de ces algorithmes signifie qu’ils apprennent constamment à partir des données qui leur sont fournies », explique Lauren WAARDENBURG.

Pour aider les organisations à gérer les systèmes d’IA avec succès dans la pratique, les auteurs ont proposé un résumé de 4 recommandations pour gérer l’IA  » à bon escient  » :

  1. L’organisation pour les données

« Les données sont l’élément central de l’IA (voir la description ci-dessous). Les organisations qui envisagent de développer l’IA devraient commencer par se demander de quel type et de quelle quantité de données elles auront besoin pour développer et former le système d’IA.  Elles devraient également se concentrer sur la manière dont ces données seront catégorisées« , note-t-elle. Les développeurs techniques devront construire le(s) ensemble(s) de données, mais les managers doivent être conscients et réfléchir aux types de données qui seront nécessaires et aux implications que cela pourrait avoir pour leur organisation. Dans l’exemple d’un algorithme de recrutement, « comment pouvons-nous nous assurer qu’il y a suffisamment de données provenant de toute l’organisation pour éviter tout biais potentiel en termes de prédictions qui seront faites par l’outil ? »

  1. L’organisation pour les tests et la validation

Après la première étape « données », de nombreuses organisations comptent ensuite sur les développeurs pour tester et valider (systèmes et prédictions) un système, car cela est généralement considéré comme un processus technique. « Cette hypothèse peut être préjudiciable, car les tests ne sont pas seulement une question technique« , explique-t-elle. Par exemple, un système peut être merveilleusement créé, prédisant des résultats avec des taux de réussite élevés, mais il peut être inutilisable ou difficile à mettre en œuvre dans une organisation. « Il est donc important que les responsables soient impliqués tout au long de la phase de test, car ils doivent réfléchir à la manière dont le système peut être mis en œuvre sur le lieu de travail et à l’intégration dans les processus de travail qui sera nécessaire », note-t-elle. « Une autre question centrale est de savoir si cela apportera réellement une valeur ajoutée à l’utilisateur final et pour la direction de réfléchir à tout aspect éthique et juridique lié au développement du système.  »

  1. L’organisation pour les intérmédiaires (en relation avec les algorithmes)

Lorsque le système d’IA a été testé et validé, cela ne signifie pas qu’il peut être automatiquement déployé au sein d’une organisation. « Les prédictions et les informations fournies par l’outil d’apprentissage doivent d’abord être interprétées et traduites », explique le professeur WAARDENBURG. « De plus en plus d’organisations choisissent de créer une fonction intérmédiaire (« algorithmic brokers ») pour s’occuper de cette étape vitale dans le processus d’IA. Il ou elle est un pont entre le système d’IA et l’utilisateur.  Cette personne va traduire les prédictions mathématiques dans le contexte du lieu de travail ; elle doit donc avoir une bonne compréhension technique de l’outil/modèle et des idées, mais aussi une très bonne compréhension du travail des utilisateurs finaux. Ils ont un rôle très important au sein de la mise en œuvre de l’IA, il faut donc que cela soit clairement défini.  » La nécessité de ces experts contredit quelque peu l’idée que l’IA remplacera les humains, ajoute-t-elle, mais cela ne signifie pas que le travail ne changera pas avec les systèmes d’IA »

  1. L’organisation pour les changements dans le travail

La dimension « auto-apprenante » de l’IA apporte de nouvelles connaissances à une organisation. C’est pourquoi l’IA, contrairement aux technologies précédentes, est souvent axée sur le travail de la connaissance. « Lorsque vous implémentez de nouvelles connaissances dans une organisation, où le savoir est souvent implicite et réparti entre différents groupes d’acteurs, il y a de fortes chances que cela entraîne des changements (inattendus) dans le travail. Il est très important que les organisations planifient et préparent les travailleurs à collaborer efficacement avec ces outils. »

  • Connaissances liées au travail : Les systèmes d’IA devraient être basés sur des connaissances liées au travail concernant les données, les tests et la validation, les intermédiaires et les changements dans le travail.
  • Connaissances interdisciplinaires : Les différentes disciplines (développeurs, utilisateurs, responsables) devraient être réunies et, si nécessaire, une formation complémentaire devrait être dispensée.
  • Processus de changement sociotechnique : L’introduction de l’IA doit être considérée comme un processus de changement organisationnel et, inversement, la technologie doit être adaptée aux besoins des processus de travail.
  • Sensibilisation à l’éthique : Des discussions devraient avoir lieu sur les considérations éthiques et l’explicabilité des systèmes d’IA et de leurs hypothèses sous-jacentes.

« Nous sommes convaincus que les managers, en tant que décideurs importants dans l’organisation, ont un rôle central et une responsabilité dans la mise en œuvre et la gestion des systèmes d’IA. Cependant, nous ne prétendons pas que les responsabilités décrites peuvent ou doivent être assumées par un manager seul. Un manager avisé crée une équipe compétente pour introduire et gérer judicieusement l’IA. Nous espérons que notre travail convaincra les managers de regarder au-delà du « buzz médiatique de l’IA » et de se demander à tout moment, quelle que soit l’étape à laquelle ils se trouvent : Gérons-nous l’IA judicieusement? »

Qu’est-ce que l’intelligence artificielle ?

L’intelligence artificielle existe depuis le milieu du siècle dernier mais est devenue plus importante pour les organisations ces dernières années en raison des progrès technologiques et de la capacité des organisations à saisir et utiliser les données. Avec le temps, la définition a changé, explique le professeur WAARDENBURG : « Maintenant, nous considérons généralement l’IA comme un outil capable de faire les choses que les humains font habituellement, notamment en termes de tâches cognitives telles que la résolution de problèmes. L’IA est désormais étroitement liée aux algorithmes d’apprentissage qui peuvent apprendre et s’améliorer grâce à l’expérience et à l’utilisation de données. »

Il y a trois domaines majeurs de systèmes d’apprentissage qui permettent de distinguer différents types d’apprentissage : l’apprentissage supervisé, systèmes très dépendants des humains, puisqu’ils doivent alimenter les données (étiquetées) ; l’apprentissage non supervisé, moins dépendant des humains ; et l’apprentissage renforcée, où la technologie doit prendre une série de décisions.

* Managing AI Wisely: From Development to Organizational Change in Practice (Edward Elgar Publishing): Lauren WAARDENBUG, professeur adjoint de systèmes d’information (IESEG), et Marleen HUYSMAN, professeur de connaissances et organisations, et Marlous Agterberg, responsable de la recherche et de la valorisation, KIN Center for Digital Innovation, Vrije Universiteit Amsterdam, Pays-Bas.