Retour

Intégrer l’éthique dans le développement de l’intelligence artificielle (IA) : un entretien avec la lauréate du prix ICOR et le professeur Mercier

Les systèmes basés sur l’IA sont désormais couramment utilisés dans de nombreux domaines de notre travail et de notre vie. La croissance rapide de l’utilisation et de l’impact de ces systèmes soulève néanmoins plusieurs défis ou questions éthiques, par exemple en matière de discrimination, de transparence ou encore de confidentialité des données. Comment les organisations peuvent-elles intégrer ces préoccupations lorsqu’elles développent et déploient l’IA ? C’est l’une des questions auxquelles Julia Guillemot (récemment diplômée de l’IÉSEG) a cherché à répondre dans le cadre de son mémoire de Master*, qui a récemment remporté le prix ICOR. Nous avons discuté avec Julia et son directeur de mémoire, le professeur Guillaume Mercier, des résultats de cette recherche.

Pouvez-vous expliquer pourquoi et comment vous avez choisi d’étudier ce sujet ? Et pourquoi c’est un sujet si important pour les entreprises et les organisations ?

Julia Guillemot :

J’ai commencé à développer un intérêt pour l’intelligence artificielle en 2016, l’année du référendum sur le Brexit. Je connaissais alors peu la technologie, mais j’ai été frappée par la façon dont les algorithmes des médias sociaux ont été utilisés pour façonner les opinions, et par l’impact démesuré qu’ils ont eu. Cela m’a fait prendre conscience de la mesure dans laquelle ces algorithmes peuvent façonner nos vies.

J’ai commencé à faire des recherches sur l’effet « bulle de filtre » avant de me concentrer sur l’éthique de l’IA et la responsabilité des entreprises technologiques après avoir regardé le premier témoignage de Mark Zuckerberg devant le Congrès américain en 2018. J’avais alors le sentiment que, malgré l’omniprésence de la technologie, ni les décideurs politiques ni les principales entreprises technologiques n’avaient pris les mesures appropriées pour s’assurer que les considérations éthiques passaient en premier.

Aujourd’hui encore, la voie à suivre pour créer ces systèmes de manière éthique est loin d’être claire, et il n’existe pas de manuel de référence ) sur l’IA. Mais suite aux appels croissants du public et des gouvernements, certaines entreprises ont commencé à prendre en compte les considérations éthiques dans le développement des systèmes d’IA.

Mon mémoire vise à contribuer au domaine de l’éthique de l’IA en développant une compréhension de la façon dont ces entreprises et développeurs intègrent les questions éthiques dans le développement et le déploiement de systèmes artificiellement intelligents.

Guillaume Mercier :

L’enjeu éthique propre à l’IA vient de ce qu’elle est un système socio-technique, une association entre humains et machines. En d’autres termes, les humains sont façonnés par les machines qu’ils façonnent. Ils développent la machine et la nourrissent, non seulement avec des données sélectionnées, mais aussi avec leurs points de vue, leurs valeurs et leurs préjugés. Ils l’utilisent, interagissent avec elle et créent de nouvelles relations de savoir et de pouvoir. C’est pourquoi les questions éthiques soulevées par l’IA (confiance, transparence, discrimination, vie privée, etc.) – bien qu’elles ne soient pas nécessairement nouvelles – doivent être repensées à nouveau dans le cadre de l’IA.

Par ailleurs, les entreprises, tant celles qui développent des solutions fondées sur l’IA que celles qui les utilisent, ont une responsabilité éthique importante, alors que les gouvernements et les réglementations seront toujours en retard par rapport à ces avancées technologiques rapides.

Enfin, j’ajouterai que ce sujet est également très important pour le monde académique. L’IÉSEG, par exemple, a récemment souligné que « l’intégration de l’IA et des sciences humaines » est l’une des orientations clés de son nouveau plan stratégique 2022-27.

Pouvez-vous résumer les principales conclusions de votre travail ?

Julia Guillemot :

L’analyse documentaire du mémoire apporte trois contributions à la recherche. Premièrement, elle établit un cadre pour les différents sujets de l’éthique de l’IA, en structurant le domaine émergent et en créant une catégorisation pour les questions d’éthique de l’IA considérées. Deuxièmement, elle fournit un panorama  et une analyse des principales questions couvertes par le champ académique. Troisièmement, elle offre un examen complet des aspects théoriques de la responsabilité à travers le prisme de la transparence.

Le cœur de mon mémoire s’est concentré sur trois domaines.

– J’ai d’abord cherché à comprendre comment les questions d’éthique de l’IA se posent réellement au sein des entreprises technologiques. Mes résultats montrent que sept types de facteurs sont essentiels pour que les questions d’éthique de l’IA émergent en interne et en externe, ce qui donne un aperçu de cette première étape vers la  » gouvernance de l’IA « .

– La deuxième partie de mon travail s’est concentrée sur l’étude des questions éthiques prises en compte par les entreprises technologiques, et sur la manière dont elles diffèrent des questions prises en compte par le milieu académique. J’ai constaté que le monde de l’entreprise et le monde universitaire présentent une compréhension conceptuelle très différente de la question de la transparence, qui a un impact sur la surveillance, la réglementation et la perception de la responsabilité sociale des entreprises que celles-ci estiment avoir.

– Enfin, la dernière partie de mon mémoire s’est concentrée sur la façon dont les questions éthiques sont gouvernées et les mesures que les entreprises peuvent prendre pour la gouvernance éthique de l’IA.

Guillaume Mercier :

Parmi les principaux points d’intérêt de son travail, Julia Guillemot a clairement montré la nature interdépendante de toutes les questions éthiques entourant l’IA. Elle a également offert une vision globale des déclencheurs qui peuvent aider à la prise de conscience éthique et à l’action directe au sein des entreprises et de leur écosystème.

Pouvez-vous expliquer comment votre mémoire pourrait servir aux managers qui sont en train de développer ou de déployer différents types d’intelligence artificielle ?

Julia Guillemot :

L’une des choses les plus importantes à garder à l’esprit est peut-être que l’intelligence artificielle va continuer à se développer rapidement, et que s’assurer que les considérations éthiques guident le développement des systèmes alimentés par l’IA est la seule façon d’avancer.

Je pense que nous ne pouvons pas continuer à jouer au  » rattrapage éthique  » lorsque des problèmes apparaissent. Changer ce paradigme nécessitera une prise en compte systémique des questions éthiques à toutes les étapes du développement des systèmes.

Mon travail met en évidence les différents déclencheurs qui permettront de lancer ces conversations et les plus efficaces nécessaires à la mise en place d’une solide gouvernance de l’IA. Il propose également plusieurs recommandations :

– Le plus grand obstacle à une gouvernance éthique de l’IA est le manque de sensibilisation et d’éducation. Les entreprises et les dirigeants doivent se concentrer sur la sensibilisation et le développement de l’expertise, à la fois en interne et en s’inspirant de l’écosystème externe d’expertise en pleine expansion, afin de rester à l’avant-garde de ce domaine qui évolue rapidement.

– La culture a un impact considérable sur l’émergence et la mise en œuvre de la gouvernance de l’IA. La diversité est essentielle à l’apparition de certains déclencheurs, et l’inclusion par la conception est le seul moyen d’avoir divers ensembles de valeurs représentés dans les systèmes.

– Le pouvoir des structures ne doit pas être sous-estimé : les structures existantes et nouvelles constituent un moyen efficace d’impliquer tout le monde dans l’opérationnalisation de l’éthique de l’IA.

– Enfin, le leadership est central : les leaders sont dans une position unique pour travailler sur l’éducation, la culture et les structures.

Il n’y aura jamais de manuel de référence mondial sur la gouvernance de l’IA, mais comme la technologie continue d’évoluer rapidement, mettre l’éthique au premier plan est la seule façon d’avancer.

* “The integration of ethical concerns in the development and deployment of artificially intelligent systems within technological companies. An essay on Artificial Intelligence Ethics.”. Julia Guillemot, sous la direction du professeur Guillaume Mercier.