Le 21 avril dernier, la Commission Européenne (CE) publiait le rapport Europe fit for the digital age : Artificial intelligence, ayant pour ambition de définir le tout premier cadre juridique pour une Intelligence Artificielle (IA) éthique au sein de l’Europe. L’Union Européenne (UE) a donc décidé de placer ce débat au cœur de sa stratégie, car le développement de l’IA touche aujourd’hui des secteurs aussi variés que l’agriculture ou l’industrie et aussi sensible que la santé ou la sécurité. En effet, ce processus de création et d’application d’algorithmes permettant à des ordinateurs de penser et d’agir comme des êtres humains n’est pas sans conséquences. Ce sujet avait déjà été évoqué dans Black Mirror, série phare sortie en 2011 dans laquelle les nouvelles technologies et notamment l’IA sont remises en question pour les dérives qu’elles peuvent engendrer, en particulier d’un point de vue éthique.
Il est donc primordial de se poser cette question aujourd’hui : une IA 100 % éthique peut-elle exister ?
Nous avons choisi d’aborder la question en adoptant trois angles de vision différents : celui de l’Union Européenne, celui du cabinet Wavestone et celui de la rédaction.
I. Comment définir une IA éthique selon l’UE ?
Les cas d’usage de l’IA s’illustrent de manière assez naturelle dans notre quotidien. « Ok Siri », cette commande vocale qui permet de dialoguer avec son iPhone, en est une belle illustration.
Ils touchent aussi des secteurs très sensibles : la santé et le transport sont les deux domaines qui seront les plus impactés par cette technologie selon l’UE. La prédiction du trafic routier, la détection des comportements de conduite à risque, les voitures autonomes pour le domaine du transport ou encore les robots médicaux, la prédiction de cancers ou la gestion de flux hospitaliers dans le domaine de la santé sont autant d’exemples concrets d’application de l’IA dans un avenir proche.
L’expansion de l’IA n’est bien évidemment pas sans risque, et les dérives qui y sont liées deviennent de plus en plus visibles. Les « boîtes noires », nom communément donné à certains modèles d’Intelligence Artificielle comme les réseaux de neurones, étaient au début qualifiées d’intrigantes ou mystérieuses tandis qu’aujourd’hui, elles effraient et soulèvent des questions particulièrement épineuses. L’une des plus importantes est la question de la responsabilité. Par exemple, qui doit être tenu responsable si une voiture autonome est impliquée dans un accident ? Le constructeur ? L’acheteur ? Aucun des deux ?
Ce sont autant d’interrogations éthiques qui nécessitent des réponses claires et tranchées. En effet, il est nécessaire tant pour les entreprises que pour les institutions gouvernementales de définir une ligne directrice pour un développement sain de l’IA dans un climat de confiance. C’est dans ce cadre que la Commission Européenne s’est mise au défi de définir une IA éthique ou dite « digne de confiance ». De plus, l’Amérique du Nord et la Chine étant aujourd’hui leaders en termes d’innovation technique dans le domaine de l’IA (pour davantage de précisions, je vous invite à consulter l’article d’ITIF à ce sujet), c’est un avantage concurrentiel indéniable pour l’Europe de proposer une IA éthique et une opportunité de se démarquer dans cette course mondiale autour de l’IA.
Mais qu’est-ce qu’une IA éthique ?
Selon le livre blanc « l’Intelligence Artificielle, une approche européenne axée sur l’excellence et la confiance » rédigé par la Commission Européenne, une IA digne de confiance est une IA fondée sur les valeurs et les règles européennes. Dans ce même livre, la Commission Européenne définit sept exigences :
Pour affirmer sa position, la CE a décidé de présenter une approche par risques en proposant pour chaque niveau de risque des restrictions adaptées. Cette approche est détaillée dans le rapport d’avril 2021 que nous avons précédemment cité.
Pour résumer la position de l’UE face à l’IA, cette citation de la vice-présidente exécutive de la CE semble parfaitement bien résumer la vision européenne sur ce débat :“On AI, trust is a must, not a nice to have” (la confiance en l’IA est indispensable, pas une option).
II. Comment traduire cette vision européenne de l’IA en entreprise selon Wavestone ?
Pour aborder cette question, l’exemple choisi est un cas d’usage expérimental développé en interne au sein du cabinet Wavestone il y’ a 3 ans. Il s’agit d’un analyseur de CV.
L’analyseur de CV Wavestone permet d’effectuer la première phase d’analyse de CV lors d’un processus de recrutement. Le modèle analyse textuellement le CV du candidat et décide si ce dernier doit être appelé ou pas en accord avec les critères de recrutement définis par Wavestone. Il est à noter que cet analyseur de CV est aujourd’hui au stade expérimental, il n’est pas effectivement utilisé dans le processus RH de Wavestone.
Cette prise de décision a des conséquences décisives pour la suite du processus, il est donc nécessaire d’avoir la capacité d’expliquer les raisons du choix de l’algorithme, qui peuvent paraître obscures de prime abord. Il faut donc se poser la question de l’interprétabilité. Un schéma résume cette vision globale :
L’idée de l’étude menée par Wavestone est de se concentrer sur le critère numéro 5 précédemment cité « La diversité, la non-discrimination et l’équité » et de l’illustrer sur l’analyseur de CV. Pour présenter un bilan de l’étude, nous avons conçus un « nutriscore de l’éthique » en attribuant une évaluation pour chacune des restrictions définies par la CE lors de l’approche par risques présentée dans l’article cité précédemment. De la même manière que l’on peut retrouver sur les boîtes de cigarette « Fumer tue », il est tout à fait imaginable d’associer aux modèles d’IA une évaluation et des indications dans le but de prévenir l’utilisateur des éventuels biais que peut comporter l’algorithme. Par exemple, l’indication « base de données d’entrainement à majorité masculine » signifierait que l’échantillon de données sur lequel s’est entraîné l’algorithme était majoritairement constitué d’hommes, ce qui pourrait créer des biais cognitifs répétés par l’algorithme une fois mis en situation.
Pour pouvoir comprendre la prise de décision du modèle, nous avons pris en compte les deux méthodes d’interprétabilité suivantes : LIME et SHAP. L’idée derrière l’algorithme de LIME est de proposer une explication pour la prédiction analysée en fournissant les facteurs qui ont eu le plus de poids dans la prise de décision de l’analyseur de CV. Pour ce faire, LIME se base sur l’étude du voisinage de la prédiction en question : l’algorithme va créer des perturbations autour de la prédiction et observer les réactions du modèle (si vous voulez approfondir le sujet je vous conseille cet article medium). SHAP, quant à lui, permet d’avoir une approche globale et peut fournir l’ensemble des facteurs qui ont fortement contribué à la prise de décision, et ce en se basant sur les valeurs de Shapley : l’algorithme calcule la contribution moyenne de chaque élément influant sur le modèle (pour plus de détail je vous renvoie à cet article explicatif). Dans notre cas, SHAP nous fournit les mots du CV qui ont le plus influencé la décision d’acceptation ou de refus de l’algorithme.
À la suite de ces investigations, l’une des propositions de Wavestone pour avoir un analyseur de CV le plus éthique possible est de fournir les explications générées par LIME ou SHAP – les mots qui ont le plus influencé la décision de l’algorithme – lorsque la réponse est négative. Ainsi, la décision finale reste entre les mains des chargés de recrutement, une analyse humaine vient donc compléter l’analyse de la machine avant de définitivement rejeter ou garder un CV.
L’autre moyen d’optimiser l’éthique de l’analyseur de CV est d’améliorer la base de données sur laquelle s’effectue son apprentissage. En effet, un algorithme ne peut reproduire que des biais déjà existants : nettoyer la base de données en supprimant tout élément qui peut implicitement ou explicitement appeler l’un des 25 critères discriminants inscrits dans la loi française pourrait prémunir de cette dérive (vous pouvez consulter la liste ici).
Cependant, ces arbitrages ne sont pas sans conséquences sur la performance du modèle : il y a donc un compromis performance-éthique à satisfaire.
Pour autant, il est légitime de se poser la question suivante : malgré cette fine compréhension de notre modèle et la possibilité de l’interpréter, peut-on affirmer que l’analyseur de CV utilisé est 100% éthique ?
III. Pourquoi est-ce difficile de créer une IA 100% éthique ?
Le cas d’usage présenté précédemment peut tout à fait s’inscrire dans la lignée d’une IA digne de confiance. Cependant, malgré les efforts déployés pour permettre à l’IA d’être la plus éthique possible, il semble difficile d’affirmer qu’elle le sera à 100% un jour. En effet, une IA totalement éthique impliquerait un humain lui aussi totalement éthique, objectif vers lequel il faut tendre mais qui ne représente pas une réalité actuelle ou atteignable.
En effet, les modèles d’IA peuvent être comparés à des enfants : lorsque les enfants grandissent, ils ne peuvent que reproduire des comportements qu’ils ont observé dans leur entourage – dans leur famille, à l’école ou dans la rue. Puis, petit à petit, les enfants apprennent et auront tendance à créer d’eux-mêmes de nouveaux comportements, mais seulement à partir de ceux qu’ils auront déjà appris. C’est exactement la même chose pour un modèle d’IA : un algorithme ne peut reproduire qu’un comportement déjà existant, il n’en crée pas de nouveaux.
Pour poursuivre cette métaphore, prenons l’exemple d’une maman qui surprend son enfant en train de dire des propos insultants : son premier réflexe est de lui demander où il a entendu dire ça, puis de lui expliquer pourquoi ce propos est mauvais. Encore une fois, c’est exactement ce qui se produit lorsqu’un algorithme d’IA clone des biais existants au niveau de la base de données. Il faut comprendre d’où provient le biais et comment le corriger, tout en gardant en tête cette idée de compromis entre la performance du modèle développé et son éthique.
Ainsi, de la même manière qu’il n’existe pas de recette magique pour réussir l’éducation d’un enfant, il n’y a pas de manuel non plus pour la création d’une IA 100% éthique. Cela n’empêche pas d’avoir des guides ou des lignes de conduite, telles que les 7 exigences essentielles proposées par la CE, qui permettent de réguler au mieux cette nouvelle technologie. Il est donc important de garder en tête que pour se rapprocher le plus possible d’une IA éthique, il est nécessaire de s’intéresser à l’interaction Humain-IA mais aussi de penser à former les concepteurs, les utilisateurs – l’ensemble de l’écosystème autour du modèle en somme – aux problématiques éthiques. Si ces considérations vous intéressent, je vous invite également à consulter l’article de Virginia Dignum « The Myth of Complete AI-Fairness ».
Pour clore cet article, nous pouvons citer cette phrase de l’artiste avant-gardiste australienne Laurie Anderson (qui a énormément travaillé sur le Machine Learning) : « if you think technology will solve your problems, you don’t understand technology and you don’t understand your problem » (Si vous pensez que la technologie va résoudre vos problèmes, vous ne comprenez pas la technologie et vous ne comprenez pas vos problèmes).
Bibliographie :
- Rapport de la CE Europe fit for the digital age : Artificial intelligence
- Article ‘Black Mirror’: the dark side of technology
- Caricature “Ok Siri”
- Who Is Winning the AI Race: China, the EU, or the United States? Article ITIF
- Livre blanc « l’Intelligence Artificielle, une approche européenne axée sur l’excellence et la confiance »
- Article medium expliquant en détail la méthode LIME
- Article towards data science expliquant la méthode SHAP
- 25 critères de discrimination interdits par la loi française
- Article de Virginia Dignum « The Myth of Complete AI-Fairness ».