Encadrer le développement de l’intelligence artificielle : le moment éthique.

Par Gregory Lewkowicz Professeur à Université libre de Bruxelles, directeur du programme droit global du Centre Perelman, titulaire de la Chaire d’excellence Alexandre Koyré en droit économique et intelligence artificielle de l’Université Côte d’Azur

En 1938, face à l’industrialisation et à la démultiplication des machines, le philosophe Pierre Maxime Schuhl s’interrogeait sur « l’avenir d’une civilisation aux prises avec la lourde tâche de discipliner des inventions qui semblent échapper aux normes de l’humanité »[1]. La tonalité des débats actuels sur l’intelligence artificielle renoue à bien des égards avec ce sentiment d’urgence à discipliner des inventions qui nous dépassent et agissent sur nous, parfois, à notre insu.

Certes, il faut savoir raison garder face au sensationnalisme de la sphère médiatique. Celui-ci est en effet souvent nourri par l’industrie. Une étude de l’Université d’Oxford montrait ainsi en décembre 2018 que 60% des articles de presse parus au Royaume Uni relatifs l’intelligence artificielle étaient en réalité liés à un produit ou à une initiative commerciale[2]. Le professeur Yoshua Bengio de l’Université de Montréal, expert de l’apprentissage profond par réseau de neurones, aime d’ailleurs à rappeler que le domaine au sein duquel il poursuit ses travaux est en réalité mal nommé et devrait plutôt prendre le nom de « stupidité artificielle »[3] tant il est vrai que les machines demeurent aujourd’hui fondamentalement stupides dans les tâches qu’elles réalisent. Le grand remplacement de l’humanité par des machines intelligentes n’est pas à l’ordre du jour.

Il n’en reste pas moins que nous expérimentons tous à des degrés divers la place croissante de l’intelligence artificielle – qu’il s’agisse de systèmes à base de règles (intelligence artificielle symbolique) ou de systèmes fondés sur l’apprentissage machine (intelligence artificielle connexionniste) – dans notre vie quotidienne. Qu’il s’agisse d’inscrire son enfant à l’école, de bénéficier de prestations sociales, de calculer l’impôt et d’organiser la lutte contre la fraude fiscale[4], d’être recruté par une entreprise, de bénéficier d’un crédit, rien ne semble devoir échapper à l’ubiquité des algorithmes et des systèmes de traitement automatisés des données. Dans ce contexte, il n’est pas certain que la stupidité des machines puisse être tenue pour un élément rassurant…

I. Le tournant digital nourrit des inquiétudes légitimes

Ceci est d’autant plus vrai que le dossier des échecs, des dangers et des conséquences sociales négatives de la mise en œuvre de l’intelligence artificielle dans le monde réel s’épaissit chaque jour[5] et affecte directement l’Etat et de son administration. Dans un beau livre, Virginia Eubanks montre ainsi à travers une série d’études de cas américains comment l’utilisation de l’intelligence artificielle dans l’attribution des prestations sociales conduit structurellement à renforcer les inégalités existantes[6]. A l’échelle internationale, le Rapporteur Spécial sur l’extrême pauvreté et les droits de l’homme, Philip Alston, prépare d’ailleurs un rapport thématique sur l’impact du numérique sur la protection sociale et les droits de l’homme attendu en octobre 2019. Le secteur de l’enseignement est lui aussi directement concerné. En France, la saga des algorithmes utilisés pour l’admission des étudiants aux études supérieures –  depuis le système admission post bac jusqu’à l’actuel système Parcoursup[7] – a mis au cœur du débat public les risques d’une subversion de la règle de droit par le truchement d’une administration automatisée. L’Italie a connu un feuilleton semblable dans le cadre de l’automatisation de la mobilité des enseignants et du système Polis[8]. Plus récemment, la mise en œuvre invasive de systèmes de reconnaissance faciale par les pouvoirs publics inquiète et donne lieu à des actions, parfois judiciaires[9].

Il n’est du reste nulle raison de croire que le mouvement actuel contournerait la Belgique. De manière peut-être moins flamboyante que chez nos voisins, les mêmes transformations sont à l’œuvre dans le Royaume. Les exemples ne manquent pas. La mise en œuvre du décret inscription par la Commission interréseaux des inscriptions (CIRI) sollicite les algorithmes des services de Google Maps dans l’examen des demandes des parents. L’Autorité belge de protection des données a dû intervenir pour que l’accès aux circulaires fiscales et aux services publics de Fisconetplus ne soit pas conditionné à la création d’un compte utilisateur auprès de Microsoft[10]. L’automatisation du calcul des pensions par le service fédéral des pensions, notamment pour les pensions des fonctionnaires, soulève de nombreuses questions tant sur le plan de la fiabilité des données que sur le plan de l’interprétation et de la complétude de la réglementation utilisée par le logiciel[11]

A l’heure où des sociétés commerciales se proposent de livrer clé en main des villes « intelligentes » (Smart Cities) saturées de technologies et de capteurs[12], le temps est certainement venu de prendre à bras le corps la question de l’encadrement du tournant digital et de son alignement sur nos valeurs et nos principes au-delà de la seule protection des données personnelles.

II. Le moment éthique de l’encadrement de l’intelligence artificielle

Tout indique que ce questionnement est en cours. Comme souvent, il s’exprime d’abord en termes éthiques. On observe en effet depuis certainement trois ans la démultiplication des principes, des lignes directrices et des codes de conduite établissant des règles éthiques à respecter dans le cade du déploiement de systèmes basés sur l’intelligence artificielle. L’association AlgorithmWatch a ainsi inventorié – sans être exhaustif, loin de là – par moins de 64 référentiels éthiques relatifs à l’intelligence artificielle issus d’une grande variété d’acteurs[13]. Parmi ceux-ci, certains sont directement fondés – ce qui semble une voie intéressante – sur les droits fondamentaux. Ils ont fait l’objet d’une cartographie détaillée par le Berman Klein Centre de l’Université d’Harvard qui permet de visualiser les principes structurels qu’ils intègrent[14].

Les lignes directrices européenne en matière d’éthique pour une intelligence artificielle digne de confiance

Parmi cette efflorescence normative, il faut certainement accorder une place spéciale à l’initiative portée par la Commission Européenne. Celle-ci a institué en juin 2018 un groupe d’experts de haut niveau sur l’intelligence artificielle (GEHN IA) dont les Lignes directrices en matière d’éthique pour une IA digne de confiance ont été publiée en avril 2019[15]. Ces lignes directrices font des droits fondamentaux consacrés par les traités de l’Union, par la charte des droits fondamentaux de l’Union européenne et par le droit international en matière de droits de l’homme, la colonne vertébrale d’une intelligence artificielle digne de confiance. Au-delà de la licéité des systèmes basés sur l’intelligence artificielle, elles préconisent de veiller au respect de quatre principes éthiques dont dérivent sept exigences essentielles sur le plan de la mise en œuvre.

Les principes éthiques retenus par le GEHN IA sont le respect de l’autonomie humaine, la prévention de toute atteinte, l’équité et l’explicabilité. Les Lignes directrices ne hiérarchisent pas ces différents principes. Elles n’expliquent pas non plus comment les mettre en balance sinon en proposant un critère utilitariste général, à savoir, que « la somme des avantages liés aux systèmes d’IA doit être sensiblement supérieure aux risques individuels prévisibles »[16]. Conscients des limites d’une approche éthique purement abstraite, les auteurs des Lignes directrices ont cherché à préciser leur cadre d’analyse en décrivant sept exigences plus concrètes applicables durant tout le cycle de vie d’un système basé sur l’intelligence artificielle. Chaque exigence est présentée par les Lignes directrices avec un bref descriptif. Elles sont présentées dans le tableau ci-après :

Exigence Descriptif
Action humaine et contrôle humain Droits fondamentaux, action humaine et contrôle humain
Robustesse technique et sécurité Résilience aux attaques et sécurité, plans de secours et sécurité générale, précision, fiabilité et reproductibilité
Respect de la vie privée et gouvernance des données Respect de la vie privée, qualité et intégrité des données, accès aux données
Transparence Traçabilité, explicabilité et communication
Diversité, non-discrimination et équité Absence de biais injustes, accessibilité et conception universelle, participation des parties prenantes
Bien-être sociétal et environnemental   Durabilité et respect de l’environnement, impact social, société et démocratie
Responsabilité Auditabilité, réduction au minimum des incidences négatives et la communication à leur sujet, arbitrages et recours

Ces précisions permettent-elles d’opérationnaliser les principes éthiques établis par GEHN IA ? Rien n’est moins certain à notre avis. Le simple fait que certaines exigences se recoupent peut donner l’impression d’une liste établie dans l’urgence. Comment distinguer le respect des droits fondamentaux prévu par la première exigence avec le respect de la vie privée de l’exigence numéro 3 et la non-discrimination prévue par l’exigence numéro 5 ? Le caractère toujours très abstrait des exigences des Lignes directrices ne conduit-il pas à diluer le respect des droits fondamentaux et la licéité des opérations réalisées par les systèmes d’IA avec des règles éthiques optionnelles ? Surtout, les informaticiens, les ingénieurs et les professionnels impliqués dans le développement de systèmes d’intelligence artificielle disposent-ils avec ces exigences d’indications suffisantes pour aborder et résoudre les problèmes techniques concrets qu’ils rencontrent ?

On ne peut s’empêcher de penser que l’insuffisance de l’approche éthique abstraite a été perçue par les experts et explique l’irruption à partir de la page 25 des Lignes directrices d’une approche substantiellement différente. Les Lignes directrices présentent en effet à partir de cette page des méthodes techniques et non techniques pour parvenir à une intelligence artificielle digne de confiance ainsi qu’une liste d’évaluation détaillée. Au rang des méthodes non techniques identifiées par les Lignes directrices, on rencontre notamment les codes de conduite et les indicateurs de performance clés des entreprises (KPI), la normalisation technique, la certification, la désignation d’un responsable de l’éthique de l’intelligence artificielle dans le cadre de la gouvernance d’entreprise ou la participation des parties prenantes dans le cadre du développement de systèmes d’intelligence artificielle. La liste d’évaluation détaillée, qui se déploie sur quasiment dix pages, propose quant à elle un questionnaire similaire à ceux qu’on peut rencontrer dans le cadre des audits sociaux et environnementaux et s’inscrit dans une logique d’auto-évaluation.

Une éthique à multiple visages    

Les Lignes directrices européennes s’inscrivent pleinement dans le moment éthique de l’intelligence artificielle. Elles témoignent également, pensons-nous, de la grande imprécision que revêt le concept d’éthique dans l’imbroglio des initiatives actuelles. Certains y voient un exercice de philosophie appliquée visant à examiner les questions normatives soulevées par l’intelligence artificielle. D’autres y voient une forme d’exercice intellectuel définissant les bases d’une déclaration de politique générale en matière d’intelligence artificielle. D’autres encore conçoivent l’éthique de l’intelligence artificielle comme la formulation d’une déontologie ou d’une réglementation professionnelle à l’usage des développeurs. D’autres enfin traitent la question comme la formulation des bases d’une stratégie d’auto-régulation ou de co-régulation d’un secteur d’activité mettant en œuvre les techniques habituelles de la gestion de la conformité depuis l’établissement de codes de conduite en passant par la normalisation technique, l’audit et la certification.

En un sens, le GEHN IA a fait le choix de ne pas trancher la nature de l’exercice auquel il s’est livré et de prêter ainsi le flanc à la critique du « qui trop embrasse mal étreint ». Aussi en résulte-t-il des Lignes directrices qui ne satisfont pleinement personne. Trop opérationnelles pour les éthiciens, pas assez précises pour les professionnels, trop favorables à l’autorégulation du secteur pour les associations citoyennes, diluant le droit dans l’éthique pour les juristes.

Dans sa communication « Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain » du 8 avril 2019, la Commission semble toutefois avoir trancher la voie dans laquelle elle souhaitait poursuivre : celle de la conformité (compliance)et de l’élaboration de règles professionnelles. Elle y décrit en effet les Lignes directrices comme « les règles qui devraient être appliquées par les développeurs, les fournisseurs et les utilisateurs d’IA dans le marché intérieur, en créant des conditions de concurrence équitables sur le plan éthique dans tous les États membres »[17]. Dans cette perspective, la Commission souhaite logiquement se concentrer « en particulier sur la liste d’évaluation que le groupe d’experts de haut niveau a établie pour chacune des exigences essentielles »[18].

Il n’est pas garanti à ce stade que les Lignes directrices puissent pleinement jouer le rôle de standards déontologiques envisagés[19]. Après tout, des organismes professionnels tels que l’Institute of Electrical and Electronics Engineers (IEEE) sont sans doute plus à même de définir des règles professionnelles et des normes techniques en matière d’intelligence artificielle qu’un groupe d’experts très diversement composé. Parmi d’autres, l’IEEE s’y attèle d’ailleurs dans le cadre de son initiative « Ethically Aligned Design : A Vision for Prioritizing Human Well-Bein with Autonomous and Intelligent Systems » et de son futur standard IEEE P7000[20].

Les Lignes directrices semblent, par contre, tout à fait adaptées pour constituer la base d’un système de compliance pour les entreprises du secteur qui pourrait, le cas échéant, être rendu obligatoire. L’éthique de l’intelligence artificielle suivrait ainsi la trajectoire de bien d’autres politiques de l’Union Européenne : l’éthique comme tremplin pour une corégulation sectorielle[21]. Il n’est pas certain qu’on puisse s’en contenter en l’espèce au vu du caractère transversal des défis du tournant digital et des conséquences de plus en plus documentées de celui-ci sur l’action des pouvoirs publics et les droits des justiciables.  

III. L’éthique et après ?

Certains dénoncent le moment éthique de l’intelligence artificielle comme une pure stratégie d’ethical washing permettant aux acteurs économiques actifs dans le secteur de poursuivre leur activité en payant du bout des lèvres le prix que paye le vice à la vertu. Il serait naïf de ne pas accorder quelques crédits à cette lecture du phénomène. Il nous semble pourtant qu’il faut prendre le moment éthique de l’intelligence artificielle pour ce qu’il est : un moment dans une dynamique. Ce moment est d’ailleurs sans doute nécessaire pour favoriser les échanges et les débats entre des acteurs aux contraintes et aux perspectives différentes. Il est plus facile de réunir des ingénieurs, des informaticiens, des chefs d’entreprise, des philosophes, des sociologues et des juristes pour examiner des problèmes éthiques, que pour discuter du Règlement général sur la protection des données ou des méthodes les plus appropriées pour tester un logiciel.

Les choses ne devraient toutefois pas en rester là. Au moment éthique succèdera sans doute un moment législatif. Au niveau européen, la nouvelle présidente de la Commission européenne U. von der Leyen a déjà annoncé que dans les cent premiers jours de son mandat elle ferait des propositions législatives pour « une approche européenne coordonnée sur les implications humaines et éthiques de l’intelligence artificielle »[22]. Il faudra alors redoubler de vigilance pour que les droits fondamentaux et les principes de l’état de droit ne soient pas réduits à quelques obligations de mise en conformité mais bénéficient de garanties juridiques et démocratiques appropriées.  


[1] P.-M. Schuhl, Machinisime et philosophie, Paris, Vrin, 1969 [1938], p.13.

[2] Voy. J.S. Brennen, Ph.N. Howard et R.K. Nielsen, « An Industry-Led Debate : How UK Media Cover Artificial Intelligence », Oxford Univrsity : Reuters Institute for the Study of Journalism, Décembre 2018. 

[3] Voy. W. Knight, « Will Machines Eliminate Us ? », MIT Technology Review, 29 janvier 2016 disponible en ligne à l’adresse https://www.technologyreview.com/s/546301/will-machines-eliminate-us/

[4] Voy. à ce sujet D. Restrepo Amariles et G. Lewkowicz, « De la donnée à la décision: comment réguler par des données et des algorithmes », in E. Godet, R. Mosseri et M. Bouzeghoub (ed.), Les Big Data à Decouvert, Paris, CNRS édition, 2017, pp. 80 et s.

[5] Voy. le rapport de l’Institut newyorkais AI Now sur les contestations en justice des systèmes automatisés. AI Now, Litigating Algorithms : Challenging Government Use of Algorithmic Decision Systems, New York, AI Now Institute, sept. 2018 disponible en ligne à l’adresse https://ainowinstitute.org/litigatingalgorithms.pdf

[6] Voy. V. Eubanks, Automating Inequality : How High-Tech Tools Profile, Police, and Punish the Poor, New York, St. Martin’s Press, 2018.

[7] Voy. D. Guével, « Admission post-Bac : et après ? », Recueil Dalloz, 2017, pp.2144 et s. ainsi que Th. Douville, « Parcoursup à l’épreuve de la transparence des algorithmes », Dalloz IP/IT, n°6, 2019, pp. 390 et s. 

[8] G. Mancosu, « Les algorithmes publics déterministes au prisme du cas italien de mobilité des enseignants », Revue Générale du Droit, (www.revuegeneraledudroit.eu), Études et réflexions, 2018.

[9] Voy. très récemment la décision de la High Court au Royaume Uni : R (Bridges) v South Wales Police, 04 sept. 2019, [2019] EWHC 2341 (Admin).

[10] Autorité de protection des données. Recommendation n°01/2019: l’obligation de créer un compte utilisateur chez Microsoft pour consulter des applications de services publics. CO-AR-2018-004, 6 février 2019.

[11] Voy. Cour des comptes, Le moteur pension. Développement et application pour les pensions des fonctionnaires, Rapport approuvé le 5 décembre 2018 par l’assemblée générale de la Cour des Comptes.

[12] Voy. en particulier le projet porté par Sidewalk Labs, la filiale d’Alphabet inc. (Google), pour la construction d’un district de Toronto : https://www.sidewalktoronto.ca/ (consulté le 1er septembre 2019). Lire aussi à ce sujet R. Brauneis et E.P. Goodman, « Algorithmic Transparency for the Smart City », Yale Journal of Law & Technology, vol. 20, 2018, pp. 103 et s. 

[13] AI Ethics Guidelines Global Inventory, AlgorithmWatch, 2019 disponible en ligne sur https://algorithmwatch.org/en/project/ai-ethics-guidelines-global-inventory/ (consulté le 20 mai 2019).

[14] J. Fjeld et al., « Principled Artificial Intelligence : A Map of Ethical and Rights-Based Approaches », Harvard University – Berkman Klein Centre, 25 septembre 2018 disponible en ligne sur https://ai-hr.cyber.harvard.edu/images/primp-viz.pdf (consulté le 30 août 2019).

[15] Le document est accessible en ligne à l’adresse : https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai (consulté le 1er septembre 2019).

[16] Lignes directrices en matière d’éthique pour une IA digne de confiance, avril 2019, p. 16.

[17] Commission européenne, Communication de la Commission au Parlement Européen, au Conseil, au Comité Économique et Social Européen et au Comité des Régions : « Renforcer la confiance dans l’intelligence artificielle axée sur le facteur humain », COM(2019) 168 final, 8 avril 2019, p.3.  

[18] Ibid., p. 8.

[19] Voy. sur cette question B. Mittelstadt, « AI Ethics – Too Principled to Fail ? », University of Oxford, Oxford Internet Institute, May 20, 2019.

[20] Voy. sur ce sujet, le site dédié de l’IEEE : https://ethicsinaction.ieee.org/

[21] Nous avons examiné cette logique dans plusieurs contributions, notamment, G. Lewkowicz et L. Hennebel, « Corégulation et responsabilité sociale des entreprises » in Th. Berns et al., Responsabilités des entreprises et corégulation, Bruxelles, Bruylant, 2007, pp. 147 et s. ; B. Frydman et G. Lewkowicz, « Les codes de conduite : source du droit global ? », in Yves Cartuyvels et al. (dir.), Les sources du droit revisitées, Bruxelles, Presses des Facultés Universitaires de Saint Louis, 2013, pp. 179 et s. Voy. aussi A. Van Waeyenberge, « La transformation de la méthode communautaire », Revue Internationale de Droit Economique, 24, 4, 2015, pp. 417 et s.

[22] U. von der Leyen, A Union that strives for more : My agenda for Europe, sept. 2019, p.13 disponible en ligne à l’adresse https://ec.europa.eu/commission/sites/beta-political/files/political-guidelines-next-commission_en.pdf (consulté le 7 septembre 2019).