Le test de l’imitation et l’hypothèse du grand remplacement des avocats

Par Gregory Lewkowicz, Professeur à l’Université libre de Bruxelles, directeur du programme droit global du Centre Perelman

En 1950, Alan Turing publiait sous le titre « Computing Machinery and Intelligence » un article séminal pour les recherches dans le domaine de l’intelligence artificielle[1]. Dans celui-ci, l’auteur s’intéresse à la question de savoir si les machines sont capables de penser. Plutôt que d’aborder cette question au départ d’une définition difficile à établir, Turing propose de substituer à cette question un test pratique connu depuis lors comme le test de Turing. Ce test prend la forme d’un jeu où un juge humain échange avec un humain et une machine des messages dactylographiés sur n’importe quel sujet. Le juge humain ignore lequel de ses interlocuteurs est une machine. Après une série d’échanges, il doit deviner qui est la machine et qui est l’être humain. L’hypothèse de Turing était que si nous arrivions à créer une machine conduisant le juge humain à un taux de mauvaise identification identique au hasard, nous pourrions affirmer avoir construit une machine qui pense.

I. L’inversion du jeu de l’imitation : du test de Turing à une règle d’allocation des ressources

A ce jour, aucune machine connue n’a été en mesure de réussir ce test sinon dans les ouvrages de science-fiction. Cette expérience de pensée a toutefois capturé l’imagination des chercheurs en informatique et explique leur engouement, mais aussi celui des sociétés commerciales, pour des variantes de ce test d’imitation prenant la forme d’une mise en concurrence entre l’homme et la machine pour la réalisation d’une tâche déterminée : remporter une partie d’échec (Deep Blue c. Kasparaov en 1997), une partie de Jéopardy ! (Watson c. Ken Jennings et Brad Rutter en 2011) ou encore une partie de Go (AlphaGo contre Lee Sedol en 2016). La description de ces performances impressionnantes émaille généralement les conférences consacrées à l’intelligence artificielle afin de soutenir l’hypothèse du « grand remplacement » de l’humain par la machine.

Envisagé par Turing comme un test pragmatique pour déterminer si une machine pense, c’est-à-dire est dotée d’une intelligence artificielle, le jeu de l’imitation est ainsi insidieusement inversé pour devenir un instrument de mesure des performances humaines et du potentiel de substitution de l’homme par la machine. Alors que le test de Turing poursuivait un objectif scientifique et épistémologique, le jeu de l’imitation inversé poursuit un objectif économique et managérial. De cette inversion résulte certains des grands malentendus sur l’intelligence artificielle conçue tantôt comme un projet visant à imiter l’intelligence humaine, tantôt comme un projet dessinant en creux l’espace réservé aux humains.

On comprend sans difficulté comment cette transformation conduit à faire du jeu de l’imitation une règle d’allocation optimale des ressources. Appliqué aux avocats, elle donne lieu au discours, véritable poncif des promoteurs de solutions informatiques, selon lequel ceux-ci devraient se concentrer sur les activités où ils ont une véritable plus-value et laisser à la machine le soin de se charger de toutes les tâches où elles sont capables de les imiter – en principe – à moindre coût.

II. Du jeu de l’imitation à l’hypothèse du grand remplacement

Par une forme de raisonnement hyperbolique, cette règle d’allocation optimale des ressources conduit alors à l’hypothèse du grand remplacement des avocats par la machine. L’hypothèse est toutefois biaisée dès lors qu’elle suppose que le test de Turing pourrait effectivement être passé avec succès par une machine imitant le comportement d’un avocat en général. Ceci est très précisément ce qu’il convient de démontrer dès lors qu’aucune machine n’a réussi à ce jour le test de Turing.

A titre d’exemple, la société LawGeex a publié en février 2018 une étude présentée comme une compétition homme-machine : A.I. vs Lawyers : The Ultimate Showdown[2]. La compétition opposait 20 avocats confirmé et le logiciel développé par la société LawGeex. Elle portait sur la révision de 5 accords de non-divulgation et, plus précisément, sur l’identification d’une liste de 30 points d’attention particulier. Le logiciel entraîné sur un ensemble d’accords antérieurs a identifié 94% des points d’attention en 26 secondes. Les avocats ont eu besoin de 92 minutes pour en identifier seulement 85%. Cette étude a été présentée dans les journaux comme un commencement de preuve de la supériorité de la machine sur des avocats expérimentés[3] et, partant, comme une pierre à l’édifice de l’hypothèse du remplacement. A tort, pensons-nous, dès lors que la tâche était très délimitée (identifiés 30 points d’attention dans des accords de non-divulgation) et ne constituait pas – en réalité – un exemple du jeu de l’imitation de Turing, mais simplement un exercice d’optimisation d’une tâche déterminée.

Au lieu de se demander comment la technologie peut reproduire le comportement des avocats, il faudrait plutôt s’interroger sur la manière dont celle-ci peut offrir un service équivalent aux clients en empruntant de toutes autres voies.

 

[1] A.M. Turing, « Computing Machinery and Intelligence », Mind, vol. LIX, n°236, 1950, pp. 433-460.

[2] Voy. « Comparing the Performance of Artificial Intelligence to Human Lawyers in the Review of Standard Business Contracts », LAWGEEX 2, février 2018.

[3] J. Tashea, « AI software is more accurate, faster than attorneys when assessing NDAs », ABA Journal, 26 février 2018 disponible en ligne à l’adresse : https://www.abajournal.com/news/article/ai_software_is_more_accurate_faster_than_attorneys_when_assessing_ndas