Mécanisme d’une justice algorithmisée

Un avocat en droit numérique, une docteure en sciences, et un ingénieur en IA dans l’industrie : Adrien Basdevant, Aurélie Jean et Victor Storchan se sont associés pour analyser, sous un angle scientifique et juridique, les grands principes de la justice algorithmisée et ses mécanismes sous-jacents.

Table des matières

Introduction

Histoire et pertinence d’une justice algorithmisée
Les origines de la justice prédictive
Naissance (maladroite) de la formule « justice prédictive »
Pertinence d’une justice en partie algorithmisée

Algorithmes, data et intelligence artificielle
Introduction à l’intelligence artificielle
Data structurée versus non structurée
Algorithmes explicites versus implicites
Enjeux technologiques et scientifiques dans la justice algorithmisée

La justice algorithmisée selon les systèmes judiciaires
La justice dans les pays du common law
La justice dans les pays du droit civil

La justice algorithmisée en pratique
Case Law Analytics : l’évaluation chiffrée de réussite d’une affaire
PredPol et la police algorithmisée
COMPAS et l’évaluation algorithmisée de récidive
DataJust et le système d’évaluation automatique des indemnités judiciaires
Reconnaissance faciale et prédiction de la criminalité

Précautions dans la justice algorithmisée
Les biais algorithmiques, sources de discrimination
Perte d’explicabilité et d’interprétabilité, le risque d’une justice opaque

Quelques recommandations
Le choix du modèle algorithmique
Des bonnes pratiques de développement
L’humain dans la boucle algorithmique
Insuffler une culture du numérique, former et hybrider les connaissances
Des outils pour évaluer les algorithmes

Conclusion

Synthèse

Qu’est-ce qu’un algorithme ?

Bien que l’idée d’utiliser des algorithmes dans le champ juridique ne soit pas nouvelle, elle n’a pourtant rien d’évident. Cela est d’autant plus vrai que l’outil algorithmique apparaît souvent abstrait et les notions techniques. Par conséquent, avant d’étudier le potentiel et les enjeux d’une justice algorithmisée, quelques éclaircissements lexicaux s’imposent.

Un algorithme est un ensemble de règles opératoires exécutées selon une certaine logique et une certaine hiérarchie. Il se construit sur la résolution d’un problème d’optimisation (l’apprentissage), à partir de l’ensemble des scénarios et des situations possibles (les données d’entrée) et des résultats supposés. Deux types de méthodes algorithmiques existent : les méthodes dites explicites, dans lesquelles la logique est décrite explicitement par calibrage (par les humains) ; et les méthodes dites implicites (ou Machine Learning), dans lesquelles la logique est décrite implicitement par apprentissage. Ces deux types de méthodes sont regroupées sous le terme d’intelligence artificielle (IA).

Autrement dit, l’IA regroupe l’ensemble des méthodes permettant de stimuler – reproduire numériquement – un phénomène ou un scénario quel qu’il soit (physique, chimique, médical, sociologique, démographique ou encore juridique).

S’appuyer sur les mathématiques pour rendre justice, une idée qui précède largement les débuts de l’IA

L’idée d’utiliser la logique algorithmique dans le but de parfaire l’exercice de la justice semble avoir été formulée pour la première fois en 1706 par Leibniz. Puis, c’est Nicolas Bernoulli qui, trois ans plus tard, se saisit de la question. Dans le cadre de sa thèse intitulée De Usu Artis Conjectandi in Jure, il s’interroge sur la pertinence de l’utilisation des probabilités pour résoudre les questions soulevées par le droit. Le travail du jeune mathématicien marque un tournant : après lui, de nombreux scientifiques s’emparent de la question qui nourrit les débats.

Plus de deux siècles plus tard, en 1949, le juriste américain Lee Loevinger propose, pour désigner l’utilisation des corrélations statistiques et des modèles probabilistes dans la justice, le terme de « jurimetrics ». Il s’emploie aussi à dresser une liste d’applications visant à répondre à des questions légales concernant les juges, les témoins ou le législateur.

La justice algorithmisée ne cherche pas à prédire la jurisprudence future

L’objectif de la justice algorithmisée n’est « pas de prédire à partir de la jurisprudence existante ce que sera la jurisprudence future ». Plus précisément, l’outil algorithmique n’entend pas faire disparaître l’aléa judiciaire dans le but d’augmenter la sécurité juridique.

Par conséquent, chercher à prédire la justice grâce aux algorithmes reviendrait à confondre le fait et le droit : ce qui est et ce qui doit être. Autrement dit, le principal risque lié à l’utilisation des algorithmes serait, pour reprendre la formule d’Hervé Croze, une « factualisation du droit » : tout type d’information lié à l’affaire serait rendu data analysable, mis sur le même plan factuel. Or, le principe de la justice n’est pas l’uniformisation, mais au contraire l’ajustement à chaque cas.

Pour rappel, le droit est une opération de qualification juridique des faits. Ces derniers sont établis par les parties qui argumentent en droit ; mais en fin de course, c’est le juge qui applique le droit.

Ainsi, l’écueil d’une factualisation du droit remettrait en question certains principes fondamentaux de la justice : parmi eux, l’accès à un juge impartial, la présomption d’innocence, le droit à un procès équitable, le droit à l’égalité des armes, le droit à l’assistance d’un avocat, ou encore le principe du contradictoire. De même, dans cette perspective, la portée pourtant fortement symbolique d’une décision de jugement pourrait être affaiblie.

C’est pourquoi le terme de justice algorithmisée est ici préféré à celui de justice prédictive car « la question de l’algorithme et de la justice n’est pas tant celle de la substitution du juge par la machine, mais davantage celle de l’impact de nouveaux outils d’aide à la décision sur la faculté de juge de rendre le droit et de prendre des décisions judiciaires ».

Les principaux enjeux de la justice algorithmisée

De manière générale, le déploiement de technologies d’IA repose sur trois conditions : une mise à disposition de volumes de données, une puissance de calcul suffisante et une implémentation et un usage d’algorithmes performants. Ces conditions soulèvent un certain nombre d’enjeux d’ordre technique, scientifique et éthique. Le domaine de la justice algorithmisée n’y fait pas exception.

En effet, le premier défi auquel elle est confrontée concerne la collecte de données. Afin qu’il soit possible d’en extraire l’information pertinente, leur dématérialisation et leur traitement numérique est nécessaire. Au-delà de cet impératif technique, un second enjeu concerne l’explicabilité des algorithmes. Il est nécessaire, pour des raisons de transparence et de responsabilité, de pouvoir expliquer le fonctionnement et la démarche de l’algorithme ; de la même façon que la justice doit pouvoir rendre compte des raisons et motivations de ses décisions. Enfin, un autre enjeu est d’assurer une coopération de confiance entre les acteurs de la justice et ceux de la technologie, des sciences de la data et de l’IA. Indispensable, celle-ci vise à prévenir tout risque de traitement inégal ou injuste des individus.

Les premières expériences d’une justice algorithmisée

Aujourd’hui déjà, des startups proposent des outils prédictifs d’évaluation des chances de succès pour certaines procédures ; principalement dans le cadre de litiges répétitifs et peu complexes.

A titre d’exemples, Case Law Analytics, une startup française ayant mis au point un algorithme de classification entraîné pour prédire une distribution de probabilité sur les jugements possibles.

Outre-Atlantique, le logiciel américain COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) propose une évaluation algorithmisée du risque de récidive en réalisant, à partir des réponses données à un questionnaire, des estimations des risques de récidive d’un accusé ou condamné. Le logiciel PredPol (Predicitive Police) fait, quant à lui, fonctionner un algorithme capable d’indiquer, quotidiennement, aux policiers les lieux dans lesquels le risque criminel est fort, ainsi que les personnes suspectes à approcher.

Un nombre croissant d’outils de ce type sont mis au point, mais leur multiplication interroge. En effet, ces algorithmes posent des questions éthiques : que se passera-t-il lorsque les données désigneront des criminels avant même qu’ils n’aient commis leurs crimes ? Que restera-t-il de la présomption d’innocence pour celui qui présente les caractéristiques d’un multirécidiviste ?

Quelques précautions et recommandations

Afin de dépasser ces limites et tirer pleinement profit des potentiels d’une justice algorithmisée, des précautions sont à prendre et des recommandations à faire.

Il est, tout d’abord, nécessaire d’identifier clairement les biais algorithmiques, sources de discrimination. Ces biais peuvent survenir d’un mauvais échantillonnage des données d’apprentissage, d’un manque de diversité et de représentativité de ces data, ou encore d’une systématisation de la réponse algorithmique à partir d’une certaine statistique à un temps donné. Un traitement inégal, stigmatisant et par conséquent injuste des individus et des situations peut en résulter.

Il convient, ensuite, d’entraîner « des modèles qui assurent des scores de risques corrélés avec tous les critères définissant un individu dans sa spécificité, et non corrélés avec un groupe ou une appartenance sociale, ethnique, ou encore politique ». À ces impératifs s’ajoute celui d’une meilleure explicabilité et interprétabilité des algorithmes utilisés afin de garantir la transparence des pratiques judiciaires, à la fois pour ses acteurs mais aussi pour le justiciable.

Afin de se prémunir contre les biais induits par les algorithmes, un certain nombre de recommandations peuvent être faites afin de bâtir « une justice algorithmisée bien pensée, responsable et éthique [qui] permettra de mieux comprendre les affaires dans les faits, le contexte mais aussi les hommes et les femmes qui en font partie ». À cet égard, plusieurs recommandations peuvent être faites.

La première concerne le choix du modèle algorithmique. Ce choix doit s’effectuer selon un arbitrage délicat entre explicabilité et performance. La seconde est relative au développement des algorithmes. Celui-ci doit intégrer un certain nombre de bonnes pratiques, telles que la discussion, la programmation informatique, la validation de l’usage ou encore la compréhension des utilisateurs. Enfin, il s’agit d’insuffler une culture du numérique. Cela doit passer la diffusion des connaissances en la matière et la formation des individus à ces outils. En effet, « le codeur de demain devra intégrer des questions éminemment éthiques ; tout comme le juriste ne pourra pas être ignorant de statistiques et du fonctionnement des systèmes dits d’intelligence artificielle ».

Conclusion

La justice algorithmisée se propose d’explorer l’application d’un cadre mathématique au domaine juridique. Mais « l’idée du juriste remplacé par une machine est de l’ordre de l’imaginaire ; elle est à exclure ». En effet, le modèle de justice algorithmisée défendue dans ce rapport est un modèle responsable et éthique. Un modèle qui permette à la fois de mieux comprendre les affaires, grâce aux algorithmes, tout en conservant « un certain jugement humain dans la considération et l’appréciation d’affaires ».

Les auteurs

Adrien Basdevant est avocat au Barreau de Paris. Fondateur d’un cabinet dédié à l’innovation et aux nouvelles technologies, il est aussi le créateur du média en ligne Coup Data, qui prolonge ses travaux autour de la défense des libertés à l’ère du numérique. Membre du Conseil national du numérique (CNNum), Adrien Basdevant est membre du Comité scientifique du département Humanisme numérique du Collège des Bernardins. Il enseigne la protection des données personnelles, l’intelligence artificielle et la cybercriminalité au sein du master ESSEC-Centrale Supélec. Il est co-auteur, avec Jean-Pierre Mignard, de L’Empire des données. Essai sur la société, les algorithmes et la loi (Don Quichotte, 2018).

Aurélie Jean, docteure en sciences et entrepreneuse, partage son temps entre le conseil, la recherche et l’enseignement supérieur, principalement à la Sloan du Massachussets Institute of Technology. Elle est présidente et fondatrice de l’agence In Silico Veritas, spécialisée dans le développement algorithmique, et Chief AI Officer et cofondatrice de DpeeX, une startup deeptech dans le domaine de la médecine de précision pour le cancer du sein, utilisant de l’intelligence artificielle. Elle est l’auteure, entre autres, de deux ouvrages parus aux éditions de l’Observatoire : De l’autre côté de la Machine. Voyage d’une scientifique au pays des algorithmes (2019) et L’Apprentissage fait la force (2020).

Victor Storchan est ingénieur dans l’industrie financière et contributeur régulier à Phébé, rubrique de veille d’articles de recherche du magazine Le Point. Il est ancien élève de l’université de Stanford et de l’ENS Lyon.

Des mêmes auteurs

Sur le même thème