L’intelligence artificielle s’immisce partout, le monde judiciaire n’y échappe pas avec la mise en place d’outils d’aide à la décision, qui construisent peu à peu un modèle de droit prédictif.
Des banques de données et des algorithmes
Les programmes informatiques de droit prédictif, et ils sont dorénavant nombreux, permettent, à l’examen d’une situation donnée, d’anticiper ce que sera la réponse judiciaire la plus probable.
Pour cela, des algorithmes consultent puis croisent et retraitent les données jurisprudentielles présentes dans des banques de données afin d’établir des probabilités sur la « solution » à un problème juridique donné.
Pour en faciliter la mise en place, la France a adopté l’année dernière la « loi pour une République numérique » ouvrant l’accès à quelques 360 000 décisions judiciaires annuelles contre 15 000 actuellement. A terme, ce sont les deux millions de
décisions rendues chaque année qui viendraient s’agréger dans l’open Data. La mise à disposition de cette gigantesque banque de données devrait donc permettre un essor considérable de la justice prédictive ; et rien n’interdit d’imaginer que cela puisse s’appliquer à la Nouvelle-Calédonie.
Le droit prédictif supprimera la lecture des contrats
Un groupe de jeunes avocats et startupers zurichois a mis en place un logiciel d’analyse prédictive de contrats qui doit permettre de déceler de manière automatique les clauses présentant de hauts potentiels de litige. Le projet – qui se fonde sur des technologies d’apprentissage automatique du langage – devrait permettre à terme d’éviter aux départements juridiques des entreprises de devoir consulter manuellement des milliers de pages de contrats. La technologie pourrait aussi être étendue à l’ensemble des consommateurs qui signent – depuis l’avènement des applications numériques – une quantité innombrable de contrats. Des chercheurs de l’Université Carnegie Mellon ont démontré que s’il fallait lire toutes les clauses des contrats que l’on accepte, on en aurait pour 76 jours par an de lecture non-stop ! De quoi assurer un bel avenir au droit prédictif.Selon une étude récente, 42 % des emplois français seraient automatisables dans 20 ans. L’étude précise que « des emplois qualifiés, à fort contenu intellectuel, sont maintenant concernés ». Plus spécifiquement dans le domaine juridique, une étude du cabinet de conseil juridique Jomati Consultant prédit que d’ici 15 ans les processeurs d’intelligence artificielle seront en mesure d’exécuter le travail réalisé par de jeunes avocats.Mais qu’en est-il de la justice elle-même, peut-on imaginer l’intelligence artificielle s’aventurer dans la justice qui porte toutes les valeurs d’une société ? L’intelligence artificielle satisfait notre quête ancienne d’un monde harmonieux dans lequel justice et vérité ne font plus qu’un.
Une justice 2.0
Par sa finalité même, écrire le futur, la justice prédictive est porteuse d’une sécurité pour les justiciables. Quoi de plus rassurant que de réduire la part de risque ?
Pour un professionnel du droit, il sera aisé d’avancer statistiquement la réponse judiciaire la plus probable par rapport à une situation donnée, ou encore les chances d’obtenir des dommages et intérêts, voire même leur montant. Des sites web français comme Predictice offrent déjà d’anticiper les décisions de justice. Plongeant leurs algorithmes dans les millions de documents qui composent la jurisprudence,ces plateformes établissent des probabilités. Cette justice 2.0 permet aux avocats de définir l’angle d’attaque le plus efficient dans un litige ou à contrario d’éviter certaines procédures. Ils pourront encore mieux conseiller et orienter leurs clients, calculer leurs chances de succès, et l’aider à déterminer des stratégies contentieuses ou amiables. Dès lors que la décision de justice est probable et connue des parties, la justice prédictive permettra certainement aux modes de règlement amiable des différends de se développer et aux tribunaux de se désengorger.
Dans une vision plus sociétale, la justice prédictive permettra également de déceler les différences d’application dans le temps et dans l’espace d’une même règle de droit et donc, à terme, de lisser, voire supprimer, les disparités d’une juridiction à une autre. Alors la justice prédictive, est-elle la voie d’accès direct à l’harmonie universelle ? Pourquoi ne pas augurer à terme que ces algorithmes troquent leur fonction d’assistants pour celui de juges ? Celle d’une justice sans hommes rendue par des machines ? La « justice prédictive » imaginée par le romancier Philip K. Dick et portée à l’écran dans le film Minority Report tient encore de la science-fiction, bien sûr. Mais si on écarte cette perspective d’une justice divinatoire, la justice prédictive, elle, est déjà une réalité.
Dans plusieurs juridictions des Etats-Unis, la police travaille avec des spécialistes de l’analyse de données afin de prédire dans quels lieux et à quels moments les crimes ont le plus de probabilité d’être perpétrés (predictive policing). Si le système a permis de rationaliser le déploiement des patrouilles policières, il a été vivement critiqué par les associations pour les droits civiques qui y voient une stigmatisation de certaines communautés.
L’incroyable cas d’Eric Loomis
S’il est une personne qui ne doit guère apprécier la justice prédictive c’est bien l’américain Eric L. Loomis. Son cas a été mentionné dans un article du New York Times du 1er mai 2017. E.L. Loomis, déjà condamné, a été accusé d’avoir fui un contrôle routier. Pour cette infraction la Cour du Winsconsin l’a condamné à 6 années de prison ferme en raison d’un haut risque de récidive calculé par un logiciel « Compass » réalisé sous le seul contrôle d’une société privée. Le juge a ainsi motivé son jugement : « vous êtes identifié par l’évaluation Compass comme un individu qui présente un risque élevé pour la communauté ». Pourquoi pas ! La récidive est en effet intégrée dans notre système pénal et les peines de sûreté tiennent compte de la dangerosité d’une personne, comme d’ailleurs la Cour d’assises de Nouméa vient d’en prononcer récemment. Le problème est que dans le cas de la justice prédictive, personne du tribunal du Winsconsin n’a pu expliquer à Eric Lommis comment l’algorithme avait calculé son risque de réitération d’actes délictueux (le titre de l’article du NY times était d’ailleurs : « envoyé en prison par un algorithme secret »). Un autre juge américain a d’ailleurs fait état de la possibilité que ce logiciel intègre des statistiques communautaires, autrement dit raciales, pour établir ses statistiques. Alors si la mise à disposition de données juridiques permet aux entreprises de technologies de transformer ce substrat en business, le risque de dérapage est réel.
Il faudra limiter la justice prédictive à ce qu’elle est, un outil
Obéir à un algorithme qui anticipe le risque comme dans le cas d’Eric Loomis, c’est accepter de transformer la probabilité en certitude et le soupçon en preuve. Au-delà des problèmes de transparence des procédures ou de valeur des statistiques établies, la question essentielle est celle de savoir si l’humain peut être considéré comme un agrégat de comportements que l’on peut mathématiser. A l’évidence non. Le croisement des mathématiques et du droit ne doit pas être une fatalité. Lors de son discours de rentrée, en janvier, Chantal Arens,
première présidente de la cour d’appel de Paris, énumérait le « risque pour la liberté, risque de pression sur les magistrats, risque de décontextualisation des décisions, risque d’uniformisation des pratiques… ». Selon elle, la justice prédictive pourrait entraîner une automaticité des décisions au détriment des « particularités saillantes des situations individuelles », bref ce que l’on appelle la personnalisation des peines. Espérons qu’elle soit entendue et que la personne humaine demeure la préoccupation première de nos sociétés.
Franck ROYANEZ est avocat au Barreau de Nouméa et membre du Réseau LEXING, présent dans trente pays et spécialisé dans le droit des nouvelles technologies. A notre demande il réalise une série d’articles sur l’interaction entre les évolutions technologiques et le droit.