L'intelligence artificielle : un nouveau cheval de Troie pour influencer de manière abusive le système judiciaire ?

Francesco Contini

Francesco Contini est actuellement chercheur à l'Institut de recherche sur les systèmes judiciaires du Conseil national de recherche italien. Il a travaillé en étroite collaboration avec plusieurs organisations internationales et a contribué à la récente Charte éthique européenne d'utilisation de l'intelligence artificielle dans les systèmes judiciaires et leur environnement. Il a également contribué au guide de ressources de l'ONUDC sur le renforcement de l'intégrité et des capacités de la justice.

______________________________

Depuis plus de trois décennies, les progrès des technologies de l'information et de la communication (TIC) font irruption dans le fonctionnement des tribunaux et des bureaux des procureurs, promettant la transparence, l'efficacité et des changements radicaux dans les pratiques de travail, tels que les tribunaux sans papier. Même si, dans la plupart des juridictions, ces promesses n'ont pas encore été tenues, les logiciels et les algorithmes exécutent déjà une part croissante des procédures judiciaires. Les effets de ces technologies sur le fonctionnement des systèmes judiciaires et les valeurs entérinées par les Principes de Bangalore sur la déontologie judiciaire sont pour la plupart positifs.

La vague technologique la plus récente est basée sur l'intelligence artificielle (IA) et promet de changer la façon dont les décisions judiciaires sont prises. Cet objectif est principalement poursuivi au moyen d'une technologie spécifique appelée « apprentissage automatique » ( machine learning) qui fait des prédictions en évaluant des dossiers, tant des documents de procédure que les décisions judiciaires qui y sont associées. Cet ensemble de données, connu sous le nom de données de formation ( training data), est analysé pour établir des corrélations statistiques entre les affaires et les décisions judiciaires associées. Plus l'algorithme traite des données, plus il est précis dans la prédiction de décisions liées à une nouvelle affaire. C'est pourquoi ces systèmes « apprennent » (même si ce n'est qu'en termes d'amélioration de la précision statistique) à reproduire les décisions que les juges ont prises dans des affaires similaires. Contrairement aux outils technologiques déjà en place qui numérisent l'échange de données et de documents, cette technologie dite de « justice prédictive » (qui est généralement mal nommée) vise à influencer la prise de décision judiciaire. 1 Il n'est pas certain que cette tendance conduise à de meilleures décisions ou qu'au contraire elle compromette le bon fonctionnement du système.

Les effets potentiels de ces technologies sur l'administration de la justice peuvent être envisagés en examinant les défis posés par les technologies de l'information déjà en place, telles que celles pour la gestion des affaires et le dépôt électronique des documents. En Angleterre et au Pays de Galles, une simple erreur de calcul dans le formulaire officiel utilisé dans les affaires de divorce a entraîné le mauvais calcul des pensions alimentaires dans 3 600 cas sur une période de 19 mois. Le problème n'est pas l'erreur en soi, mais les raisons pour lesquelles le Ministère de la justice et les utilisateurs du formulaire ont mis autant de temps avant de la détecter. Les utilisateurs de technologies ont tendance à se concentrer sur les interfaces et les outils qui permettent l'utilisation des systèmes technologiques et non sur leur fonctionnement interne.

L'utilisation de la technologie pour traiter la masse de données relatives aux affaires vise à accroître la transparence, mais la façon dont les systèmes analysent les données en interne est difficile d'accès et il s'avère compliqué de rendre des comptes. Par conséquent, il se pose la question générale de savoir quelles sont les possibilités de déployer des contrôles efficaces sur le fonctionnement interne des TIC et sur les algorithmes qui traitent les données. Cela soulève une autre question : comment garantir un contrôle ainsi qu'une responsabilisation appropriés sur le fonctionnement de la technologie et l'IA (et plus précisément l'apprentissage automatique) est-elle un cas particulier dans cet exercice de reddition de comptes ?

Plusieurs juridictions, notamment aux États-Unis, ont adopté une technologie qui conseille la prise de décisions en matière de détention provisoire. Ces applications utilisent des algorithmes qui calculent les risques de récidive, puis « notent » la personne mise en cause en fonction de la probabilité qu'il ou elle commette une infraction en cas de libération.

Ce type de notation place les juges dans une position délicate. Supposons qu'il y ait un cas où le ou la juge est enclin.e à libérer la personne en détention provisoire, mais que le score indique un risque élevé de récidive. Le magistrat serait-il prêt à aller à l'encontre du calcul de l'évaluation des risques effectué par la machine ? Et que se passe-t-il si la personne est libérée et commet ensuite une infraction ? Ces questions soulignent que les systèmes ne font que traiter les données disponibles. Il semble que les méthodes scientifiques employées calculent les risques de récidive d'une manière plus fiable que les juges. Cet argument est pertinent, mais comment pouvons-nous garantir que les données ne sont pas biaisées ? Garantir la reddition de comptes dans ce processus est beaucoup plus complexe qu'avec une technologie plus simple.

ProPublica, une organisation américaine à but non lucratif qui mène des enquêtes dans l'intérêt public, a comparé la récidive réelle avec la récidive prédite. L'analyse de 10 000 affaires pénales a révélé que « les personnes noires étaient beaucoup plus susceptibles que les personnes blanches d'être jugées à tort comme présentant un risque plus élevé de récidive, tandis que les personnes blanches étaient plus susceptibles que les personnes noires d'être signalées à tort comme présentant un faible risque de récidive ». Cet exemple montre qu'il est difficile de responsabiliser ces systèmes et qu'ils peuvent injecter des préjugés dans les processus judiciaires.

La technologie - qu'elle soit utilisée pour la gestion des affaires, de simples formulaires web ou des tâches plus complexes basées sur l'IA - doit être introduite dans le processus judiciaire si, et seulement si, des mécanismes de responsabilisation appropriés sont en place.

Le problème de la responsabilité est encore plus grave en ce qui concerne les systèmes d'IA basés sur l'apprentissage automatique. Dans ce cas, la prédiction est basée sur des algorithmes qui changent au fil du temps. Avec l'apprentissage automatique, les algorithmes « apprennent » (changent) en fonction de leur propre expérience. Etant donné que les algorithmes changent, il est impossible de savoir comment ils fonctionnent et pourquoi ils adoptent une certaine approche. Si nous ne pouvons pas mettre en place des mécanismes de contrôle efficaces, comment pouvons-nous garantir une responsabilisation appropriée ? Le débat est en cours et le principe de précaution devrait être suivi jusqu'à ce que ces questions aient été résolues d'un point de vue technique et institutionnel.

Les mises en garde et le principe de précaution mentionnés dans cet article vont dans le même sens que la Charte éthique européenne d'utilisation de l'intelligence artificielle dans les systèmes judiciaires, notamment en ce qui concerne les principes de respect des droits fondamentaux et de maîtrise par l'utilisateur ou l'utilisatrice. Toutefois, la manière de mettre en œuvre ces lignes directrices n'est pas encore claire. Les avocats, les parties à une affaire et les juges ne peuvent certainement pas être chargés d'une telle tâche. C'est un défi qui doit être relevé en mettant en commun des compétences multiples, en surveillant le fonctionnement des systèmes d'IA et en se référant aux valeurs fondamentales des Principes de Bangalore sur la déontologie judiciaire. Les participants du Réseau mondial pour l'intégrité de la justice sont donc bien placés pour relever ce défi.

 



La notion de « justice prédictive » est dangereusement trompeuse, car ces systèmes font des prédictions, mais ne rendent pas de décisions judiciaires. Les décisions judiciaires exigent, comme norme minimale, des justifications basées sur une évaluation des faits pertinents et des réglementations applicables. Les systèmes d'IA établissent des corrélations statistiques et leurs prévisions ne sont que le résultat de ces corrélations. Par conséquent, il ne serait approprié de parler de véritable justice prédictive que si les systèmes fournissaient des justifications en termes de faits et de lois applicables.