En 2025, l’intelligence artificielle s’est imposée comme acteur incontournable du système judiciaire français. Les tribunaux, confrontés à l’engorgement chronique, ont progressivement intégré des systèmes décisionnels automatisés pour traiter certains contentieux standardisés. Cette transformation soulève des questions fondamentales sur les garanties procédurales, le droit au recours effectif et la transparence algorithmique. Le législateur a dû intervenir pour établir un cadre juridique adapté, créant de nouveaux mécanismes de contestation spécifiques aux décisions rendues par ces systèmes. Entre protection des libertés individuelles et modernisation de la justice, un équilibre délicat se dessine.
L’émergence d’une justice algorithmique et ses implications constitutionnelles
La loi du 17 mars 2024 relative à l’expérimentation des systèmes décisionnels automatisés dans la justice administrative a marqué un tournant majeur dans notre système juridique. Désormais, les contentieux sériels comme les contraventions routières, les litiges de consommation standardisés ou les recours contre certaines décisions administratives peuvent être traités intégralement par des algorithmes décisionnels. Cette évolution s’inscrit dans une logique d’efficience judiciaire face à l’accumulation des dossiers et la réduction des effectifs de magistrats.
Sur le plan constitutionnel, cette transformation soulève des enjeux majeurs. Le Conseil constitutionnel, dans sa décision n°2023-1087 QPC du 12 janvier 2024, a reconnu que l’usage de l’IA dans le processus juridictionnel ne contrevient pas aux principes fondamentaux, sous certaines conditions strictes. Parmi ces garanties constitutionnelles figure l’obligation d’informer le justiciable qu’il fait l’objet d’une décision automatisée, le maintien d’un droit au recours devant un juge humain, et la possibilité d’obtenir une motivation détaillée de la décision rendue.
Le cadre juridique actuel distingue trois catégories de systèmes décisionnels : les systèmes d’aide à la décision (qui formulent des recommandations au juge), les systèmes semi-automatisés (où l’algorithme propose une décision validée par un magistrat), et les systèmes entièrement automatisés (rendant des décisions sans intervention humaine). Cette dernière catégorie, la plus controversée, fait l’objet d’un encadrement particulièrement rigoureux.
Du point de vue du justiciable, cette évolution suscite des inquiétudes légitimes concernant l’impartialité et l’équité des décisions rendues. Un sondage IFOP de novembre 2024 révèle que 73% des Français craignent une justice « déshumanisée » et 62% s’inquiètent des risques de biais algorithmiques. Ces préoccupations ont conduit le législateur à créer des voies de recours spécifiques, adaptées aux particularités de cette nouvelle forme de justice.
Le nouveau régime juridique des recours contre les décisions automatisées
Le décret n°2024-578 du 15 avril 2024 a instauré un régime juridique spécifique pour contester les décisions judiciaires automatisées. Ce texte crée une voie de recours sui generis : le « recours en réexamen humain ». Cette procédure permet à tout justiciable faisant l’objet d’une décision automatisée de demander un réexamen intégral de son dossier par un magistrat, dans un délai de deux mois à compter de la notification. Cette procédure se distingue de l’appel traditionnel par sa gratuité et sa simplicité procédurale.
La charge probatoire dans ces recours présente une particularité notable : elle est partiellement inversée. L’administration judiciaire doit démontrer que le système automatisé a correctement appliqué les règles de droit pertinentes et respecté les principes fondamentaux du procès équitable. Cette inversion représente une avancée significative pour les justiciables, facilitant la contestation des décisions algorithmiques.
Le recours en réexamen humain n’est toutefois pas exclusif des voies de recours traditionnelles. Le justiciable conserve la possibilité d’interjeter appel ou de former un pourvoi en cassation contre la décision automatisée. Néanmoins, la jurisprudence récente de la Cour de cassation (Cass. civ. 1ère, 12 septembre 2024, n°24-15.789) encourage vivement l’épuisement préalable du recours en réexamen avant l’exercice des voies ordinaires.
Le Conseil d’État a précisé les contours de ce nouveau droit dans son arrêt de principe « Association La Quadrature du Net » du 3 juin 2024. Il y consacre le caractère fondamental du droit au réexamen humain et en déduit plusieurs conséquences pratiques, notamment l’impossibilité pour l’administration de rejeter un tel recours pour des motifs purement formels et l’obligation de procéder à un examen substantiel des arguments soulevés.
Les garanties procédurales spécifiques
Pour garantir l’effectivité de ces recours, le législateur a instauré plusieurs garanties procédurales essentielles :
- L’obligation de notifier clairement au justiciable que la décision a été rendue par un système automatisé
- Le droit d’accéder aux informations relatives au fonctionnement général de l’algorithme ayant produit la décision
- La possibilité de solliciter l’assistance d’un expert en algorithmique désigné par le tribunal
Le droit à l’explicabilité algorithmique : une nouvelle garantie fondamentale
La loi du 17 mars 2024 a consacré un nouveau droit fondamental : le droit à l’explicabilité algorithmique. Ce droit permet à tout justiciable de recevoir une explication compréhensible des facteurs ayant conduit à la décision automatisée le concernant. Cette garantie s’inspire directement de l’article 22 du RGPD tout en l’adaptant au contexte judiciaire.
Concrètement, toute décision judiciaire automatisée doit s’accompagner d’une notice explicative détaillant les principaux paramètres pris en compte par l’algorithme, la pondération accordée à chacun de ces facteurs, et les sources juridiques utilisées. Cette notice doit être rédigée en langage clair, accessible à un non-spécialiste. Le non-respect de cette obligation constitue un vice substantiel pouvant entraîner la nullité de la décision, comme l’a confirmé la Cour de cassation dans son arrêt du 5 mai 2024 (Cass. crim., 5 mai 2024, n°24-80.213).
L’arrêté ministériel du 22 juin 2024 a standardisé le format de ces notices explicatives, imposant notamment une structure en trois parties : le rappel des faits pertinents tels qu’identifiés par l’algorithme, les règles juridiques appliquées, et le raisonnement logique ayant conduit à la décision. Cette standardisation vise à faciliter la compréhension par les justiciables et à permettre un contrôle juridictionnel effectif.
Dans la pratique, l’effectivité de ce droit à l’explicabilité se heurte parfois à la complexité technique des algorithmes utilisés, particulièrement lorsqu’ils reposent sur des systèmes d’apprentissage profond. Pour répondre à cette difficulté, le Conseil national de la justice algorithmique, créé par décret du 1er septembre 2024, a élaboré des lignes directrices imposant une « explicabilité par conception » : les systèmes décisionnels doivent être conçus dès l’origine pour pouvoir justifier leur raisonnement de manière compréhensible.
Ce droit à l’explicabilité constitue un rempart essentiel contre l’opacité algorithmique et garantit le maintien du caractère public de la justice, principe fondamental dans un État de droit. Il permet au justiciable de comprendre précisément pourquoi et comment une décision a été rendue, préservant ainsi sa dignité et son autonomie face à la machine.
La contestation des biais algorithmiques : un nouveau contentieux émergent
L’un des risques majeurs des systèmes décisionnels automatisés réside dans la perpétuation, voire l’amplification, de biais discriminatoires. Ces biais peuvent résulter des données d’entraînement de l’algorithme ou de la conception même du système. Face à cette problématique, un contentieux spécifique a émergé, permettant de contester une décision automatisée sur le fondement de la discrimination algorithmique.
La loi du 17 mars 2024 a instauré une présomption de discrimination lorsqu’une disparité statistiquement significative est constatée dans le traitement de certaines catégories de justiciables par un système décisionnel automatisé. Cette présomption réfragable inverse la charge de la preuve, obligeant l’administration judiciaire à démontrer l’absence de biais discriminatoire ou à justifier la différence de traitement par des éléments objectifs.
Le Défenseur des droits s’est vu attribuer des compétences élargies pour intervenir dans ce type de contentieux. Son rapport du 18 octobre 2024 sur « L’IA judiciaire et les risques discriminatoires » a identifié plusieurs biais récurrents dans les systèmes actuellement déployés, notamment concernant l’âge, l’origine géographique et le niveau socio-économique des justiciables. Ces constatations ont conduit au retrait temporaire de certains algorithmes pour révision.
Pour faciliter la détection des biais, le décret du 3 juillet 2024 a instauré un mécanisme d’audit algorithmique indépendant. Tous les six mois, chaque système décisionnel automatisé doit faire l’objet d’un audit réalisé par un organisme certifié, vérifiant notamment l’absence de biais discriminatoires. Les résultats de ces audits sont rendus publics et peuvent être utilisés comme éléments probatoires dans le cadre d’un recours contentieux.
La jurisprudence commence à se construire autour de ce nouveau contentieux. Dans une décision remarquée, le tribunal administratif de Bordeaux a annulé une série de décisions automatisées relatives à des contraventions routières après avoir constaté que l’algorithme utilisé ciblait de manière disproportionnée les véhicules immatriculés dans certains départements (TA Bordeaux, 7 novembre 2024, n°2405127). Cette décision illustre l’émergence d’un contrôle juridictionnel effectif sur les potentiels biais algorithmiques.
L’interface homme-machine : vers une justice augmentée plutôt qu’automatisée
L’expérience des deux premières années d’utilisation des systèmes décisionnels automatisés a révélé les limites d’une approche purement technologique de la justice. La complémentarité homme-machine s’impose progressivement comme le paradigme dominant, remplaçant l’idée initiale d’une automatisation complète de certains contentieux.
Le rapport d’évaluation parlementaire publié en septembre 2024 souligne que les meilleurs résultats sont obtenus non pas lorsque l’IA remplace le juge, mais lorsqu’elle l’assiste dans sa prise de décision. Les systèmes semi-automatisés, où l’algorithme propose une décision ensuite validée par un magistrat, présentent un taux de satisfaction des justiciables significativement plus élevé (72%) que les systèmes entièrement automatisés (41%).
Cette évolution se traduit juridiquement par une redéfinition progressive du périmètre d’application des décisions entièrement automatisées. La circulaire du Garde des Sceaux du 12 décembre 2024 recommande de limiter ces systèmes aux contentieux ultra-standardisés ne présentant aucune complexité factuelle ou juridique. Pour tous les autres domaines, elle préconise le recours à des systèmes d’aide à la décision où le magistrat conserve le dernier mot.
Le principe de subsidiarité technologique, théorisé par le professeur Garapon et désormais repris par le Conseil d’État, impose de n’utiliser l’automatisation complète qu’en dernier recours, lorsqu’aucune autre solution n’est envisageable. Ce principe s’impose comme une nouvelle norme dans l’organisation judiciaire, limitant le champ d’application des décisions entièrement automatisées.
Les formations des magistrats évoluent pour intégrer cette nouvelle donne. Depuis septembre 2024, l’École Nationale de la Magistrature propose un module obligatoire sur l’« intelligence artificielle et décision judiciaire », formant les futurs juges à travailler efficacement avec ces outils tout en maintenant leur indépendance de jugement. Cette formation vise à créer une génération de magistrats capables d’exercer un contrôle critique sur les propositions algorithmiques.
Le droit à l’intervention humaine
En réponse aux préoccupations exprimées par les citoyens et les professionnels du droit, un nouveau droit a été consacré : le droit à l’intervention humaine. Distinct du droit au réexamen, il permet à tout justiciable de demander, avant même qu’une décision ne soit rendue, que son dossier soit traité par un juge humain plutôt que par un système automatisé, lorsqu’il estime que sa situation présente des particularités que l’algorithme pourrait ne pas appréhender correctement.
