L'encadrement de l'Intelligence Artificielle dans le domaine de la justice : entre interdictions et systèmes à haut risque.
- LEX'CELLENCE

- 30 mai 2025
- 4 min de lecture
Dernière mise à jour : 15 juil. 2025

L'intelligence artificielle progresse à grande vitesse, y compris dans des domaines aussi sensibles que la justice ou les enquêtes pénales. Mais jusqu’où peut-on aller ? Pour encadrer ces usages, l’Union européenne a adopté un cadre juridique ambitieux : le Règlement (UE) 2024/1689 sur l’intelligence artificielle.
Ce texte ne parle pas directement des « legaltechs », mais il classe les systèmes d’IA selon leur niveau de risque, ce qui a un impact concret sur les outils utilisés dans le domaine judiciaire.
La Police Prédictive : Une Pratique Interdite
L’un des points les plus forts du Règlement est l’interdiction sans ambiguïté de la police prédictive. En clair, il est interdit d’utiliser l’IA pour détecter la probabilité qu’une personne commette une infraction à l’avenir, surtout lorsque cela repose sur du profilage (traits de personnalité, caractéristiques comportementales, etc.).
Pourquoi cette interdiction ? Parce que cela va à l’encontre d’un principe fondamental : toute personne doit être jugée sur ses actes réels, pas sur des prédictions ou des stéréotypes. C’est aussi une manière de garantir le respect de la présomption d’innocence.
Les systèmes d'Intelligence Artificielle à haut risque dans l'administration de la justice et les forces de l'ordre
Tous les usages d’IA dans la justice ne sont pas interdits pour autant. Certains sont autorisés, mais sont considérés comme "à haut risque" en raison de leur impact potentiel sur les droits fondamentaux. Ces systèmes sont donc strictement encadrés.
Exemples de systèmes classés à haut risque :
Ceux utilisés par les tribunaux ou les médiateurs pour interpréter les faits ou appliquer le droit ;
Ceux utilisés par les polices ou parquets pour évaluer la fiabilité d’une preuve ;
Ceux qui évaluent le risque qu’une personne récidive, à condition que cela ne repose pas exclusivement sur le profilage.
Cette dernière distinction est essentielle : l’évaluation du risque de récidive est permise, mais elle ne doit pas glisser vers de la police prédictive déguisée.
Les systèmes d’IA à haut risque sont soumis à de nombreuses exigences, tout au long de leur cycle de vie :
Un système de gestion des risques clair et documenté ;
Une gouvernance rigoureuse des données, surtout s’il s’agit de données personnelles ou sensibles ;
Une documentation technique détaillée ;
Un système de journalisation pour assurer la traçabilité des décisions ;
Une transparence renforcée vis-à-vis des utilisateurs ;
Et surtout, un contrôle humain effectif : l’IA ne peut pas décider seule.
Ces exigences s’appliquent à tous les usages listés dans l’annexe III du Règlement, qui inclut les secteurs de la justice et du maintien de l’ordre.
Données personnelles et décisions automatisées : coordination RGPD & IA Act
Qui dit Intelligence artificielle dans la justice dit souvent traitement de données personnelles. Et là, le RGPD continue de s’appliquer pleinement.
Concrètement, cela signifie que toute décision automatisée prise sur la base de ces données doit respecter les droits des personnes concernées, notamment le droit de ne pas être soumis à une décision fondée uniquement sur un traitement automatisé produisant des effets juridiques ou significatifs.
Le nouveau Règlement sur l’IA complète donc le RGPD, notamment en posant des limites claires au profilage. Les deux textes doivent être appliqués conjointement, surtout pour les systèmes à haut risque.
En résumé :
Le Règlement européen sur l’Intelligence artificielle ne dit pas « non » à toutes les formes d’IA dans la justice, mais il trace des lignes rouges très nettes : pas de police prédictive, pas de profilage comme base unique de décision, et un encadrement très strict pour tout le reste.
Ce texte marque une étape clé vers une IA plus éthique et respectueuse des droits fondamentaux, en particulier dans un secteur aussi délicat que la justice.
L’intelligence artificielle peut-elle remplacer le juge ?
En Belgique, l'intégration de l'intelligence artificielle (IA) dans le domaine de la justice est encore à ses débuts, notamment en comparaison avec des pays comme l'Estonie ou la France. Plusieurs facteurs, tant juridiques que culturels, freinent l'adoption de ces technologies dans le système judiciaire belge.
Une approche prudente et encadrée
Contrairement à la France, qui a ouvert l'accès aux décisions de justice via l'open data en 2020, la Belgique adopte une position plus restrictive. La législation belge interdit le téléchargement massif et le traitement automatisé des décisions judiciaires. De plus, elle prohibe l'utilisation des données d'identité des magistrats, greffiers et avocats à des fins d'analyse ou de prédiction de leurs pratiques professionnelles. Ces restrictions limitent le développement de la justice prédictive et des legaltechs en Belgique.
L'IA comme outil d'assistance, pas de substitution
Des réflexions académiques et institutionnelles sont en cours pour évaluer le rôle potentiel de l'IA dans la justice belge. L'idée d'une "justice partiellement robotisée", où l'IA assisterait les juges sans les remplacer, est envisagée. Cependant, des préoccupations subsistent concernant la transparence des algorithmes, les biais potentiels et le respect des droits fondamentaux.
Initiatives de recherche et expérimentations
Des initiatives comme FARI – AI for the Common Good, un institut de recherche basé à Bruxelles, travaillent sur des projets visant à intégrer l'IA dans des domaines d'intérêt public, y compris la justice. FARI collabore avec des administrations publiques et des chercheurs pour développer des applications d'IA éthiques et centrées sur l'humain.
Conclusion – Une justice algorithmique à la belge ?
L’Union européenne, à travers son Règlement sur l’intelligence artificielle, fixe un cap clair : l’IA peut accompagner la justice, mais jamais la remplacer. Elle ne doit ni prédire les comportements humains, ni s’ériger en juge autonome. Ce cadre vise à protéger les droits fondamentaux tout en permettant l’innovation responsable.
En Belgique, cette prudence est particulièrement marquée. Si le pays n’avance pas au rythme de l’Estonie ou de la France, c’est aussi parce qu’il reste attaché à des principes comme la transparence, la protection des données personnelles et le respect du contradictoire. L’idée d’un juge-robot n’est donc pas à l’ordre du jour. En revanche, une justice “augmentée” par l’IA, capable de gagner en efficacité sans perdre son humanité, fait peu à peu son chemin.
Les initiatives comme FARI montrent qu’un autre modèle est possible : une IA éthique, centrée sur l’humain, pensée comme un outil d’aide à la décision et non comme un substitut.
Finalement, la question n’est peut-être pas « l’IA peut-elle juger ? », mais « comment l’IA peut-elle aider à mieux juger ? ».


