Du code à la Constitution : la constitutionnalisation de l’intelligence artificielle dans la jurisprudence colombienne

Par Daniel Peña Valenzuela, associé chez Peña Mancero Abogados

Introduction

L’intégration croissante des technologies numériques dans l’administration publique et les processus judiciaires a contraint les cours constitutionnelles du monde entier à faire face à des dilemmes juridiques sans précédent. En Colombie, la Cour constitutionnelle a commencé à définir un cadre réglementaire pour la gouvernance de l’intelligence artificielle (IA) à travers les arrêts T-323 de 2024 et T-067 de 2025. Ces décisions ne se limitent pas à réglementer les outils technologiques : elles inaugurent un processus de constitutionnalisation, dans lequel les systèmes algorithmiques et les fonctionnalités numériques sont interprétés à la lumière des droits fondamentaux et des principes démocratiques inhérents à l’État de droit social.

Cet article propose une analyse descriptive et interprétative des deux décisions, en les replaçant dans le contexte des débats contemporains sur la transparence, la responsabilité et le déploiement éthique de l’IA dans les fonctions de l’État. Il explore également la manière dont ces décisions reflètent une imagination constitutionnelle émergente qui cherche à concilier l’innovation technologique avec les impératifs de justice, d’inclusion et de légitimité institutionnelle.

1. Décision T-323 de 2024 : opacité algorithmique et droit à une procédure régulière

La décision T-323 est le résultat d’un recours en protection lié à l’utilisation de décisions algorithmiques dans l’attribution des services de santé. Le plaignant a fait valoir que l’opacité du système et le manque d’explicabilité violaient son droit à une procédure régulière et à l’égalité. En réponse, la Cour a reconnu que lorsque des outils algorithmiques sont utilisés par des entités publiques, ils acquièrent un caractère quasi institutionnel et doivent donc être soumis à un contrôle constitutionnel.

La décision a souligné la nécessité de la transparence algorithmique, affirmant que les personnes concernées par des décisions automatisées doivent être en mesure de comprendre la logique et les données qui sous-tendent ces résultats. En outre, la Cour a introduit le principe de responsabilité technologique, exigeant des institutions publiques qu’elles divulguent les paramètres de fonctionnement des systèmes d’IA et veillent à ce qu’ils ne reproduisent pas de préjugés discriminatoires.

Cet arrêt redéfinit les outils numériques non pas comme des instruments neutres, mais comme des acteurs constitutionnels dont la conception et la mise en œuvre doivent être conformes aux valeurs de dignité, d’égalité et de justice procédurale. Il marque également un changement dans la jurisprudence vers une position proactive en matière de droits numériques, reconnaissant que la gouvernance algorithmique doit être soumise à un contrôle démocratique et à des garanties juridiques.

2. Arrêt T-067 de 2025 : analyse prédictive et pouvoir discrétionnaire judiciaire

Dans l’arrêt T-067, la Cour a examiné l’utilisation de l’analyse prédictive dans les décisions de détention provisoire. L’affaire soulevait des questions quant à la mesure dans laquelle les évaluations algorithmiques des risques pouvaient influencer le pouvoir discrétionnaire judiciaire et porter atteinte à la présomption d’innocence. La Cour a estimé que si ces outils pouvaient offrir des gains d’efficacité opérationnelle, ils devaient rester subordonnés aux garanties constitutionnelles et au contrôle humain.

La décision a introduit le concept d’interopérabilité constitutionnelle, exigeant que les systèmes numériques utilisés dans le domaine judiciaire soient conçus de manière à protéger des droits tels que la contestabilité, la transparence et l’accès à des recours efficaces. La Cour a surtout réaffirmé que l’IA ne peut remplacer le raisonnement judiciaire et que toute assistance technologique doit être vérifiable et susceptible d’être contestée.

Cette décision renforce les limites réglementaires dans lesquelles l’IA peut fonctionner dans des contextes juridiques, protégeant l’intégrité des processus judiciaires contre les risques liés à l’automatisation et au réductionnisme technocratique. Elle reflète également une préoccupation plus large pour la préservation de la dimension humaine de la justice, en particulier dans les scénarios où la liberté et le respect des procédures sont en jeu.

3. Implications théoriques et institutionnelles

Les deux décisions peuvent être interprétées du point de vue de la théorie juridique critique, qui met en évidence le rôle du droit dans la reproduction ou la remise en cause des structures de pouvoir. D’un point de vue féministe ou décolonial, l’insistance de la Cour sur la transparence et la contestabilité peut être comprise comme une réponse aux asymétries structurelles inhérentes aux systèmes algorithmiques, dont beaucoup sont conçus et exploités par des acteurs privés peu responsables.

Ces décisions soulèvent également des questions quant à la capacité institutionnelle. La Cour invite implicitement les entités publiques à développer une expertise technique et des cadres réglementaires afin de garantir la conformité des systèmes d’IA avec les normes constitutionnelles. Cela nécessite non seulement des réformes juridiques, mais aussi une collaboration interdisciplinaire entre juristes, technologues, éthiciens et acteurs de la société civile.

Les décisions suggèrent également une redéfinition de la subjectivité constitutionnelle. En traitant les systèmes algorithmiques comme des entités qui doivent se conformer aux normes constitutionnelles, la Cour élargit le champ d’application du droit constitutionnel pour inclure les acteurs non humains et les processus décisionnels hybrides. Ce geste post-humaniste remet en question les notions traditionnelles d’action et de responsabilité, invitant à de nouvelles formes de raisonnement juridique adaptées à la complexité de la gouvernance numérique.

Conclusion : vers un constitutionnalisme numérique fondé sur les droits

Considérées ensemble, les décisions T-323 et T-067 représentent un moment fondateur dans la gouvernance constitutionnelle de l’intelligence artificielle en Colombie. En intégrant les outils numériques dans l’architecture des droits constitutionnels, la Cour promeut un modèle de constitutionnalisme numérique fondé sur les droits, qui exige la transparence, la responsabilité et une conception éthique dans le déploiement des systèmes algorithmiques.

Ces décisions positionnent la Colombie comme un leader régional dans la réglementation des technologies émergentes, offrant des orientations jurisprudentielles à d’autres juridictions confrontées à des défis similaires. Au-delà de cela, les arrêts invitent les universitaires, les technologues et les décideurs politiques à repenser le rôle du droit constitutionnel non seulement comme un mécanisme réactif, mais aussi comme un cadre proactif pour façonner l’avenir numérique conformément aux valeurs démocratiques et aux principes de justice sociale.

Ce faisant, la Cour affirme que le droit constitutionnel doit évoluer parallèlement aux changements technologiques, non seulement pour protéger les droits individuels, mais aussi pour préserver la légitimité et la réactivité des institutions publiques. La constitutionnalisation de l’IA n’est pas simplement une innovation juridique, c’est une nécessité démocratique.

Publications

Livres

Publications Externers