Les algorithmes prédictifs au Ministère de la Justice britannique : entre promesses et dangers

Le Ministère de la Justice (MoJ) du Royaume-Uni utilise des outils algorithmiques pour « prédire » le risque de récidive ou même de commission d’infractions graves, tels que les meurtres. Toutefois, ces systèmes soulèvent des questions majeures quant à leur fiabilité et à la perpétuation des biais structurels existants.

**Des outils de prédiction controversés**

Depuis 2001, le MoJ déploie un outil appelé Offender Assessment System (OASys) qui évalue le risque de récidive des détenus grâce à des techniques d’apprentissage machine. Ces évaluations influencent des décisions importantes, telles que la détention, la libération conditionnelle, ou l’accès à des programmes de réhabilitation. En une semaine de janvier 2025, près de 9 420 évaluations ont été réalisées, alimentant une base de données contenant plus de sept millions de profils.

Un second outil en cours de développement ambitionne d’identifier les personnes susceptibles de commettre un meurtre, en croisant diverses sources de données, y compris des informations sensibles telles que la santé mentale ou les antécédents personnels.

**Les risques de biais et de discrimination**

Critiques et défenseurs des droits alertent sur le fait que ces systèmes reposent sur des données historiques issues d’organismes souvent accusés de biais institutionnels, comme la police. En conséquence, les communautés racisées ou défavorisées, historiquement sur-policiées, apparaissent comme plus à risque, ce qui crée un cercle vicieux d’algorithmes renforçant une sur-surveillance et une discrimination existantes.

Une évaluation officielle de 2015 a souligné que les scores de risque d’OASys sont moins précis pour les personnes racisées, notamment les individus de descendance noire ou métisse. Ces biais peuvent avoir des conséquences graves, amplifiées par la difficulté de contester ou corriger les données erronées dans les dossiers.

**Un dialogue ouvert avec le Ministère de la Justice**

Interrogé sur ces problématiques, le MoJ reconnaît que ces outils sont en constante amélioration et insiste sur les protocoles de vérification pour garantir leur intégrité. Le ministère affirme également que l’ethnicité n’est pas utilisée comme facteur direct dans les prédictions et que des recours existent, notamment via le Prison and Probation Ombudsman.

Concernant le nouvel outil de prédiction des meurtres, le MoJ souligne que le projet est à un stade de recherche et que ses conclusions pourraient influencer des travaux futurs, mais aucune mise en œuvre opérationnelle n’est prévue pour le moment.

**Vers de nouveaux systèmes numériques**

La transition vers un nouveau système nommé ARNS est en cours, avec un prototype testé depuis fin 2024 et un déploiement national prévu en 2026. Ce développement interne vise à moderniser les évaluations de risque en s’appuyant sur une meilleure technologie.

Toutefois, des voix critiques, telles que l’organisation Statewatch, réclament l’arrêt de ces projets de prédiction, arguant que les solutions technologiques ne sauraient remplacer un investissement accru dans les services sociaux et la lutte contre les inégalités structurelles.

**En conclusion**

Les algorithmes de prédiction de la criminalité apparaissent comme un outil potentiellement puissant pour améliorer la gestion des risques, mais ils restent entachés de biais profonds et de limites sérieuses. Leur utilisation doit être accompagnée d’une transparence rigoureuse, d’une vigilance sur les discriminations et d’un dialogue avec les parties concernées afin de concilier innovation et justice sociale.

👉 **Source** ici

A lire ensuite