La police de Durham, une ville de 50.000 habitants du nord-est de l’Angleterre, va utiliser un programme d’intelligence artificielle nommé Hart (harm assessment risk tool), qui doit aider les policiers à décider s’ils doivent placer en détention ou non un suspect, en évaluant les risques qu’il représente. Conçue avec l’aide de l’université de Cambridge, cette technologie, fondée sur l’apprentissage automatique a assimilé cinq années d’archives de la police de Durham, comprises entre 2008 et 2012. En apprenant des décisions prises pendant cette période, et de la récidive ou non de certains suspects, Hart est censé évaluer le risque – faible, moyen ou élevé – des suspects. Elle analyse pour cela de nombreuses données sur la personne (son casier judiciaire, son âge, le délit dont elle est suspectée, son code postal etc.).

Testée en 2013, les résultats ont été étudiés pendant deux ans – le temps d’évaluer le taux de récidive des personnes analysées par le programme. Les prévisions de « risque faible » se sont révélées justes à 98%, celles de « risque élevé » à 88%. Dans un premier temps, la machine s’exprimera sur des cas choisis aléatoirement. Aux officiers ensuite de s’en inspirer, ou non, pour décider du sort du suspect. Ce fonctionnement permettra de continuer à évaluer ce programme, sans que celui-ci ne s’exprime sur tous les cas, au risque de se révéler trop influent. Aux Etats-Unis, plusieurs Etats disposent d’un outil du même type: Compas, soupçonné de racisme, notamment à l’égard des Afro-Américains. C’est l’un des problèmes posés par l’apprentissage automatique : en s’appuyant sur des décisions humaines, la machine risque de reproduire les mêmes biais.

.

.