Le chantier de la police prédictive : entre big data et prévention criminelle

Utiliser des algorithmes pour prédire le crime ? Alors que certains crient au génie, d’autres angoissent déjà à l’idée d’une société policière à la Minority Report. Mais les réalités de la police prédictive sur le terrain sont bien loin de tous ces fantasmes. Si aux États-Unis, les logiciels de prédiction criminelle sont légion, la France commence à peine à découvrir la portée de ces outils. Description d’un chantier pratique, légal et sociologique.

Oubliez les Précogs de Minority Report : la police prédictive ne fait confiance qu’aux chiffres. Basés sur l’exploitation de larges bases de données, les logiciels prédictifs utilisés par la police pointent des régularités statistiques qui permettent une meilleure allocation des ressources policières sur le terrain. Les logiciels les plus utilisés par la police aujourd’hui sont des logiciels dits de prédiction spatio-temporelle. Ils indiquent les endroits et les horaires présentant un risque accru d’occurrence de crimes. On est donc loin des arrestations spectaculaires du chef de l’unité John Anderton.

Au début des années 2000, le domaine de l’analyse prédictive des crimes commence à être exploré aux États-Unis, notamment à travers des programmes de recherche universitaires. Un de ces programmes a donné naissance au logiciel de police prédictive qui est devenu la référence aujourd’hui : PredPol. Leader aux États-Unis, PredPol analyse les données spatio-temporelles agrégées par la police sur le terrain grâce à un algorithme simple issu de l’étude des comportements criminels. Et le choix de la simplicité s’est avéré payant : selon les chiffres officiels du Département de Police de Los Angeles, le quartier de Foothill a connu une baisse de 20 % de son taux de criminalité entre 2013 et 2014, en grande partie grâce à l’utilisation de PredPol. D’autres grandes villes comme Atlanta ou Santa Cruz ont enregistré de bons résultats depuis l’intégration du logiciel PredPol dans l’organisation de leurs départements de police. Et pour couper court à toute rumeur sur l’exploitation potentielle de données personnelles pour atteindre ces résultats, l’équipe de PredPol assure sur son site officiel n’utiliser que trois types de données : la nature, le lieu et l’heure du crime.

En France, la gendarmerie nationale a fait le choix de développer un outil similaire sans faire appel à une expertise étrangère. Le ministre de l’Intérieur a officiellement annoncé en mai 2015 que la gendarmerie nationale utilisait des logiciels prédictifs depuis fin 2014 pour mieux cartographier le crime et prédire les tendances nationales en matière de criminalité d’année en année. C’est au sein du Service Central de Renseignement Criminel (SCRC), rattaché au Pôle judiciaire de la Gendarmerie nationale, que l’on s’est intéressé de près à l’analyse prédictive des crimes. Comme l’expliquait au micro d’Europe 1 le Lieutenant-colonel Patrick Perrot, chef de la division analyse et investigation criminelle du SCRC, utiliser l’analyse prédictive revient à « exploiter le passé pour comprendre le présent et prédire l’avenir ». En plus d’utiliser des données policières comme PredPol, leur base de données rassemble aussi des données exogènes telles que des données de l’INSEE ou des données météorologiques. Des chiffres comme le nombre de retraités dans une commune, la construction de quartiers résidentiels ou de logements sociaux peuvent, selon lui, se révéler essentiels pour affiner le profil des zones à risque. S’ajoutent à cela des données spatiales concernant la concentration criminelle, la mobilité criminelle et le sentiment d’insécurité. Après avoir été analysée par un algorithme, cette large base de données se transforme en une cartographie précise à l’échelle nationale, régionale et départementale, cataloguant les zones et périodes à risque pour l’année étudiée.

Mais cette étude annuelle peut paraître dérisoire lorsque l’on sait que les départements de police américains utilisant PredPol organisent au moins une réunion par semaine pour affiner leur base de données. Pour Alexandre Giuglaris, délégué général de l’Institut pour la Justice, c’est une très bonne chose que « les forces de l’ordre françaises s’intéressent enfin à la police prédictive ». Cependant, les cartes utilisées sont « bien trop larges » et « n’aident guère à répartir efficacement les effectifs de policiers et de gendarmes ». Alors que la gendarmerie française choisit l’échelle du département, les autres pays concentrent leurs efforts à l’échelle de l’agglomération, qui est « le niveau pertinent d’analyse » pour prévenir le crime. En effet, le niveau de criminalité est souvent plus important dans les grandes agglomérations ce qui permet à l’algorithme de révéler « des corrélations [plus] fiables » que dans des zones rurales. Ce premier essai de la police prédictive française reste donc « timide » aux yeux d’Alexandre Giuglaris.

Et les ambitions françaises sont grandes. Mediapart, dans un article publié en mai 2015, révélait que l’Institut Mines-Télécom avait lancé un appel à projet pour « développer un projet d’analyse et de prédiction de la criminalité ». En partenariat avec le groupe industriel Safran, ce projet aurait pour but de développer un algorithme avec apprentissage automatique. Les résultats de cette recherche aboutiraient à la création d’un outil d’une ampleur inégalée, tant dans la compréhension du crime que dans sa prévention. La base de données serait plus large que celle utilisée actuellement par la gendarmerie nationale. Elle prendrait notamment en compte, en plus des données exogènes, des données dites « non-structurées », telles que des « extractions de blogs ou de réseaux sociaux ». Et dès qu’on parle de données personnelles, il faut s’attendre à une levée de boucliers. Mais peu disent que, même s’il n’existe pas encore de droit des algorithmes prédictifs, la France est dotée d’un arsenal juridique pour encadrer l’utilisation de bases de données massives.

Pour Maître Laure Landes-Gronowski, avocat au cabinet Alain Bensoussan Avocats – Lexing, le premier rempart à toute dérive est l’existence même de la Commission nationale de l’informatique et libertés (Cnil). En tant qu’autorité de régulation de l’utilisation des données personnelles des citoyens, cette dernière « doit être consultée avant la mise en œuvre de tels fichiers ». Il existe donc bien un contrôle a priori des traitements mis en œuvre et notamment des données utilisées. Mais Laure Landes-Gronowski rappelle aussi qu’un contrôle a posteriori est nécessaire. La loi de 1978 relative à l’informatique, aux fichiers et aux libertés, dont le non-respect peut faire l’objet de sanctions administratives voire pénales, interdit toute décision produisant des effets juridiques prise sur le seul fondement d’un traitement automatique des données. Il faut donc « assurer l’effectivité de l’intervention humaine dans toute prise de décision produisant des effets juridiques à l’égard d’un individu et fondée sur l’utilisation d’algorithmes » comme le propose le Conseil d’État dans son étude annuelle de 2014 sur le numérique et les droits fondamentaux. Comme le précise Laure Landes-Gronowski, cette intervention humaine doit être prise en charge « par des gens compétents capables de remettre en cause les résultats de l’algorithme ou du moins de ne pas être aveuglés par ces derniers ». Ces outils sont donc pertinents et utiles mais il convient de s’assurer que l’on garde en permanence « la main humainement sur les décisions qui sont prises », conclut-elle.

Les bons résultats de PredPol aux États-Unis le prouvent : les algorithmes de prédiction spatio-temporelle du crime fonctionnent. En plus d’améliorer les résultats des forces de l’ordre sur le terrain, ils sont encadrés juridiquement et, contrairement à ce qu’on pourrait craindre, ils ne portent pas atteinte aux données personnelles. Les chercheurs derrière ces algorithmes sont comme des ingénieurs du crime, qui apportent des solutions techniques à la lutte contre la criminalité. Leurs recherches se concentrent dans le domaine de la prévention situationnelle, qui essaie de comprendre comment faire diminuer le crime en optimisant la sécurité. Ce domaine de recherche ne prend donc en compte dans ses solutions ni les caractéristiques des délinquants ni les dimensions sociologiques du crime, comme la pauvreté ou l’exclusion. Pour Bilel Benbouzid, maître de conférences en sociologie à l’université Paris-Est, la prévention situationnelle résulte dans une conception court-termiste de la lutte contre le crime. « En tant que sociologue, on leur reproche de développer des machines et de renoncer à construire de l’intelligibilité » autour du crime. Il avoue cependant qu’ « il n’y a pas que les sociologues qui peuvent parler du crime » et qu’en effet, face au relatif échec de l’approche sociologique face au crime, les algorithmes plaisent beaucoup car « c’est ce dont les policiers ont besoin » aujourd’hui. Mais il existe de nouvelles façons d’allier efficacité des algorithmes prédictifs et intelligibilité de l’approche sociologique : certains chercheurs américains, comme Rob Sampson, intègrent par exemple des concepts d’économétrie à la compréhension du crime.

Finalement, Minority Report était aussi visionnaire sur cet aspect : le programme Précrime était supervisé par le Ministère de la Justice, et les Américains devaient se prononcer par référendum sur le déploiement de ce programme expérimental sur tout le territoire. Le maître-mot semble donc de toujours balancer technologie et démocratie.


il y a eu des essais en Suisse entre autre à Zurich mais je sais pas à quoi ils en sont actuellement