Les systèmes de police prédictifs sont racistes parce que les flics corrompus produisent des données sales

La directrice exécutive de AI Now Institute, Andrea Nill Sánchez, a témoigné aujourd’hui devant l’audition publique de la commission LIBE du Parlement européen sur «L’intelligence artificielle en droit pénal et son utilisation par la police et les autorités judiciaires en matière pénale». Son message était simple: «Les systèmes de police prédictifs ne seront jamais sûrs… jusqu’à ce que le système de justice pénale sur lequel ils sont construits soit réformé.»

Sanchez argumenté que les systèmes de police prédictifs sont construits avec des «données sales» compilées au cours de décennies d’inconduite policière, et qu’il n’existe actuellement aucune méthode permettant de résoudre ce problème avec la technologie.

Son témoignage était basé sur une étude détaillée menée par le Institut AI Now l’année dernière, qui a expliqué comment les systèmes de police prédictifs sont intrinsèquement biaisés. Elle a déclaré au comité:

Dans une étude récente, mes collègues de l’Institut AI Now ont examiné 13 juridictions policières américaines qui s’étaient livrées à des pratiques illégales, corrompues ou partiales et ont ensuite construit ou acquis des systèmes de police prédictifs. Plus précisément, mes collègues ont constaté que dans neuf de ces juridictions, il y avait un risque élevé que les prévisions du système reflètent les biais intégrés dans les données.

Au cours de l’audience, Sanchez a décrit les systèmes de police prédictive comme un simple moyen d’automatiser la corruption:

Si elle n’est pas maîtrisée, la prolifération des services de police prédictifs risque de reproduire et d’amplifier les modèles de conduite corrompue, illégale et contraire à l’éthique liés aux séquelles de discrimination qui affligent les forces de l’ordre à travers le monde.

Lis: L’IA policière prédictive est une arnaque plus importante que les détectives psychiques

AI Now a averti les régulateurs américains l’année dernière que la police prédictive était un problème, et le message n’a pas beaucoup changé pour le public international. Per Sanchez aujourd’hui:

En fin de compte, les systèmes de police prédictifs et les données qu’ils traitent sont la progéniture d’un monde injuste. Alors que le système de justice pénale des États-Unis est un vestige d’esclavage et de siècles de racisme contre les Noirs et les Bruns, la police discriminatoire est endémique à travers le monde, y compris en Europe.

La raison pour laquelle ces systèmes sont si dangereux? En termes simples, une longue histoire de pratiques policières corrompues a créé un pool de données non fiables. Par exemple, lors d’une recherche sur le Chicago Police Department (CPD) – une agence qui règle en moyenne une poursuite pour faute professionnelle tous les autres jours – AI Now a identifié un pipeline entre la corruption de la police et les prédictions biaisées de l’IA. Comme l’explique Sanchez:

Nos chercheurs ont conclu que les pratiques discriminatoires du CPD généraient des «données sales» que le système de police prédictif de la ville avait directement ingérées, créant un risque inacceptable que la technologie renforçait et amplifiait des préjugés et des dommages profondément enracinés. En s’appuyant sur des services de police aussi biaisés, les services de police prédictifs ont effectivement placé des innocents arrêtés et arrêtés à tort sur une liste de sujets stratégiques, reflétant ainsi et, lorsqu’ils sont suivis, perpétuant les pratiques néfastes du DPC.

Jusqu’à présent, les avertissements d’AI Now ont été largement ignorés. Aux États-Unis, quelques juridictions ont un arrêt de la police prédictive, et il y a des murmures du Royaume-Uni et de l’Europe sur “pause”Son utilisation dans certains domaines. Pourtant, l’utilisation de la police prédictive et de la reconnaissance faciale par les forces de l’ordre continue d’augmenter dans le monde.

Lire la transcription complète des remarques d’Andrea Nill Sanchez ici.


Vous êtes ici parce que vous voulez en savoir plus sur l’intelligence artificielle. Nous aussi. Cet été, nous amenons Neural à TNW Conference 2020, où nous accueillerons un programme dynamique dédié exclusivement à l’IA. Avec des discours prononcés par des experts d’entreprises comme Spotify et RSA, notre piste Neural plongera en profondeur dans les nouvelles innovations, les problèmes éthiques et la façon dont l’IA peut transformer les entreprises. Obtenez votre billet pour le lève-tôt et consultez l’intégralité de la piste Neural.

Publié le 20 février 2020-20: 05 UTC



Source

A propos admin

Découvrez également

Apple prend des mesures contre un livre révélant ses secrets commerciaux

Un livre récemment publié par un ancien employé d’Apple fournit des informations intéressantes sur les …

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *