Erreur dystopique mène à l’arrestation injuste: Interview exclusive

Erreur dystopique mène à l’arrestation injuste: Interview exclusive

À lire aussi

Erreur dystopique entraîne l’arrestation d’un homme pour cambriolage dans une ville qu’il n’a jamais visitée

Par Michael Slavin – Publié le 26 février 2026 à 13:20 GMT

Alvi Choudhury s’est exprimé à la télévision nationale après avoir été arrêté pour un cambriolage à Milton Keynes, une ville qu’il n’a jamais visitée de sa vie et qui se trouve à plus de 160 kilomètres de chez lui.

Alvi, un ingénieur informaticien de 26 ans d’origine sud-asiatique, a été arrêté en partie en raison de la nouvelle technologie d’IA de la police, fortement critiquée, qu’ils ont utilisée.

En 2021, il avait déjà été arrêté à tort après avoir été agressé lors d’une sortie à Portsmouth. La police avait conservé sa photo d’arrestation de cette fausse arrestation et, en utilisant un nouveau logiciel de reconnaissance faciale basé sur l’IA, l’avait identifié comme le suspect d’un cambriolage.

Expérience choquante

Lors de son intervention dans l’émission Good Morning Britain sur ITV, Alvi a déclaré: “C’était très choquant… J’étais en télétravail ce jour-là et je parlais à un client. J’entends frapper à la porte et je descends. J’ouvre la porte et je vois deux policiers qui s’apprêtaient à partir. Je leur dis bonjour avec un sourire en disant ‘Je ne suis pas en faute, n’est-ce pas?’ en plaisantant.

Il a ajouté qu’il n’était jamais allé à Milton Keynes, a été retenu en garde à vue pendant 11 heures et que les preuves qu’il avait prouvant qu’il était au travail ce jour-là n’ont été prises en compte que plus tard.

Problèmes de reconnaissance faciale

Cet incident soulève une problématique plus large concernant l’implémentation de la technologie d’IA de reconnaissance faciale qui a tendance à avoir des biais raciaux intrinsèques. En décembre, il a été constaté que le taux de faux positifs chez les visages noirs (5,5%) et asiatiques (4,0%) était bien plus élevé que chez les visages blancs (0,04%).

Sur Good Morning Britain, il a été souligné que les femmes noires avaient près de 250 fois plus de chances d’être mal identifiées qu’un homme blanc avec cette technologie. Une porte-parole de la police de Thames Valley a déclaré que bien que s’excusant pour la détresse causée, l’arrestation était basée sur l’évaluation visuelle des agents et non sur un profilage racial.

Suite et améliorations

Alors que la technologie a fourni des renseignements initiaux, l’homme a été éliminé de l’enquête par la suite. Cependant, cela n’a pas rendu l’arrestation illégale. La police continue à utiliser ces outils en cherchant à améliorer et renforcer la confiance dans les communautés.

Auteur

Jérôme Leroux, 31 ans, est un auteur passionné du monde du gaming, du cinéma et des séries. Originaire de Nantes, il a débuté sa carrière dans le journalisme en tant que contributeur indépendant pour des publications locales.

Partagez cet article

Facebook
Twitter
LinkedIn
WhatsApp
Email

News similaires

Les dernières news