
Dans le paysage en évolution rapide des technologies d'application de la loi, la promesse de la « précision algorithmique » a souvent été vantée comme un outil révolutionnaire pour la sécurité publique. Cependant, le cas tragique d'Angela Lipps, une grand-mère de 50 ans du Tennessee, rappelle de manière brutale les conséquences humaines dévastatrices lorsque les systèmes d'intelligence artificielle (IA) échouent. Lipps a passé plus de cinq mois en prison — manquant des mois de sa vie, perdant sa maison et faisant face à l'effondrement de sa stabilité personnelle — tout cela parce qu'un système de reconnaissance faciale l'a incorrectement identifiée comme suspecte dans une affaire de fraude bancaire dans un État où elle ne s'était jamais rendue.
L'incident, révélé en mars 2026, met en lumière les risques profonds inhérents au déploiement incontrôlé d'outils d'enquête alimentés par l'IA. Alors que les services de police à travers le pays intègrent de plus en plus de logiciels de reconnaissance faciale (facial recognition) dans leurs procédures opérationnelles standard, l'affaire Lipps soulève des questions critiques sur la transparence, la responsabilité et la dépendance croissante envers des systèmes automatisés qui, bien que rapides, sont loin d'être infaillibles.
Le calvaire a commencé lorsque les autorités de Fargo, dans le Dakota du Nord, ont lancé une enquête sur une affaire de fraude bancaire impliquant un suspect ayant utilisé une fausse pièce d'identité militaire pour voler des dizaines de milliers de dollars. La piste de l'enquête a finalement conduit à l'utilisation de Clearview AI, une plateforme de reconnaissance faciale controversée connue pour avoir collecté des milliards d'images sur les réseaux sociaux et l'internet ouvert afin de constituer sa base de données d'identification massive.
Selon les rapports, le système a généré une correspondance entre l'auteur du délit et Angela Lipps, qui vivait à plus de 1 600 kilomètres de là, dans le Tennessee. Malgré la distance géographique et l'absence d'autres preuves corrobantes, la correspondance a été jugée suffisante pour obtenir un mandat. Le 14 juillet, alors qu'elle gardait ses petits-enfants, Lipps a été arrêtée.
S'en est suivie une période d'incarcération éprouvante de cinq mois. Ce n'est qu'en décembre, lorsque son avocat commis d'office a pu obtenir les relevés bancaires et les preuves vidéo prouvant qu'elle commandait une pizza et se trouvait dans une station-service au Tennessee au moment précis des crimes commis dans le Dakota du Nord, que les accusations portées contre elle se sont effondrées. Lipps a été libérée la veille de Noël, mais les dommages — ruine financière, perte de propriété et le poids psychologique d'un emprisonnement injustifié — avaient déjà été infligés.
Le problème central dans cette affaire n'est pas simplement un « bug », mais une vulnérabilité systémique concernant la façon dont les outils d'IA sont perçus par rapport à leur fonctionnement réel. La technologie de reconnaissance faciale ne « connaît » pas une identité ; elle calcule un score de similitude mathématique entre une image de requête et une base de données de correspondances potentielles.
Les agences d'application de la loi reçoivent souvent une liste de « correspondances potentielles » de ces systèmes, classées par un score de confiance. Cependant, ces scores peuvent être trompeurs. Ils ne tiennent pas compte du vieillissement, des variations d'éclairage ou du « biais de l'IA » (AI bias) inhérent aux ensembles de données d'entraînement, qui faussent souvent les résultats en fonction de la qualité et de la diversité des données d'entrée.
Le tableau suivant oppose le processus d'enquête traditionnel à la dépendance souvent défaillante à l'identification automatisée par l'IA :
| Facteur d'enquête | Approche policière traditionnelle | Risque de la police assistée par l'IA |
|---|---|---|
| Collecte de preuves | Vérification multi-facettes | Dépendance à une seule correspondance biométrique |
| Vitesse d'identification | Modérée (Analyse humaine) | Quasi-instantanée (Risque élevé) |
| Contexte humain | Prise de décision tenant compte du contexte | Sensible au biais d'automatisation |
| Base de précision | Preuves physiques recoupées | Probabilité statistique (Faux positifs) |
| Responsabilité du système | Responsabilité juridique clairement définie | Souvent obscurcie par des algorithmes de « boîte noire » |
L'un des aspects les plus préoccupants de l'affaire Lipps est le phénomène connu sous le nom de « biais d'automatisation » (automation bias) — la tendance humaine à favoriser les suggestions des systèmes de prise de décision automatisés et à ignorer les informations contradictoires. Lorsqu'un officier se voit présenter un rapport provenant d'un système d'IA « de haute technologie », il existe une inclination psychologique à accepter ce rapport comme une vérité.
Ce biais déplace de fait la charge de la preuve. Au lieu que la police construise un dossier en utilisant la technologie comme référence secondaire, la technologie devient le moteur principal de l'enquête. Dans l'affaire de Fargo, les autorités ont confirmé avoir utilisé des « étapes d'enquête supplémentaires indépendantes de l'IA », pourtant ces étapes étaient manifestement insuffisantes pour détecter l'erreur, ce qui suggère que le résultat de l'IA a pu ancrer toute l'enquête dans la mauvaise direction dès le départ.
Clearview AI fait face depuis longtemps à l'examen minutieux des organisations de défense des droits civiques, des défenseurs de la vie privée et même des grandes entreprises technologiques. La pratique de la société consistant à extraire des photos de plateformes comme Facebook, YouTube et X (anciennement Twitter) sans le consentement explicite des utilisateurs a déclenché de nombreuses batailles juridiques. Bien qu'un règlement juridique de 2022 ait interdit à l'entreprise de vendre l'accès à des entreprises privées, il a laissé la porte ouverte à la poursuite des partenariats avec les agences d'application de la loi.
Les implications juridiques et éthiques s'accumulent :
L'affaire Angela Lipps devrait servir de signal d'alarme pour les législateurs et les dirigeants des forces de l'ordre. Les outils d'IA sont puissants, mais ce ne sont pas des machines à vérité. Sans cadres réglementaires stricts imposant une vérification humaine (human-in-the-loop), une transparence sur la manière dont les résultats de l'IA sont utilisés et des protocoles de responsabilité clairs pour les arrestations injustifiées, le déploiement de cette technologie risque de porter atteinte aux droits fondamentaux des citoyens mêmes qu'elle est censée protéger.
Alors que les avocats représentant Lipps envisagent une plainte pour violation des droits civiques, la communauté de l'IA au sens large doit faire face au fait que l'innovation ne peut se faire au détriment de la liberté humaine. Pour des sites comme Creati.ai, qui suivent l'évolution de l'intelligence artificielle, le récit est clair : le progrès doit s'accompagner de responsabilité. La technologie, aussi avancée soit-elle, doit rester au service de la loi, et non en être le maître. Tant que de tels garde-fous ne seront pas universellement mis en œuvre, le risque d'une autre arrestation injustifiée (wrongful arrest) reste une certitude statistique, et non une simple possibilité théorique.