Accusé de vol chez IKEA à cause de la reconnaissance faciale : « C’est une machine stupide »

Un père de famille londonien de 59 ans sort d’une réunion caritative. Il marche dans la rue avec un ami. Trois policiers l’encerclent et l’accusent d’avoir volé pour 300 livres de marchandises chez IKEA — un vol commis huit mois plus tôt, de l’autre côté de la ville. La raison de cette interpellation ? Un algorithme de reconnaissance faciale qui l’a confondu avec le vrai suspect. Ce qui a suivi est un cauchemar administratif et judiciaire de plusieurs mois.
Interpellé en pleine rue par trois policiers
Le 16 octobre 2025, Colin McMahon quitte une réunion de l’association Crisis, une ONG britannique qui lutte contre le sans-abrisme. Il descend Harlesden High Street, dans le nord-ouest de Londres, quand il remarque un imposant van de la police équipé de caméras et une forte présence policière.

« La minute d’après, trois policiers m’ont encerclé en m’accusant d’un vol commis en février, de l’autre côté de Londres », raconte-t-il. Le système utilisé par la Metropolitan Police s’appelle Retrospective Facial Recognition (RFR). Son principe : comparer les photos d’identité judiciaire stockées dans les fichiers de police avec des images issues de scènes de crime ou de vidéosurveillance. Ce jour-là, l’algorithme a estimé que le visage de Colin correspondait à celui d’un homme filmé en train de sortir du magasin IKEA de Greenwich avec des articles volés le 4 février 2025.
Le problème, c’est que Colin McMahon n’a jamais mis les pieds dans ce magasin ce jour-là. Ancien couvreur aujourd’hui domicilié à Cricklewood, il se trouvait à une réunion des Alcooliques Anonymes au moment exact du vol. Des cas similaires d’erreurs d’identification aux conséquences dramatiques ont déjà fait la une ces dernières années. Mais pour Colin, le calvaire ne faisait que commencer.
24 heures en cellule, puis un procès
Après son arrestation, Colin est conduit au commissariat de Wembley. Il y passe 24 heures en garde à vue avant d’être officiellement inculpé de vol. Les documents judiciaires, que le père de famille a partagés avec la presse britannique, révèlent les éléments sur lesquels la police s’est appuyée pour justifier l’interpellation.

Selon les notes des enquêteurs, Colin portait « les mêmes lunettes, présentait des traits faciaux similaires, une corpulence mince et des chaussures blanches comparables » à celles du suspect filmé par la vidéosurveillance d’IKEA. Des similitudes qui, sur le papier, semblaient suffisantes. Sauf que Colin a immédiatement protesté : l’homme sur la vidéo était « plus maigre » et « marchait différemment ».
Malgré ses protestations, la machine judiciaire s’est mise en marche. L’affaire a traîné pendant des mois, bien au-delà de Noël. « J’ai dû gérer ça pendant toutes les fêtes. C’est un gaspillage d’argent public », s’indigne-t-il. Cette situation rappelle le cas d’une grand-mère américaine emprisonnée cinq mois après avoir été désignée à tort par un système d’intelligence artificielle similaire.
« Quand il m’a montré la vidéo, j’ai su immédiatement que ce n’était pas moi »
Le 26 février 2026, Colin McMahon comparaît devant le tribunal des magistrats de la City de Londres. Le procès dure une seule journée. Et le verdict tombe sans ambiguïté : l’homme filmé en train de quitter IKEA Greenwich avec 300 livres de marchandises volées n’est pas Colin McMahon.
« Quand le policier m’a montré la vidéo, à moi et à mon avocat, j’ai su immédiatement que ce n’était pas moi », confie-t-il. Le soulagement est réel, mais partiel. « C’était un bon sentiment de soulagement, mais je n’ai toujours pas tourné la page. » Car au-delà de l’erreur judiciaire, ce sont les conséquences sur sa santé qui l’inquiètent le plus.
Depuis son arrestation, Colin affirme s’être rendu dix fois à l’hôpital. Il suit désormais une thérapie pour traiter le traumatisme lié à cette épreuve. « J’étais totalement abasourdi et confus », se souvient-il. Le stress a aussi ravivé d’anciens démons. « Si ça m’était arrivé quand j’avais seulement un ou deux ans de sobriété, je serais retourné boire. » D’autres personnes internées par erreur ont également témoigné de séquelles psychologiques durables.
À lire aussi
L’ancien couvreur affirme aujourd’hui avoir peur de sortir de chez lui, par crainte d’être à nouveau arrêté. Et il ne compte pas en rester là.
La reconnaissance faciale en question
Le système RFR utilisé par la police londonienne n’est pas un outil de condamnation. La Metropolitan Police le présente comme un « générateur de pistes d’investigation ». Chaque correspondance identifiée par l’algorithme est censée être vérifiée par un humain avant qu’une action soit entreprise. En théorie, les taux de précision sont élevés — à condition que les images de référence soient de bonne qualité.

Mais quand la qualité des images de vidéosurveillance est faible, la fiabilité chute. Et c’est précisément le scénario qui a piégé Colin McMahon. Des lunettes identiques, une silhouette vaguement comparable et des chaussures blanches ont suffi pour qu’un algorithme transforme un bénévole caritatif en suspect de vol à l’étalage. Le même type de confusion liée à l’IA pose problème dans d’autres domaines, y compris en France.
Colin, lui, compare le système aux anciennes « sus laws » — ces lois britanniques des années 1970-80 qui permettaient à la police d’arrêter et de fouiller n’importe qui sur simple suspicion, et qui avaient été massivement critiquées pour leur caractère discriminatoire. « Ce n’est pas normal d’arrêter des gens dans la rue sur la base de ressemblances trouvées par une machine stupide. Ça pourrait faire basculer quelqu’un qui a des problèmes de santé mentale. »
La police change ses règles, Colin veut une indemnisation
Contactée par la presse, la Metropolitan Police a reconnu que « faire l’objet d’une enquête policière peut être difficile » et dit « ne pas sous-estimer l’impact que ce type d’expérience peut avoir sur les individus ». Un porte-parole a précisé qu’une « révision planifiée » du cadre d’utilisation du RFR avait abouti à une mise à jour des procédures en mars 2026, « afin de garantir une utilisation efficace de la technologie tout en protégeant les droits et libertés des personnes ».
Autrement dit : la police admet implicitement que le système avait besoin d’être encadré plus strictement. Mais pour Colin McMahon, des excuses institutionnelles ne suffisent pas. Il réclame une compensation financière et affirme qu’il ne considérera l’affaire comme close que lorsqu’il l’aura obtenue. Des précédents existent : aux États-Unis, des victimes d’erreurs similaires ont obtenu des indemnités substantielles.
En attendant, l’affaire McMahon illustre un paradoxe croissant. La reconnaissance faciale est présentée comme un outil au service de la sécurité publique. Mais quand elle se trompe, c’est un citoyen ordinaire — un père de deux enfants, bénévole pour les sans-abri, ancien alcoolique en rémission — qui en paie le prix. Et les conséquences, elles, ne s’effacent pas d’un simple clic sur « supprimer la correspondance ».
Avec la multiplication de ces technologies dans l’espace public, y compris en France où la collecte de données biométriques fait régulièrement débat, la question reste la même : qui contrôle les machines qui nous identifient ? Et surtout, qui répare quand elles se trompent ?