mercredi 24 mars 2010

L’art de faire parler les caméras de surveillance

Paru sur Numéro Lambda le 20 mars 2010.


Deux affaires se sont téléscopées la semaine dernière avec en toile de fond l’extrême fragilité de la preuve par l’image en matière de vidéosurveillance. Comme quoi même quand les caméras sont aveugles ou complètement neutres, il y a toujours un moyen de les faire parler.

D’abord le procès de l’incendie du centre de rétention de Vincennes, qui s’est conclu le 17 mars par la condamnation de dix personnes à des peines allant de 8 mois à 3 ans de prison ferme, malgré les doutes sur l’identification formelle des prévenus par les images vidéos d’un centre de rétention. Ensuite la farce politico-médiatique du ministère de l’Intérieur, «l’incroyable erreur» entourant l’enquête de la mort d’un policier à Dammarie-les-Lys qui serait liée à l’ETA. Des pompiers catalans en vacances ont été pris pour des terroristes sur la seule foi d’une caméra de supermarché — et d’un logiciel de reconnaissance à qui les flics ont trop fait confiance.

Dans notre billet du mois dernier sur la « cécité juridique » de la vidéosurveillance, nous évoquions la qualité médiocre des images de 9 caméras qui ont servi à identifier dix prévenus accusés d’avoir mis le feu à leur propre prison (le CRA de Vincennes). Et pourtant, selon la défense et quelques journalistes, c’est sur cette seule base (la vidéo) que les prévenus ont été identifiés, et donc condamnés le 17 mars par la 16eme chambre correctionnelle du TGI de Paris (leurs avocats ont fait appel). Comme l’avance un autre témoin du procès, dommage que le box réservé aux journalistes «a été étrangement déserté pendant les trois demi-journées d’audience pendant lesquelles ont été visionnées les bandes de vidéosurveillance».

L’affaire de Dammarie, elle, est d’autant plus exemplaire que le ministère de l’Intérieur a exigé des médias, par «réquisition» — fait exceptionnel — qu’ils diffusent ces images aléatoires pour accélérer l’identification. France 3 a diffusé des extraits de cette «réquisition»«prions et au besoin requérons … de bien vouloir diffuser publiquement l’ensemble des éléments…» — signée de la SDAT, la sous-direction antiterroriste de la police judiciaire, installée dans les locaux de la DCRI (ex-DST) à Levallois.





On y voit le patron de la police nationale, Frédéric Pechenard, nous prendre à témoin : «Vous avez vu ces images, elles ne sont pas parfaites… On y voit des gens qui ont le même profil, jeunes, Espagnols… Les uns sont Catalans, les autres Basques… Ce qui explique la confusion… Et puis dans une enquête criminelle on sait très bien qu’un témoignage, c’est fragile.»

Si elles ne sont pas parfaites, pourquoi enjoindre les médias à les reproduire. Si ce n’est risquer d’alimenter la confusion. En outre, sa remarque sur le «profil» des personnes présentes sur les images, ou que l’on serait en mesure de pouvoir identifier avec la vidéosurveillance — « jeunes » et « Espagnols », mêmes « profils » — relève ni plus ni moins que du délit de faciès.

En fait, ce « profil » est le fruit d’une autre étape de l’investigation qui n’a été que très partiellement évoqué dans les journaux télévisés… Le journaliste Claude-Marie Vadrot, de Politis, avance que les policiers de la SDAT ont eu recours à un logiciel de reconnaissance faciale pour arriver à la conclusion que ces pompiers pouvaient être de vrais terroristes.

Ensuite comme ils n’avaient aucun élément sérieux pour repérer qui que ce soit, les policiers ont demandé à utiliser un logiciel de reconnaissance expérimental. Logiciel (élaboré à Sophia-Antipolis, dans le sud de la France) qui permet au moins deux choses. D’abord de « reconnaître » des individus dont les photos et les profils anthropométriques de quelques milliers de suspects figurent dans la base de données. Ce qui a permis d’isoler rapidement les faux suspects simplement parce qu’ils ont à peu prés le même âge et le même aspect. Il ne suffisait plus aux policiers français qu’à les « reconnaître » une fois désignés. Au point que la police a immédiatement fourni le nom d’un suspect (Arkaitz Agirrebiria) qui, effectivement, figurait dans la base de données du logiciel de reconnaissance. La police espagnole a immédiatement confirmé, partant du principe que les collègues français ne pouvaient se tromper. D’autre part, ce logiciel de reconnaissance ou un autre (ce point reste obscur) a été appliqué également aux images. Sa particularité : il fait partie de ceux, mis notamment au point en Allemagne, permettent de « mesurer » (sic), le degré d’inquiétude, le degré d’agitation, les mimiques suspectes des personnes filmées. (…)


C’est un grand classique: l’oeil humain étant par définition faillible, le recours à la machine doit absolument dissiper les doutes. Un excès de confiance, ou une foi aveugle dans la technique qui ne fait souvent qu’amplifier la confusion. C’est ce qui s’est passé dans le cas des pompiers catalans. Cela fait partie des limites inhérentes à tout système de reconnaissance. Les pompiers catalans sont devenus ce qu’on appelle des « faux positifs »: des personnes innocentes identifiés comme étant les individus recherchés. Selon l’étude australienne déjà citée, le taux moyen de faux positif (FAR ou False Acceptance Rate) peut facilement atteindre 1 pour 1000 pour un logiciel de base. Pas mal en théorie, mais plus la base de données est importante, plus le nombre d’erreurs risque d’être élevé… Et en l’espèce, une erreur = une personne. Il suffit de plus que les images « témoin » soient de mauvaise qualité, comme c’est le cas dans n’importe quel réseau de surveillance vidéo, et ce taux d’erreur peut être dix fois plus élevé (1 pour 100), voire 20 ou 30 fois (ce qui correspond à 200 ou 300 « faux positifs » sur une base de données de 10.000 suspects).

Le fiasco est d’autant plus complet que le chef de la police a justement décidé de dégainer, pour les besoins de cette enquête, la fameuse «réquisition» pour obliger les médias à diffuser ces images.



de → A suivre

Aucun commentaire:

Enregistrer un commentaire