Depuis sa fondation en 2017, l’entreprise Clearview AI moissonne des photos sur le web, et notamment les réseaux sociaux, afin d’alimenter un gigantesque système de reconnaissance faciale. Dans une interview, son PDG a affirmé que la firme aurait passé plus de 10 milliards d’images au crible, et développerait en ce moment de nouveaux outils basés sur l’IA pour les exploiter. En l’occurrence, il s’agirait d’outils de “défloutage” et de “suppression de masque”. Deux concepts qui présentent un point commun : il s’agit d’extrapolations basées sur des données incomplètes. Avec ces nouveaux outils, Clearview AI semble donc plus intrusif que jamais, mais aussi moins fiable, paradoxalement. Clearview AI est utilisé ou a été utilisé par des agences fédérales américaines et des forces de police (dont la police belge, voir notre article) mais aussi des compagnies privées comme Walmart, la NBA ou des opérateurs télécoms majeurs.

Publicité de Clearview AI

Début 2020, à la suite d’une fuite de données, le site américain Buzzfeed avait pu consulter la liste des utilisateurs de la technologie de Clearview. Cette consultation avait montré que le logiciel aurait été utilisé par des organismes gouvernementaux ou des forces de police en Belgique. La police belge aurait ainsi effectué entre 101 et 500 recherches à l’aide de ce programme. La police prétend cependant ne pas avoir utilisé le logiciel. Pour rappel, l’entreprise Clearview a développé une technologie de reconnaissance faciale qui permet de comparer des photos de suspects à une banque d’images contenant plus de 3 milliards de photos. Pour constituer une telle base de donnée, Clearview AI a copié sans autorisation des images privées de millions d’utilisateurs de Facebook, Twitter, YouTube et de plusieurs autres réseaux sociaux (voir notre article).

Publicité de Clearview AI

Un groupe d’ONG, a annoncé avoir saisi les autorités de protection de données de 5 pays Européens (Royaume-Uni, Italie, France, Grèce, Autriche) ce jeudi contre la start-up américaine Clearview AI (précédents articles), qui a constitué une immense base de données de visages (Plus de 3 milliards d’images en 2020) sur base de photos téléchargées automatiquement depuis les réseaux sociaux, des blogs personnels, des sites d’entreprise, etc. Clearview agit hors de tout cadre légal mais met pourtant à disposition des services de police et des institutions financières un service qui leur permet de rechercher des correspondances dans cette immense base de données.

Clearview avait suspendu il y a quelques mois son service au Canada, alors que l’autorité locale de protection des données l’accusait d’exercer une surveillance de masse illégale.

Publicité de Clearview AI

La société technologique états-unienne Clearview AI va cesser d’offrir son service de reconnaissance faciale au Canada, en réaction à une enquête lancée par le bureau du commissaire à la protection de la vie privée. La décision entraîne la suspension, pour une durée indéterminée, de la collaboration entre Clearview AI et la Gendarmerie royale du Canada (GRC), son dernier client au pays. La technologie développée par Clearview AI permet de comparer des photos de suspects à une banque d’images contenant plus de 3 milliards de photos. Pour constituer une telle base de donnée, Clearview AI a copié sans autorisation des images privées de millions d’utilisateurs de Facebook, Twitter, YouTube et de plusieurs autres réseaux sociaux (voir notre article).

Publicité de Clearview AI

Plusieurs corps policiers canadiens ont admis ces derniers jours avoir utilisé  la technologie de reconnaissance faciale développée par Clearview. Cette technologie développée par une entreprise états-unienne permet de comparer des photos de suspects à une banque d’images contenant plus de 3 milliards de photos. Pour constituer une telle base de donnée, Clearview AI a copié sans autorisation des images privées de millions d’utilisateurs de Facebook, Twitter, YouTube et de plusieurs autres réseaux sociaux (voir notre article).  Le Service de police de la Ville de Montréal refuse de confirmer ou d’infirmer s’il en a déjà fait l’utilisation. La police de Toronto et celle d’Ottawa ont admis avoir testé le logiciel. Le chef de police de Toronto, dont le service avait d’abord démenti en faire l’usage, a exigé que cette pratique cesse immédiatement. La Sûreté du Québec, qui a lancé un appel d’offres pour acquérir un logiciel de reconnaissance faciale qui sera en fonction « au plus tard le 30 novembre 2020, prétend n’avoir jamais utilisé Clearview. Le corps policier provincial prétend également ne pas avoir utilisé l’outil.

L’entreprise prend également plusieurs initiatives agressive afin de gagner des parts de marché. Lorsque des corps policiers publient des photos de suspects recherchés, Clearview AI cherche une correspondance grâce à son logiciel, et si elle en trouve une, informe le corps policier du résultat même si ce dernier n’a jamais sollicité ses services. L’entreprise fournit aussi des accès gratuits temporaires à des policiers afin de les convaincre de la puissance du logiciel. L’entreprise a aussi affirmé avoir offert ses services à des institutions financières, sans toutefois donner plus de détail.Publicité de Clearview AI

Il y a un an et demi, une liste de clients fuitée établissait que divers services de police et gouvernementaux recouraient à Clearview AI, y compris en Belgique. La nouvelle fut en son temps démentie par la Police Fédérale (voir notre article). Un porte-parole avait à l’époque déclaré qu’à sa connaissance, ce logiciel n’avait jamais été utilisé, qu’il n’y avait aucune preuve qu’il en soit ainsi et qu’on n’envisageait pas de recourir à Clearview AI. Cela apparait comme un mensonge.

En réaction à quelques questions parlementaires, la ministre de l’intérieur a confirmé  que le logiciel de reconnaissance faciale illégal a quand même été utilisé. « En octobre 2019, deux enquêteurs, dans le cadre d’une taskforce Europol d’identification de victimes, ont eu accès à une licence d’essai valable une durée limitée », a reconnu la ministre à la Chambre. Elle insiste cependant sur le fait qu’il ne s’est pas agi d’une utilisation structurelle du logiciel (il s’agirait de « test ») et que la loi belge ne le permet du reste pas. Clearview a collecté et collecte des milliards d’images d’Instagram, Facebook, Twitter et YouTube entre autres et peut ainsi par exemple aisément relier une caméra de surveillance à une identité ou à un profil sur des médias sociaux. Or ces images sont collectées sans autorisation. Aux Etats-Unis notamment, l’entreprise a déjà été mise en accusation, et au Canada, le contrôleur national de la confidentialité déclare que ClearView enfreint la loi (voir notre article).

Publicité de Clearview AI

Une société américaine possède une base de données de 3 milliards de photos qui ont été mises à la disposition de plus de 600 services de police et entreprises privées depuis l’année dernière. Clearview AI a collecté ces photos sur des millions de sites internet publics, tels que Facebook, Youtube et Twitter. En transmettant une photo à Clearview, on peut obtenir d’autres clichés de la même personne, avec les liens de publication. L’entreprise indique qu’elle a 600 clients, sans fournir de détails sur leur identité. Sur son site internet, seuls les propos élogieux d’un détective de la brigade des moeurs de la police canadienne sont mentionnés. Avec 3 milliards de photos, Clearview AI dépasserait de loin les bases de données similaires utilisées pour la reconnaissance faciale.

Publicité de Clearview AI