Depuis sa fondation en 2017, l’entreprise Clearview AI moissonne des photos sur le web, et notamment les réseaux sociaux, afin d’alimenter un gigantesque système de reconnaissance faciale. Dans une interview, son PDG a affirmé que la firme aurait passé plus de 10 milliards d’images au crible, et développerait en ce moment de nouveaux outils basés sur l’IA pour les exploiter. En l’occurrence, il s’agirait d’outils de “défloutage” et de “suppression de masque”. Deux concepts qui présentent un point commun : il s’agit d’extrapolations basées sur des données incomplètes. Avec ces nouveaux outils, Clearview AI semble donc plus intrusif que jamais, mais aussi moins fiable, paradoxalement. Clearview AI est utilisé ou a été utilisé par des agences fédérales américaines et des forces de police (dont la police belge, voir notre article) mais aussi des compagnies privées comme Walmart, la NBA ou des opérateurs télécoms majeurs.

Publicité de Clearview AI

Il y a un an et demi, une liste de clients fuitée établissait que divers services de police et gouvernementaux recouraient à Clearview AI, y compris en Belgique. La nouvelle fut en son temps démentie par la Police Fédérale (voir notre article). Un porte-parole avait à l’époque déclaré qu’à sa connaissance, ce logiciel n’avait jamais été utilisé, qu’il n’y avait aucune preuve qu’il en soit ainsi et qu’on n’envisageait pas de recourir à Clearview AI. Cela apparait comme un mensonge.

En réaction à quelques questions parlementaires, la ministre de l’intérieur a confirmé  que le logiciel de reconnaissance faciale illégal a quand même été utilisé. « En octobre 2019, deux enquêteurs, dans le cadre d’une taskforce Europol d’identification de victimes, ont eu accès à une licence d’essai valable une durée limitée », a reconnu la ministre à la Chambre. Elle insiste cependant sur le fait qu’il ne s’est pas agi d’une utilisation structurelle du logiciel (il s’agirait de « test ») et que la loi belge ne le permet du reste pas. Clearview a collecté et collecte des milliards d’images d’Instagram, Facebook, Twitter et YouTube entre autres et peut ainsi par exemple aisément relier une caméra de surveillance à une identité ou à un profil sur des médias sociaux. Or ces images sont collectées sans autorisation. Aux Etats-Unis notamment, l’entreprise a déjà été mise en accusation, et au Canada, le contrôleur national de la confidentialité déclare que ClearView enfreint la loi (voir notre article).

Publicité de Clearview AI

Une paire de Xaviers, des robots à roues alimentés par l’IA avec des caméras à 360 degrés, se déploieront dans le Toa Payoh Central, très fréquenté par les piétons, pour surveiller la zone à la recherche de “comportements sociaux indésirables” comme fumer, vendre des marchandises à la sauvette, ou sortir en groupes de plus de cinq personnes (interdiction liée aux mesures contre la pandémie). Le robot autonome est équipé de capteurs pour éviter les obstacles de toutes sortes, de caméras pour fournir une puissance vidéo à 360 degrés et d’un tableau de bord pour montrer des détails tels que la batterie du robot et ses signes vitaux. Son itinéraire sera déterminé à l’avance par les agents, qui pourront répondre aux incidents en temps réel grâce à un interphone bidirectionnel intégré au tableau de bord. Le ministre de l’Intérieur de Singapour, K Shanmugam, avait par ailleurs déclaré en août que la cité-État vise à disposer de plus de 200 000 caméras de police d’ici 2030, soit plus du double du nombre actuel.

Une équipe de chercheurs de l’université Ben Gourion s’est spécialisée dans les attaques dites airgap, ou attaques déconnectées, qui visent des systèmes isolés du réseau global, et donc théoriquement inviolables pour un pirate. Ces chercheurs étaient parvenus, l’an dernier, à espionner une conversation en filmant une ampoule. Depuis, ils sont parvenus à capter le son d’un haut-parleur à distance en filmant sa LED d’alimentation. Dans de nombreux appareils, le voyant d’alimentation est connecté directement à la ligne électrique. L’intensité du voyant est donc corrélée à la consommation d’énergie, qui dépend directement du son émis. En braquant un télescope (muni d’un capteur électro-optique et un convertisseur analogique/numérique) sur la LED choisie, les chercheurs ont pu mesurer les variations de son intensité. Un algorithme a ensuite interprétés ces variations et reconstitué le signal sonore…

Cette technique nécessite de savoir quelle intensité de la LED correspond à quel signal sonore. Pour connaître cette donnée, différente pour chaque appareil, il faut donc construire une courbe de réponse, ce qui implique de pouvoir étudier l’appareil en amont. Mais outre cette restriction, le système fonctionne remarquablement bien : les chercheurs sont parvenus à extraire des phrases intelligibles à une distance de 35 mètres. La technique fonctionne avec des enceintes standard, mais pas seulement. Elle est aussi applicable à des appareils domotiques ou des équipements d’une infrastructure réseau.

Amazon prévoit de déployer un logiciel surveillant le rythme de frappe et les mouvements de souris de ses employés du service client. Ce logiciel, appelé BehavioSec, surveille les mouvements naturels effectués par les employés sur leur clavier ou souris afin de détecter tous les comportements inhabituels. Son développement a couté 360 000 dollars et a notamment été poussé par la généralisation du télétravail.

Un dépôt d'Amazon

Un dépôt d’Amazon

Dans plus d’une centaine de comtés des États-Unis, les technologies de la société ShotSpotter est utilisé afin de détecter les potentiels coups de feu se produisant au sein d’une ville (voir notre article). Cette détection acoustique des coups de feu repose sur une série de capteurs, souvent placés sur des lampadaires ou des bâtiments. Si un coup de feu est tiré, les capteurs détectent la signature acoustique spécifique d’un coup de feu et envoient l’heure et le lieu à la police. L’emplacement est mesuré en mesurant le temps qu’il faut au son pour atteindre les capteurs à différents endroits. Selon ShotSpotter, ces informations sont ensuite vérifiées par des experts acoustiques humains pour confirmer que le son est un coup de feu, et non un retour de flamme de voiture, un pétard ou d’autres sons qui pourraient être confondus avec des coups de feu.

Le 31 mai 2020, Safarian Herring, âgé de 26 ans, est mortellement blessé d’une balle dans la tête. La police de Chicago arrête un homme qui soutient qu’il n’est pas l’auteur du crime, mais qu’une fusillade en voiture aurait éclaté. L’élément à charge est une vidéo de surveillance montrant la voiture du suspect, stationné à l’heure et l’endroit où Safarian Herring aurait été abattu. La police a alors déclaré que ShotSpotter a généré une alerte à ce moment précis et à cet endroit précis. Sauf que cette nuit-là, 19 capteurs ShotSpotter ont détecté un son de percussion à 23 h 46 (soit l’heure du crime), mais ont déterminé un emplacement situé à environ 1,5 kilomètre du lieu de l’assassinat. Les algorithmes de la société ont initialement classé le son comme un feu d’artifice. Mais après l’alerte de 23h46, un analyste de ShotSpotter a annulé manuellement les algorithmes et “reclassifié” le son comme un coup de feu. Puis, des mois plus tard et après le post-traitement, un autre analyste de ShotSpotter a changé les coordonnées de l’alerte avec celles du meurtre…

Lorsque ces manipulations ont été révélées, les procureurs ont dû, à la demande de la défense, retiré les « preuves » de ShotSpotter. Ce n’est pas la première affaire de ce genre et de nombreuses ville aux USA ont annulé leur contrat avec ShotSpotter

Apple prévoit déjà d’utiliser des outils de cryptographie pour comparer les photos sur ses iPhone, iPad et son serveur iCloud aux Etats-Unis avec celles entreposées dans un fichier géré par le Centre national des enfants disparus et exploités. Quand une photo semble similaire à celle du fichier, Apple ira manuellement vérifier et enverra un rapport au Centre. Le groupe prévoit par ailleurs de scanner les images envoyées ou reçues via le service de messagerie iMessage sur les comptes d’enfants liés à un abonnement familial pour repérer des photos explicites. Ces outils seront disponibles progressivement avec les prochaines mises à jour des systèmes d’exploitation sur les iPhone, iPad, iWatch et iMac aux Etats-Unis.

Ces changements marquent une rupture significative par rapport aux protocoles de confidentialité et de sécurité établis de longue date. Apple remplace son système de messagerie crypté de bout en bout par une infrastructure de surveillance et de censure, qui est naturellement appelé à s’élargir selon le mécanisme classique qui voit des procédures d’abord appliquées aux pédophiles, puis aux copkillers, puis aux « terroristes », puis à l’ensemble des « criminels » tels que chaque état peut les définir. Il suffit qu’Apple modifie un peu les paramètres pour chercher d’autres types de contenus ou pour scanner les comptes non seulement d’enfants mais aussi de tout le monde. En savoir plus

Image retweeté par Edward Snowden

Le système Glonass, comparable au GPS américain, est un système de positionnement russe, basé sur un réseau globale de satellites et utilisé pour le repérage et la localisation. Il est utilisé aussi en tant que système de positionnement de réserve ou de support et, par rapport au GPS, il peut garantir plus de rapidité pour retrouver une position ainsi que plus de précision. Des anarchistes italiens ont trouvé un appareil dans leur voiture. Relié à l’alimentation du contrôleur, sous le volant, vers la gauche, il était fixé par un aimant, du ruban adhésif et du tissu isolant thermique. Il est composé d’une antenne (QC, dans la photo) reliée à un boîtier récepteur de position multifréquence, qui contient une carte micro SIM. Du même côté, un long câble suivait l’intérieur des revêtements des montants latéraux du pare-brise, jusqu’au ciel de toit. Tout du côté du conducteur. Au bout du fil il y avait deux micros.

La police de Las Vegas (LVMPD), a annoncé avoir résolu le meurtre datant de 1989 grâce à une quantité infime d’ADN couplée à des données généalogiques publiques. L’affaire avait été classée car les échantillons d’ADN trouvés sur la scène de crime n’étaient pas assez volumineux pour les analyser. Dernièrement, ces échantillons ont été confiés à Othram Labs, un laboratoire d’analyses privé spécialisé dans l’analyse de preuves médico-légales dégradées. Les enquêteurs ont envoyé seulement 0,12 nanogramme d’échantillons d’ADN, soit environ 15 cellules, au laboratoire pour trouver une correspondance. Pour comparaison, un kit de test ADN à domicile nécessite en moyenne au moins 750 nanogrammes.

Les enquêteurs ont utilisé la plateforme de séquençage Forensic-Grade Genome Sequencing, développée par Othram Labs, qui combine l’intelligence artificielle et l’exploitation de bases de données pour établir des profils génétiques même lorsque les échantillons sont minimes. Ainsi en combinant cette technologique aux bases de données généalogiques publiques, ils ont réussi à identifier le cousin du suspect puis l’auteur présumé, qui avait laissé son ADN sur une autre scène de meurtre et qui s’était suicidé en 1995.

Plus les jours passent depuis la publication de l’enquête sur le Projet Pegasus, et plus la liste des victimes s’allonge. Le consortium mené par l’organisation Fordidden Stories a notamment pu mettre la main sur une liste comprenant pas moins de 50 000 smartphones infectés par Pegasus. Amnesty International vient de mettre en place un outil vous permettant de vérifier si votre smartphone a été infecté ou non par le logiciel espion. Celui-ci est disponible ici. La vérification peut être assez longue et fastidieuse car l’outil cherche à vérifier en détail chacun de vos fichiers pour voir si Pegasus s’y trouve. Pour l’heure, il s’agit du seul moyen de vérifier si l’on a été contaminé ou non par ce malware. La liste des victimes ne sera en effet jamais rendue publique. De plus, de nombreuses révélations peuvent encore avoir lieu, tandis que les chercheurs s’appliquent toujours à disséquer Pegasus pour en déceler les secrets.