Des chercheurs de l’université de Columbia ont démontré, grâce à l’intelligence artificielle, que les empreintes digitales possèdent une signature commune à tous les doigts d’un même individu. L’équipe de Columbia a entraîné une intelligence artificielle sur des centaines d’empreintes digitales provenant de différentes personnes. Au fil de cet apprentissage, l’IA a développé la capacité d’identifier avec une précision dépassant 80 % que des empreintes de doigts différents appartenaient à une même personne. L’IA ne se limite pas donc pas aux « minuties » (bifurcations, îlots ou terminaisons de lignes) qui sont depuis toujours les points de repère des experts humains pour identifier une empreinte digitale. L’IA a réussi à observer ce que l’œil humain ne peut pas détecter : des similitudes dans les angles et les courbures près du centre des empreintes digitales.

Cette découverte pourrait transformer radicalement les enquêtes polcières en permettant de relier une empreinte à un suspect dont on ne possède que l’empreinte d’un autre doigt. Des milliers d’affaires non résolues pourraient potentiellement être réouvertes. Avec le taux actuel de réussite de 80 %, cette méthode n’est pas mûre pour une utilisation devant un tribunal, mais l’équipe pense qu’avec un entraînement plus approfondi, l’IA pourrait atteindre une précision quasi parfaite. Outre les applications policières, les applications de cette découvertes sont multiples (déverrouillage des appareils avec n’importe quel doigt, sécurité renforcée contre les tentatives d’usurpation, fiabilité supérieure dans divers environnements, etc.)

La répression des étudiants pro-palestiniens a mis en lumière la politique sécuritaire des universités américaines. L’une des plus grandes universités publiques du pays, l’Université de l’Illinois à Urbana-Champaign (UIUC), poursuit actuellement des manifestants dans des campements en utilisant des preuves issues de logiciels d’espionnages. Sa police, le département de police de l’Université de l’Illinois (UIPD) disposait d’un budget total de 13,5 millions de dollars pour l’exercice 2022-2023. 2 300 caméras sont actuellement installées sur le campus. L’université a récemment obtenu une subvention fédérale de près d’un million de dollars pour la création d’un « centre de lutte contre la criminalité en temps réel » qui permet de visionner les caméras de surveillance, d’effectuer des recherches dans les bases de données et d’utiliser des lecteurs de plaques d’immatriculation. L’UIPD a envoyé des photos d’un étudiant manifestant au Centre de renseignement et de lutte contre le terrorisme de la police d’État de l’Illinois, qui les a analysées par un logiciel de reconnaissance faciale.

Depuis au moins 2021, l’Université de l’Illinois a conclu un contrat avec Cellebrite, l’entreprise israélienne  de technologies de surveillance. L’université a renouvelé son contrat en novembre 2024, pour l’utilisation des logiciels Digital Collector et Inspector (un outil qui recherche l’historique Internet, les téléchargements, les localisations, les recherches récentes, etc.) pour 17 464,40 $. Ce renouvellement de contrat intervient après plus d’un an de génocide à Gaza et est en opposition directe aux préoccupations des étudiants, qui tentent d’obtenir depuis 2020, en vain, un référendum sur le boycott académique d’Israël. L’université est donc une cliente fidèle d’une entreprise complice des violations des droits humains en Palestine et ailleurs. Cellebrite a récemment vendu pour 54 millions de dollars d’outils à l’ICE, qui peuvent être utilisés pour la répression migratoire de Trump.

Le Service de police du Nunavik (SPN) souhaite s’équiper d’une nouvelle technologie de capteurs biométriques afin de surveiller les signes vitaux des personnes incarcérées dans une cellule. Le porte-parole du SPN a exposé que ces capteurs doivent aider à faire la différence entre quelqu’un qui est endormi et quelqu’un inconscient suite à un problème de surdose (cinq personnes sont mortes d’une intoxication à l’alcool dans les cellules des postes de police du Nunavik depuis 2017). Mais l’usage de cette technologie est susceptible de s’élargir avec le monitoring H24 en temps réel d’une population carcérale.

Outseer, un leader dans le domaine de l’authentification et de la prévention des fraudes pour la banque numérique et les transactions sécurisées, a intégré la capacités de biométrie comportementale dans sa plateforme. Cela ajoute une couche supplémentaire de protection qui analyse en permanence les interactions des utilisateurs afin de détecter les anomalies en temps réel. Outseer, qui protège 120 milliards de dollars de transaction par an, devait s’adapter aux évolutions des fraudes – encouragée par la numérisation des paiements, l’apparition des données personnelles dans le Dark Web, la menace croissante des escroqueries en ligne et de la fraude autorisée, ainsi que les progrès comme l’IA générative. La nouvelle capacité de biométrie comportementale d’Outse associe les informations sur le comportement avec d’autres signaux contextuels de fraude. La plateforme activée par l’IA traite tout l’éventail des signaux de fraude critique, y compris les événements de données, les identités de dispositifs, le protocole Internet géographique et les données de consortium.

La société d’informatique légale (forensics) israélienne Cellebrite a récemment annoncé qu’elle empêchait désormais la Serbie d’utiliser sa technologie. Fin 2024, la police serbe avait en effet déverrouillé les téléphones de dizaines de journalistes et d’activistes grâce à ses outils avant, dans certains cas, de les infecter avec le logiciel espion Novispy pour continuer à les surveiller. Développée pour les forces de l’ordre et les entités gouvernementales, la suite de produits Cellebrite UFED permet d’extraire des données de divers appareils mobiles, même sans disposer des codes d’accès de l’utilisateur (voir nos articles). Dans son communiqué, Cellebrite explique qu’elle se conforme aux sanctions imposées par les États-Unis, l’Union européenne, le Royaume-Uni « et d’autres réglementations et contrôles à l’exportation » qui interdisent de faire des affaires avec certaines nations

En Iran, l’État fait appel à un recours accru à la technologie et à la surveillance, pour imposer le port du hijab. A l’université Amirkabir de Téhéran, les caméras de sécurité ont été doublées d’un logiciel de système de reconnaissance faciale pour signaler les femmes ne portant par le hijab. Une application nommé « Nazer » qui permet de signaler la présence de femmes non voilées dans des véhicules, notamment des ambulances, des bus, des rames de métro et des taxis. Les utilisateurs peuvent indiquer le lieu, la date, l’heure et le numéro de plaque d’immatriculation du véhicule dans lequel l’infraction présumée au port obligatoire du hijab a été commise. Le véhicule est alors signalé en ligne et la police est alertée. Par ailleurs, en avril 2024, à Téhéran et dans le sud de l’Iran, les autorités ont eu recours à la surveillance aérienne par drone pour contrôler le respect du port du hijab.

Le groupe belge a déposé lundi une “offre ferme de prise de contrôle majoritaire” de l’entreprise Verney-Carron détenue par le groupe français Cybergun au terme de plusieurs mois de négociations. La reprise prévue de 70% du capital de Verney-Carron Développement par FN Browning s’accompagnera de plusieurs millions d’euros d’investissement dans l’usine de Saint-Etienne. Créé en 1820, Verney-Carron est le dernier fabricant français d’armes de petit calibre. Longtemps spécialisée dans les armes de chasse, la manufacture a conçu, produit et commercialisé le flash-ball. Elle a aussi produit 10 000 fusils d’assaut pour l’Ukraine.

 

En février 2017 les USA emploient pour la première fois une arme secrète pour tuer un dirigeant d’al-Qaïda en Syrie. Deux ans plus tard, on apprenait l’existence de l’AGM-114 R9X « Ginsu volant », une version du missile antichar Hellfire ayant la particularité de déployer six longues lames tranchantes repliées dans sa coiffe avant de toucher sa cible. Et comme il ne porte pas de charge explosive, le risque de dommages collatéraux est quasiment inexistant.

Le R9X a ensuit été utilisé plusieurs fois, et notament le 21 février dernier contre un dirigeant du groupe jihadiste Hourras al-Din [lié à al-Qaida], dans le nord-ouest de la Syrie, alors qu’il circulait dans la zone d’occupation turque et le 25 contre un cadre militaire du même groupe. Pour la première fois une vidéo de la frappe a été diffusée (voir ici).

Des chercheurs américains ont mis au point un procédé informatique qui permet d’identifier une personne en analysant ses ondes cérébrales. Le procédé est composé d’une série de 500 images et de mots, tel que « pizza », un bateau ou encore une photo de Kim Kardashian. Les ondes produites par le système nerveux mesurées lors des testes pour chaque image ou mot étaient propres à un individu, au point que le système informatique a pu identifier chaque personne avec un taux de fiabilité de 100%. « Nous pensons que notre technique pourrait être utilisée dans des lieux de haute sécurité, comme l’entrée au Pentagone ou sur la baie d’un lancement nucléaire », explique Sarah Laszlo, chercheuse de l’Université de Binghamton, à New York. Les ondes cérébrales pourraient ainsi remplacer les empreintes digitales ou rétiniennes, qui peuvent être imitées ou détournées.

L’affaire opposant La Quadrature du Net à la ville de Moirans, en Isère, s’achève par une décision reconnaissant l’illégalité du logiciel de vidéosurveillance algorithmique Briefcam. La justice ordonne à la commune de cesser immédiatement l’utilisation de ce logiciel. Le logiciel de Briefcam est installé en toute opacité dans de très nombreuses communes de France. Techniquement, il permet d’appliquer des filtres algorithmiques sur les images de vidéosurveillance pour suivre ou retrouver les personnes en fonction de leur apparence, leurs vêtement, leur genre ou encore leur visage via une option de reconnaissance faciale.

Depuis des années, La Quadrature du Net dénonce cette vidéosurveillance algorithmique (VSA) comme outil inefficace et utilisé surtout pour le contrôle des populations dans l’espace public. Cette décision d’illégalité permet aux habitant·es des villes comme Saint-Denis, Reims ou encore Brest qui ont choisi de mettre en place ce type de surveillance algorithmique, d’en demander l’arrêt immédiat.