L’intelligence artificielle développée en Chine soulève des interrogations sur la neutralité et l’objectivité des intelligences artificielles. DeepSeek opère une censure systématique de la situation des Ouïghours, un groupe ethnique turcophone musulman, qui vit principalement dans la région autonome du Turkestan oriental (Xinjiang), dans l’ouest de la Chine. Cette minorité est violemment réprimée par le gouvernement chinois, cette répression inclut des emprisonnements massifs dans des camps de rééducation, des sévices physiques et psychologiques, ainsi que des tentatives de destruction culturelle et religieuse. Ces actes sont passées sous silence ou minimisées dans les médias contrôlés par Pékin.
DeepSeek, alimentée par d’énormes bases de données et des algorithmes sophistiqués capables d’analyser, de filtrer et de manipuler l’information, est accusée de participer activement à cette censure, cette IA semble systématiquement filtrer et bloquer les informations sur la situation des Ouïghours. Les utilisateurs ont pu remarquer que lorsque l’IA est interrogée sur le sujet, elle s’autocensure. Il y a plusieurs mois, c’est l’application TikTok qui avait été épinglée pour la censure du génocide culturel de cette minorité. Ces IA sont donc capables de détecter des termes, images ou vidéos jugés sensibles par le Parti communiste chinois, et de les bloquer, de les altérer avant la diffusion au public.
