INTELLIGENCE REPORT SERIES APRIL 2026 OPEN ACCESS

SERIES: POLITICAL INTELLIGENCE

L'État surveillant — Ce qui a déjà été construit

Du crédit social chinois à l'article 702 de la FISA, des bases de données de reconnaissance faciale aux marchés des logiciels espions — une analyse fondée sur les données de l'architecture mondiale de surveillance déjà déployée, aussi bien dans les systèmes autoritaires que dans les démocraties.

Reading Time39 min
Word Count7,728
Published7 April 2026
Evidence Tier Key → ✓ Established Fact ◈ Strong Evidence ⚖ Contested ✕ Misinformation ? Unknown
Contents
39 MIN READ
EN FR ES JP DE
01

L'architecture de l'observation
Ce qui a déjà été construit

L'appareil mondial de surveillance n'est pas une projection. C'est une infrastructure opérationnelle — ✓ Fait établi — déployée dans au moins 72 pays évalués par Freedom House, où la liberté d'expression sur internet a reculé durant 15 années consécutives [1]. L'État surveillant n'est pas une métaphore. C'est une réalité mesurable, documentée et en accélération constante, qui opère aussi bien dans les régimes autoritaires que dans les démocraties.

Commençons par la couche physique. Le monde compte désormais environ un milliard de caméras de surveillance — un chiffre qui a doublé depuis 2019. La Chine en exploite quelque 200 millions, mais la densité par habitant révèle une réalité plus instructive encore. Les États-Unis comptent 15,28 caméras de vidéosurveillance pour 100 habitants, contre 14,36 pour la Chine [2]. ✓ Fait établi Le Royaume-Uni, souvent cité comme référence en matière de surveillance démocratique, en compte 7,5 pour 100 personnes. La City de Londres — un seul arrondissement — affiche 75,31 caméras pour 1 000 habitants [2]. Ces installations ne sont pas théoriques. Elles sont actives, interconnectées et reliées de manière croissante à des systèmes de reconnaissance faciale.

La couche commerciale se déploie en parallèle. Le marché mondial de la reconnaissance faciale a atteint 9,3 Mrd $ en 2025 et devrait s'élever à 36,75 Mrd $ d'ici 2035 — soit un taux de croissance annuel composé de 14,73  ;% [14]. ✓ Fait établi Plus de 176 millions d'Américains utilisent déjà la technologie de reconnaissance faciale, et sept gouvernements sur dix dans le monde la déploient de manière intensive [14]. Quatre-vingt-dix pour cent des smartphones devraient intégrer la reconnaissance biométrique faciale, soit plus de 800 millions d'appareils à l'échelle mondiale. La couche biométrique n'est pas en train d'émerger. Elle est déjà là.

Derrière les caméras se trouve l'infrastructure de données. Les transactions financières sont surveillées en temps réel via les réseaux SWIFT et les systèmes de lutte contre le blanchiment d'argent. Les métadonnées des télécommunications sont conservées et consultables en vertu des mandats de renseignement. Les plateformes de réseaux sociaux génèrent des profils comportementaux à grande échelle. Les données de localisation sont collectées par des courtiers commerciaux et revendues aux gouvernements. La convergence de ces systèmes — surveillance physique, identification biométrique, surveillance financière et traçage numérique — constitue une architecture de surveillance d'une portée sans précédent. Aucune civilisation antérieure n'avait jamais possédé la capacité technique de surveiller sa population avec une telle résolution.

L'architecture diffère selon les régimes dans son cadrage juridique. La Chine présente ses systèmes comme des mécanismes de gouvernance sociale et de confiance économique. Les démocraties occidentales présentent les leurs comme des outils de sécurité nationale, d'application de la loi et d'innovation commerciale. Mais les capacités techniques sont structurellement convergentes — et dans plusieurs dimensions mesurables, l'appareil occidental dépasse celui de la Chine, tant en profondeur qu'en portée. Ce rapport examine ce qui existe, comment cela fonctionne, et ce que les données révèlent quant à son évolution.

15,28
Caméras de vidéosurveillance pour 100 habitants aux États-Unis
Comparitech, 2025 · ✓ Fait établi
9,3 Mrd $
Valeur du marché mondial de la reconnaissance faciale en 2025
Mordor Intelligence, 2025 · ✓ Fait établi
60 Mrd
Images faciales dans la base de données constituée par Clearview AI
Clearview AI Litigation, 2025 · ✓ Fait établi
15 ans
Années consécutives de recul de la liberté d'internet dans le monde
Freedom House, 2025 · ✓ Fait établi

L'ampleur de ce qui a été construit est difficile à surestimer. La seule infrastructure de données — la base de 60 milliards d'images de Clearview AI, la plateforme de crédit chinoise comptant 80,7 milliards de dossiers, le registre biométrique indien couvrant 1,38 milliard de personnes — représente un bond quantique dans la capacité des États et des entreprises à identifier, localiser et suivre les individus. La question qui s'ensuit n'est pas de savoir si cette infrastructure pourrait être utilisée à des fins autoritaires. Elle l'est déjà en puissance. La vraie question est de savoir si les contraintes juridiques et institutionnelles censées prévenir un tel usage sont à la hauteur de l'architecture qu'elles sont censées contenir.

02

Le modèle chinois
Le crédit social entre mythe et réalité

Le système chinois de crédit social est à la fois moins et plus que ce que décrivent les médias occidentaux — ◈ Preuves solides — non pas un score orwellien unique, mais un réseau fragmenté de listes noires, de régimes de conformité pour les entreprises et de programmes pilotes locaux, dont beaucoup ont été discrètement abandonnés [3].

Le récit populaire — un score numérique unique attribué à chaque citoyen, déterminant son accès aux transports, au logement et à l'éducation — est largement inexact. ◈ Preuves solides En janvier 2026, la plupart des expériences globales de notation individuelle avaient pris fin, et le redouté score national citoyen ne s'était pas matérialisé [15]. Ce qui existe est considérablement plus nuancé — et dans sa dimension commerciale, considérablement plus étendu qu'on ne le comprend généralement. La Plateforme nationale de partage d'informations sur le crédit a collecté plus de 80,7 milliards de dossiers couvrant environ 180 millions d'entreprises [3]. ✓ Fait établi

Le système fonctionne principalement par inscription sur liste noire plutôt que par notation. Environ 200 000 personnes supplémentaires ont été inscrites sur liste noire en 2025, dont 46  ;% pour des litiges contractuels — et non pour dissidence politique [15]. L'inscription sur liste noire entraîne des conséquences spécifiques  ; : restrictions sur les voyages en avion et en train, limitation des achats de luxe et obstacles à certaines activités commerciales. Le mécanisme est ciblé et punitif plutôt qu'universellement noté — plus proche d'un bureau de crédit doté de pouvoirs coercitifs que du panoptique dystopique de l'imaginaire occidental.

En mars 2025, la direction du Parti communiste a publié une directive en 23 points visant explicitement à améliorer le système de crédit social — mais en accordant une attention notable aux garanties concernant la sécurité de l'information, les droits individuels et les protections contre la collecte excessive de données [3]. Cela n'indique pas une libéralisation. Cela indique que même Pékin reconnaît les risques politiques d'un excès de surveillance incontrôlé — une reconnaissance qui devrait donner à réfléchir aux gouvernements occidentaux, dont les propres systèmes font l'objet de contraintes internes bien moindres.

◈ Preuves solides Le redouté score national citoyen en Chine ne s'est jamais matérialisé — le système fonctionne par listes noires ciblées, et non par notation universelle

En janvier 2026, la plupart des expériences globales de notation individuelle avaient pris fin. L'axe opérationnel principal du système s'est déplacé vers la conformité des entreprises, avec 80,7 milliards de dossiers couvrant 180 millions d'entreprises [3]. Les 200 000 personnes inscrites sur liste noire en 2025 étaient soumises à des restrictions fondées sur des comportements spécifiques, et non à des scores de vie déterminés algorithmiquement [15].

L'appareil de surveillance chinois s'étend cependant bien au-delà du crédit social. Les quelque 200 millions de caméras de vidéosurveillance chinoises — la seule ville de Taiyuan en comptant 117 pour 1 000 habitants [2] — sont de plus en plus intégrées à la reconnaissance faciale, à l'analyse de la démarche et à la prédiction comportementale pilotée par l'intelligence artificielle. Les programmes Skynet et Sharp Eyes visent à assurer une couverture complète des espaces publics urbains. Au Xinjiang, ces technologies ont été déployées comme instruments de persécution ethnique — ✓ Fait établi — documentée par Amnesty International, Human Rights Watch et le Haut-Commissariat des Nations Unies aux droits de l'homme [7].

Le modèle chinois n'est donc pas un système unique mais un écosystème  ; : le crédit social pour la gouvernance économique, la reconnaissance faciale pour la surveillance physique, la censure d'internet pour le contrôle de l'information, et la répression ciblée pour la gestion politique. Il est plus fragmenté et moins techniquement cohérent que le récit populaire ne le laisse entendre — mais sa portée cumulée est formidable. La question que cela soulève pour les observateurs démocratiques est de savoir si les systèmes occidentaux, assemblés par des processus différents et pour des objectifs déclarés différents, ont abouti à une destination structurellement similaire.

Les données suggèrent que oui — et que sur certains points, ils l'ont dépassée.

Le cas du Xinjiang mérite une attention particulière car il illustre le plafond opérationnel de la surveillance intégrée. Dans cette région, des points de contrôle à reconnaissance faciale, le balayage de téléphones mobiles, la collecte de données biométriques et des algorithmes de police prédictive ont été déployés comme instruments de contrôle ethnique contre les populations ouïghoures et d'autres musulmans turcophones. Le Haut-Commissariat des Nations Unies aux droits de l'homme a documenté ces pratiques dans une évaluation historique publiée en 2022. Les composantes technologiques utilisées au Xinjiang — reconnaissance faciale, prédiction comportementale, bases de données biométriques, interception des communications — ne sont pas propres à la Chine. Chacune d'entre elles possède un équivalent commercial occidental. La différence tient à la décision politique de les déployer contre une population définie. C'est cette décision, et non la technologie, qui distingue la surveillance de la persécution.

03

Le miroir occidental
La surveillance démocratique à grande échelle

Les États-Unis effectuent trois millions de recherches sans mandat sur leurs propres citoyens chaque année en vertu d'une seule autorité de surveillance — ✓ Fait établi — un programme initialement justifié comme outil de lutte contre le terrorisme qui englobe désormais le contrôle de l'immigration, les enquêtes sur les stupéfiants et le renseignement au sens large [4].

L'article 702 du Foreign Intelligence Surveillance Act autorise la NSA à collecter les communications de cibles étrangères — mais en pratique, cela entraîne la collecte de quantités considérables de données américaines. En avril 2024, le Congrès n'a pas seulement réautorisé l'article 702  ; : il l'a étendu par le biais du Reforming Intelligence and Securing America Act (RISAA), élargissant la définition du terme «  ;fournisseur de services de communications électroniques  ;» et autorisant l'utilisation des données de surveillance à des fins de contrôle de l'immigration et de lutte contre les stupéfiants [4]. Dix mille personnes disposent désormais de l'autorité pour interroger la base de données. En février 2025, un tribunal fédéral a statué que des mandats seraient nécessaires pour les recherches concernant des citoyens américains — mais le programme continue de fonctionner pendant que les contestations judiciaires suivent leur cours. L'article 702 expire en avril 2026, et une audition parlementaire en décembre 2025 a évalué de possibles réformes [4].

Le système britannique fonctionne en parallèle. Le Government Communications Headquarters (GCHQ) a demandé et obtenu l'accès aux données collectées par la NSA au titre de l'article 702, et son propre projet Tempora fournit environ 10  ;% de la collecte de la NSA. Fait capital, les données collectées par le GCHQ ne sont pas soumises aux restrictions américaines, permettant un arrangement réciproque dans lequel les services de renseignement de chaque nation collectent des données que le cadre juridique de l'autre lui interdit de recueillir directement [4]. ◈ Preuves solides

Affirmer que la vie privée ne vous importe pas parce que vous n'avez rien à cacher revient à dire que la liberté d'expression ne vous importe pas parce que vous n'avez rien à dire.

— Edward Snowden, Permanent Record, 2019

L'Investigatory Powers Act britannique — mis à jour en avril 2024 — va encore plus loin. Les codes de pratique amendés incluent l'obligation pour les opérateurs de télécommunications de pouvoir «  ;supprimer le chiffrement  ;» de tous les contenus de leurs services, y compris des messages chiffrés de bout en bout [13]. En pratique, cela signifie que le Home Office peut exiger des entreprises qu'elles insèrent des portes dérobées dans les systèmes chiffrés. Lorsque le gouvernement britannique a émis une notification secrète de capacité technique exigeant qu'Apple modifie le chiffrement de son service iCloud, Apple a choisi de supprimer sa fonctionnalité Advanced Data Protection du Royaume-Uni — à compter de février 2025 — plutôt que de compromettre la sécurité de l'ensemble de ses utilisateurs [13]. ✓ Fait établi

L'implication structurelle est profonde. Un gouvernement démocratique a exigé d'une entreprise privée qu'elle affaiblisse le chiffrement protégeant des centaines de millions d'utilisateurs. L'entreprise a refusé — mais ce faisant, elle a retiré les protections de sécurité à l'ensemble d'un pays. Les citoyens britanniques disposent désormais de moins de protection par chiffrement que les citoyens de la plupart des autres démocraties développées, non pas en raison d'un mandat de type chinois, mais à cause de l'exigence de leur propre gouvernement d'un accès à des fins de surveillance.

Le paradoxe du chiffrement

L'exigence de porte dérobée du Royaume-Uni a produit un résultat pervers  ; : Apple n'a pas obtempéré à l'injonction de surveillance mais a supprimé les protections de chiffrement pour tous les utilisateurs britanniques. Le résultat est une population disposant d'une sécurité affaiblie face aux hackers criminels et aux États hostiles — précisément les menaces contre lesquelles le gouvernement prétendait se protéger. Aucun système de chiffrement à «  ;accès légal exclusif  ;» n'a jamais démontré sa faisabilité technique.

La police prédictive représente une autre dimension de la surveillance occidentale sans équivalent direct dans les démocraties chinoises. Des algorithmes entraînés sur des données historiques de criminalité sont utilisés pour orienter les ressources policières vers des lieux spécifiques et, dans certains cas, pour signaler des individus particuliers afin qu'ils fassent l'objet d'un examen renforcé. Les données sur l'efficacité sont accablantes. Les taux de précision varient entre 90  ;% dans les études académiques contrôlées et 0,6  ;% dans le déploiement réel du logiciel Geolitica du département de police de Plainfield [7]. ⚖ Contesté L'opération LASER de Los Angeles a été abandonnée après qu'un audit a révélé l'absence de preuves suffisantes d'une réduction de la criminalité et a documenté des préoccupations relatives aux droits civiques  ; : application incohérente, opacité et absence de responsabilisation.

Le mécanisme d'amplification des biais est bien documenté. Les données historiques sur la criminalité reflètent de manière disproportionnée les pratiques policières dans les communautés de couleur. Les algorithmes entraînés sur ces données dirigent des ressources policières supplémentaires vers ces mêmes communautés, générant davantage d'arrestations, ce qui renforce le biais des données dans un cycle auto-entretenu [7]. ◈ Preuves solides La technologie n'élimine pas le biais humain. Elle l'industrialise.

L'alliance de renseignement des Five Eyes — qui regroupe les États-Unis, le Royaume-Uni, le Canada, l'Australie et la Nouvelle-Zélande — formalise l'architecture de surveillance réciproque au niveau des traités. Chaque État membre collecte des données que les cadres juridiques domestiques des autres membres leur interdisent de recueillir sur leurs propres citoyens. Ces données sont ensuite partagées via des canaux de renseignement, contournant effectivement les protections de la vie privée de toutes les nations participantes. Ce n'est pas une théorie du complot. C'est un arrangement opérationnel documenté, confirmé par les révélations de Snowden et les enquêtes parlementaires ultérieures au Royaume-Uni, en Australie et en Allemagne [4]. ✓ Fait établi L'architecture juridique de la vie privée démocratique est ainsi sapée non pas par la législation d'une seule nation, mais par l'accord coopératif entre agences de renseignement alliées pour collecter ce que chacune est individuellement interdite de collecter.

L'enquête d'Amnesty International et de S.T.O.P., publiée en novembre 2025, a documenté que le département de police de New York utilisait des outils de surveillance — dont la reconnaissance faciale et la surveillance des réseaux sociaux — contre des manifestants et des communautés de couleur de manière contraire à la politique du département et aux protections constitutionnelles [7]. Plus de 170 organisations dans le monde ont appelé à l'interdiction des technologies de surveillance biométrique. Pourtant, la technologie continue de proliférer, portée par les mêmes incitations commerciales qui font du marché des courtiers en données — estimé à plus de 200 milliards de dollars annuels — l'une des industries les moins réglementées et les plus déterminantes de l'économie mondiale.

04

L'épine dorsale commerciale
Quand les entreprises deviennent l'infrastructure

L'État surveillant n'opère pas exclusivement via les agences gouvernementales. Ses composantes les plus étendues sont commerciales — ✓ Fait établi — construites par des entreprises privées qui vendent des capacités de surveillance aux gouvernements tout en exploitant simultanément les données des citoyens à des fins lucratives [5].

Clearview AI constitue l'étude de cas la plus instructive. L'entreprise a constitué une base de données de plus de 60 milliards d'images faciales en aspirant systématiquement des photographies issues de plateformes de réseaux sociaux, de sites d'information et d'autres sources en ligne accessibles au public — sans la connaissance ni le consentement des personnes représentées [5]. ✓ Fait établi Cette base de données est vendue aux services de police, et en 2025, Clearview a signé un contrat de 10 millions de dollars avec le Department of Homeland Security — son plus grand contrat fédéral à ce jour [5]. Les conséquences des erreurs ne sont pas théoriques  ; : au moins huit personnes ont été arrêtées à tort en 2026 du fait de faux positifs générés par l'application.

La réponse juridique a été substantielle mais insuffisante. En mars 2025, un juge fédéral américain a approuvé un règlement collectif national accordant aux membres du groupe une participation en capital de 23  ;% dans Clearview AI, évaluée à environ 51,75 millions de dollars [5]. En septembre 2024, l'Autorité néerlandaise de protection des données a infligé à Clearview une amende de 30,5 millions d'euros pour avoir constitué une base de données illégale au regard du RGPD [5]. Pourtant, l'entreprise continue de fonctionner, sa base de données continue de s'agrandir et ses contrats gouvernementaux continuent de se développer. Les amendes constituent, en pratique, un coût d'exploitation.

✓ Fait établi Clearview AI a constitué une base de données de reconnaissance faciale comportant 60 milliards d'images en aspirant internet sans consentement

Malgré un règlement collectif de 51,75 millions de dollars, une amende RGPD de 30,5 millions d'euros et au moins huit arrestations injustifiées provoquées par des faux positifs, Clearview AI a signé un contrat de 10 millions de dollars avec le Department of Homeland Security en 2025 et continue d'étendre sa base de données et sa clientèle gouvernementale [5].

Palantir Technologies représente la couche d'intégration. Fondée avec des fonds propres de la CIA, la plateforme Gotham de Palantir agrège des données issues de bases de données gouvernementales disparates dans un environnement analytique unifié. Les contrats fédéraux de l'entreprise sont passés de 4,4 millions de dollars en 2009 à 970,5 M $ en 2025 — une multiplication par 220 en 16 ans [10]. ✓ Fait établi En juillet 2025, l'armée américaine a accordé à Palantir un contrat de 10 Mrd $ sur dix ans, consolidant 75 contrats existants et accordant à l'entreprise l'accès à toutes les bases de données et opérations de l'armée [10].

Pour le contrôle de l'immigration, Palantir a développé ImmigrationOS — un système de 30 millions de dollars pour l'ICE qui intègre les passeports, les numéros de sécurité sociale, les dossiers de l'IRS, les données de plaques d'immatriculation, le suivi des téléphones mobiles et la reconnaissance faciale dans une seule plateforme [10]. Les organisations de défense des libertés civiles ont averti que de tels systèmes, une fois construits pour cibler une population, peuvent facilement être étendus à n'importe quelle autre. L'infrastructure ne fait pas la distinction entre ses cibles déclarées et tout le reste. Elle traite simplement des données.

L'industrie des courtiers en données constitue la chaîne d'approvisionnement. Des chercheurs de l'université Duke ont démontré que des données sensibles sur des militaires américains en service actif — incluant noms, adresses personnelles, géolocalisation, patrimoine net et religion — pouvaient être achetées auprès de courtiers commerciaux pour aussi peu que 0,12 dollar par dossier [6]. ✓ Fait établi Une enquête conjointe de 2024 menée par WIRED, Bayerischer Rundfunk et Netzpolitik.org a révélé que des courtiers en données vendaient des données de localisation permettant de suivre des militaires dans des bases américaines à l'étranger — y compris leurs déplacements vers des lieux hors base tels que des écoles, des bars et des adresses privées [6].

L'échec de sécurité nationale à 0,12 dollar

Pour douze centimes de dollar, un adversaire étranger peut acheter le nom, l'adresse personnelle, la géolocalisation, le patrimoine net et l'appartenance religieuse d'un militaire américain en service actif. Sans aucune opération de piratage. Sans aucune opération de renseignement. Les données sont disponibles dans le commerce auprès de courtiers légaux opérant aux États-Unis. Ce n'est pas une faille dans le système. C'est le système qui fonctionne comme prévu.

Le réseau de sonnettes connectées Ring d'Amazon étend la surveillance commerciale au niveau résidentiel. L'entreprise a établi des partenariats avec 2 161 services de police et de pompiers via son portail Neighbors Public Safety Service, permettant aux forces de l'ordre de demander des images de n'importe quelle caméra Ring dans une zone géographique et une période données — sans mandat, ordonnance du tribunal ni aucune forme de procédure judiciaire [12]. ✓ Fait établi En avril 2025, Ring a lancé de nouvelles intégrations policières avec Axon, permettant aux agents de demander des images directement via le système de gestion des preuves d'Axon. Les images Ring ont été utilisées pour surveiller des manifestants [12].

Le système Aadhaar indien illustre la convergence de la surveillance étatique et commerciale à l'échelle nationale. La base de données biométriques couvre 1,38 milliard de personnes — 96  ;% de la population — ce qui en fait le plus grand système d'identification biométrique de l'histoire humaine [11]. ✓ Fait établi En octobre 2023, les données biométriques d'environ 850 M d'Indiens ont été divulguées sur le dark web — la plus importante fuite de données biométriques connue de l'histoire [11]. En février 2025, le gouvernement indien a commencé à accorder aux entreprises privées l'accès à la technologie de reconnaissance faciale d'Aadhaar — étendant l'architecture de surveillance d'un outil d'État à une plateforme commerciale, sans législation complète de protection des données en vigueur.

05

Le marché des logiciels espions
Les États comme hackers

L'industrie mondiale des logiciels espions a transformé la surveillance gouvernementale d'une opération de renseignement d'origine électromagnétique en un service commercial — ✓ Fait établi — permettant à tout État disposant d'un budget suffisant de déployer des capacités d'intrusion de niveau militaire contre des journalistes, des dissidents et des opposants politiques [8].

Le logiciel espion Pegasus du groupe NSO demeure le cas le mieux documenté. Le Pegasus Project — une enquête collaborative menée par Forbidden Stories et 17 organisations médiatiques — a identifié plus de 1 000 propriétaires de téléphones apparaissant sur une liste de cibles divulguée  ; : 189 journalistes, 85 militants des droits de l'homme, 65 dirigeants d'entreprise et plus de 600 politiciens et responsables gouvernementaux [8]. ✓ Fait établi Pegasus est un exploit dit «  ;zéro-clic  ;»  ; : il ne nécessite aucune action de la cible pour s'installer, offre un accès complet à l'appareil — y compris la caméra, le microphone, les messages et la localisation — et fonctionne de manière invisible. Des enquêtes ont confirmé son déploiement dans plus de 50 pays [8].

En décembre 2024, un tribunal américain a déclaré le groupe NSO responsable d'attaques contre environ 1 400 utilisateurs de WhatsApp. En mai 2025, un jury a ordonné à NSO de verser 167,3 M $ de dommages punitifs et 444 719 dollars de dommages compensatoires à Meta Platforms [8]. ✓ Fait établi Pourtant, au début de l'année 2026, le groupe NSO cherche activement à pénétrer le marché américain — des investisseurs américains ayant pris le contrôle de l'entreprise fin 2025, celle-ci publiant un «  ;rapport de transparence  ;» pour plaider son retrait de la liste des entités américaines et son entrée dans les contrats fédéraux.

Le Consortium Intellexa — un réseau international complexe d'entreprises commercialisant le logiciel espion Predator — a opéré via Chypre, Singapour et la Hongrie pour contourner les restrictions commerciales. Le Trésor américain a sanctionné des personnes et des entités associées à Intellexa en 2024 pour avoir ciblé des Américains, notamment des responsables gouvernementaux, des journalistes et des experts en politiques publiques [8]. Toutefois, en décembre 2025, l'administration Trump a levé les sanctions contre trois dirigeants liés à Intellexa — annulant partiellement les mesures de responsabilisation [8]. ⚖ Contesté En mars 2026, un tribunal grec a condamné des dirigeants d'Intellexa, dans ce que des observateurs ont qualifié de tournant mondial pour la responsabilité dans le secteur des logiciels espions.

2013
Révélations Snowden — Edward Snowden révèle les programmes de surveillance de masse de la NSA, notamment PRISM et XKeyscore, exposant l'ampleur de la collecte de données auprès des entreprises technologiques.
2016
Investigatory Powers Act (Royaume-Uni) — Surnommé la «  ;Charte des fouineurs  ;», cette loi légalise la collecte de données en masse, l'interférence avec les équipements et l'interception des communications par les agences de renseignement britanniques.
2018
Scandale Cambridge Analytica — Il est révélé que des consultants politiques ont collecté les données Facebook de 87 millions d'utilisateurs sans leur consentement pour des publicités politiques ciblées.
2019
Clearview AI démasqué — Le New York Times révèle que Clearview AI a aspiré des milliards d'images faciales depuis les réseaux sociaux pour constituer un outil de reconnaissance faciale destiné aux forces de l'ordre.
2021
Pegasus Project — Un consortium de 17 organisations médiatiques révèle que le logiciel espion Pegasus du groupe NSO a été utilisé pour cibler des journalistes, des politiciens et des militants dans plus de 50 pays.
2023
Fuite Aadhaar — 850 M de données biométriques indiennes divulguées sur le dark web — la plus importante fuite de données biométriques connue de l'histoire.
2024
Règlement européen sur l'IA et extension de la FISA — L'UE interdit la surveillance biométrique en temps réel dans les espaces publics. Le Congrès américain étend simultanément les pouvoirs de surveillance au titre de l'article 702 via le RISAA.
2025
Porte dérobée de chiffrement au Royaume-Uni — Le gouvernement britannique émet une notification secrète de capacité technique à Apple exigeant une porte dérobée dans iCloud. Apple supprime l'Advanced Data Protection pour les utilisateurs britanniques.
2025
Contrat de 10 Mrd $ pour Palantir — L'armée américaine accorde à Palantir un contrat d'une décennie consolidant 75 programmes, lui accordant l'accès à toutes les bases de données et opérations de l'armée.
2025
Condamnation du groupe NSO — Un jury ordonne au groupe NSO de verser 167,3 M $ de dommages punitifs à Meta pour les attaques Pegasus contre 1 400 utilisateurs de WhatsApp.

L'entreprise israélienne de criminalistique numérique Cellebrite offre un autre vecteur. Son outil UFED permet aux forces de l'ordre d'extraire des données de smartphones verrouillés, et il a été vendu à des gouvernements dont les antécédents en matière de droits de l'homme sont documentés comme préoccupants. En février 2025, Cellebrite a suspendu ses services en Serbie après qu'Amnesty International a documenté que les services de sécurité serbes utilisaient l'outil pour cibler des journalistes et des militants de la société civile [7]. Le Bangladesh a dépensé un montant estimé à 190 millions de dollars en logiciels de surveillance et espions entre 2015 et 2025, dont au moins 40 millions provenant de technologies d'origine israélienne — des achats qui ont augmenté avant les élections nationales de 2018 et 2024 [7].

Le marché des logiciels espions fonctionne comme un multiplicateur de force pour la gouvernance autoritaire. Un pays dépourvu de la capacité technique de développer ses propres outils de surveillance peut simplement les acheter. Les régimes de contrôle des exportations censés empêcher cela — l'Arrangement de Wassenaar, les désignations de la liste des entités américaines, les réglementations européennes sur les exportations — se sont avérés poreux. Les entreprises de logiciels espions se restructurent via des entités-écrans dans de multiples juridictions. Les sanctions imposées par une administration sont levées par la suivante. Le marché persiste parce que la demande persiste — et la demande persiste parce que la surveillance est politiquement utile pour les gouvernements de toutes les orientations idéologiques.

La porte tournante des sanctions

Le Trésor américain a sanctionné des dirigeants d'Intellexa en 2024 pour avoir déployé des logiciels espions contre des responsables américains et des journalistes. En décembre 2025, l'administration Trump entrante a levé les sanctions contre trois de ces mêmes dirigeants. Les contrôles à l'exportation et les sanctions fonctionnent comme des gestes politiques temporaires plutôt que comme des contraintes durables. L'industrie des logiciels espions a démontré qu'elle pouvait survivre aux efforts de responsabilisation de n'importe quelle administration.

06

La réponse réglementaire
Des lois qui peinent à suivre la machine

Le règlement européen sur l'IA représente la tentative la plus ambitieuse de réguler les technologies de surveillance — ✓ Fait établi — interdisant l'identification biométrique à distance en temps réel dans les espaces publics à partir de février 2025 et imposant des amendes pouvant atteindre 35 millions d'euros ou 7  ;% du chiffre d'affaires annuel mondial [9]. Mais même la réglementation phare européenne contient des compromis structurels qui en limitent l'efficacité.

Le règlement européen sur l'IA est entré en vigueur le 1er août 2024, les pratiques interdites — notamment la notation sociale, l'IA manipulatrice et l'identification biométrique à distance en temps réel — devenant applicables à partir du 2 février 2025 [9]. ✓ Fait établi Le règlement interdit explicitement la manipulation nuisible, le scraping non ciblé d'images faciales, la reconnaissance des émotions dans les lieux de travail et les établissements scolaires, et la catégorisation biométrique fondée sur des caractéristiques sensibles. Pour les forces de l'ordre, l'interdiction de l'identification biométrique à distance en temps réel dans les espaces accessibles au public constitue la mesure phare — et elle est réellement significative.

Mais les exceptions comptent. La police peut toujours utiliser la reconnaissance faciale en temps réel pour retrouver des personnes disparues, prévenir des menaces terroristes imminentes et localiser des suspects dans le cadre d'enquêtes criminelles graves [9]. L'identification biométrique post-distance — l'analyse des images de surveillance après les faits — est simplement classée comme présentant un «  ;risque élevé  ;», et non interdite. Cette distinction est capitale. Un système qui enregistre le visage de chacun et analyse les images 24 heures plus tard est fonctionnellement identique à un système en temps réel dans sa capacité de surveillance. Il introduit simplement un délai de traitement. L'atteinte à la vie privée, c'est l'enregistrement lui-même, et non le moment de l'analyse.

✓ Fait établi Le règlement européen sur l'IA interdit la surveillance biométrique en temps réel mais autorise l'analyse post-distance — une distinction sans réelle différence en termes de protection de la vie privée

Si l'identification biométrique à distance en temps réel dans les espaces publics est interdite depuis février 2025, la reconnaissance faciale post-distance — l'analyse d'images enregistrées après les faits — est simplement classée comme «  ;à risque élevé  ;» au titre du règlement européen sur l'IA [9]. L'infrastructure de surveillance demeure intacte  ; ; seule la vitesse d'analyse est réglementée.

Aux États-Unis, la réglementation est si fragmentée qu'elle en devient dysfonctionnelle. Aucune loi fédérale ne régit la reconnaissance faciale. Aucune loi fédérale ne réglemente de manière globale les courtiers en données. L'article 702 a été étendu plutôt que réformé. Le Biometric Information Privacy Act (BIPA) de l'Illinois a produit le règlement Clearview AI, mais il demeure une exception au niveau des États plutôt qu'une norme nationale. L'Autorité européenne de lutte contre le blanchiment de capitaux (AMLA), créée en 2024 et devenue opérationnelle en 2025, représente une avancée vers une surveillance financière centralisée — mais son mandat consiste explicitement à renforcer les capacités de surveillance, et non à les contraindre [9].

L'évaluation 2025 de Freedom House est sans équivoque  ; : même parmi les pays classés comme «  ;Libres  ;», la moitié a connu un recul de la liberté d'internet durant la période couverte [1]. ✓ Fait établi Des gouvernements répressifs comme ceux du Myanmar, de la Russie et du Venezuela ont bloqué la plateforme de messagerie chiffrée Signal en 2024. Mais des gouvernements démocratiques ont également imposé des restrictions aux outils de protection de la vie privée — la demande britannique de porte dérobée de chiffrement en étant l'exemple le plus marquant. La tendance réglementaire dans l'ensemble du spectre démocratique s'oriente vers davantage de capacités de surveillance, et non vers moins — avec l'UE comme contre-exemple partiel et imparfait.

L'approche australienne illustre une philosophie réglementaire différente. Le pays a interdit les réseaux sociaux aux enfants de moins de 16 ans en décembre 2025 — une mesure qui nécessite une vérification de l'âge à grande échelle du côté des plateformes. Bien que présentée comme une législation de protection de l'enfance, l'infrastructure de vérification de l'âge implique nécessairement des systèmes de vérification d'identité susceptibles d'être détournés à des fins de surveillance plus large. Le même gouvernement qui a adopté l'interdiction des réseaux sociaux a également promulgué la loi sur les télécommunications et autres amendements législatifs (Assistance and Access Act) en 2018, qui — à l'instar de l'IPA britannique — habilite les agences de sécurité à contraindre les entreprises à fournir un accès aux communications chiffrées. Le schéma est cohérent dans les démocraties  ; : la législation sécuritaire crée l'infrastructure de surveillance, et la législation sur la sécurité publique l'étend.

RisqueGravitéÉvaluation
Expansion des bases de données biométriques
Critique
La base de 60 Mrd d'images de Clearview AI, les 1,38 Mrd de dossiers Aadhaar indiens et la prolifération des systèmes gouvernementaux de reconnaissance faciale créent une infrastructure d'identification irréversible sans mécanisme de suppression effectif.
Érosion du chiffrement
Critique
Les exigences de portes dérobées du Royaume-Uni, combinées à des propositions législatives similaires en Australie et dans l'UE, menacent d'affaiblir systématiquement le chiffrement qui protège les systèmes financiers, les communications personnelles et les infrastructures critiques.
Prolifération des technologies de surveillance
Élevé
Les outils Pegasus, Predator et Cellebrite sont exportés vers des régimes autoritaires malgré les contrôles nominaux à l'exportation. Les sanctions sont appliquées et levées selon les cycles politiques, et non sur la base d'évaluations des droits.
Fragmentation réglementaire
Élevé
Aucune loi fédérale américaine ne régit la reconnaissance faciale ni les courtiers en données. La faille post-distance du règlement européen sur l'IA compromet son interdiction biométrique. La coordination internationale demeure minimale malgré la nature mondiale des marchés de surveillance.
Convergence commercial-étatique
Moyen
Le contrat de 10 Mrd $ de Palantir avec l'armée et les 2 161 partenariats policiers de Ring illustrent une confusion croissante entre surveillance commerciale et étatique qui échappe aux cadres de supervision traditionnels.

Le paysage réglementaire révèle une asymétrie structurelle. L'infrastructure de surveillance est construite par des entreprises privées bien financées et des agences de renseignement opérant à grande échelle et à grande vitesse. La réglementation est élaborée par des législatures fonctionnant selon le processus de délibération démocratique — un processus intrinsèquement plus lent, plus contraint et plus exposé au lobbying des industries. Le règlement européen sur l'IA a mis quatre ans pour passer de la proposition à l'application. Durant cette période, la base de données de Clearview AI est passée de 3 milliards à 60 milliards d'images. La machine devance la loi par conception.

07

Le territoire contesté
Sécurité contre liberté en 2026

Le débat sur la surveillance n'oppose pas ceux qui veulent la sécurité à ceux qui n'en veulent pas — ⚖ Contesté — il oppose ceux qui croient que l'infrastructure peut être limitée à ses objectifs déclarés à ceux qui soutiennent que l'infrastructure elle-même constitue la menace, quelles que soient les intentions actuelles [1].

Les partisans d'une capacité de surveillance étendue avancent plusieurs arguments qui méritent un examen sérieux. Les agences de maintien de l'ordre soulignent de réels besoins opérationnels  ; : la reconnaissance faciale a permis d'identifier des auteurs d'exploitation infantile, de localiser des personnes disparues et de résoudre des crimes violents. Les douanes et la protection des frontières américaines ont traité plus de 300 millions de voyageurs grâce à la comparaison biométrique de visages et ont arrêté plus de 1 800 imposteurs à l'entrée du territoire [14]. ✓ Fait établi Les agences de renseignement font valoir que la surveillance des communications a permis de déjouer des complots terroristes, d'intercepter des transferts d'armes et de fournir des alertes précoces sur les actions d'États hostiles. Ces affirmations ne sont pas fabriquées. Elles sont cependant sélectivement présentées — et l'analyse coûts-bénéfices qu'elles omettent est déterminante.

Le contre-argument n'est pas que la surveillance n'a aucun bénéfice. C'est que l'infrastructure nécessaire pour produire ces bénéfices crée des risques qui les dépassent. L'observation d'Edward Snowden — «  ;Aucun système de surveillance de masse n'a existé dans une société que nous connaissons jusqu'à présent sans avoir été détourné à des fins abusives  ;» — n'est pas une affirmation théorique. C'est une affirmation historique [1]. ◈ Preuves solides L'article 702 de la FISA a été créé pour lutter contre le terrorisme. Il est désormais utilisé pour le contrôle de l'immigration et les enquêtes sur les stupéfiants. Les sonnettes Ring ont été vendues pour la sécurité résidentielle. Elles servent désormais à surveiller des manifestants. Aadhaar a été conçu pour la distribution des aides sociales. Ses données de reconnaissance faciale sont désormais accessibles aux entreprises privées. Le schéma est constant  ; : les outils de surveillance s'étendent au-delà de leur mandat initial.

Ces programmes n'ont jamais eu pour objet le terrorisme  ; : ils portent sur l'espionnage économique, le contrôle social et la manipulation diplomatique. Ils sont une question de pouvoir.

— Edward Snowden, Témoignage devant le Parlement européen, 2014

L'argument sécuritaire

Efficacité antiterroriste
Les agences de renseignement citent des complots déjoués et des menaces interceptées comme preuve que la collecte de masse fonctionne. Le système biométrique des douanes américaines a arrêté plus de 1 800 imposteurs aux frontières.
Lutte contre l'exploitation infantile
La reconnaissance faciale et la criminalistique numérique ont permis d'identifier des auteurs d'abus et de secourir des victimes. Le Department of Homeland Security affirme que le contrat avec Clearview AI est limité à l'identification de prédateurs sexuels sur mineurs.
Personnes disparues et crimes violents
La reconnaissance faciale a permis d'identifier des victimes de la traite des êtres humains et de résoudre des affaires non élucidées. L'identification en temps réel a permis de localiser des enfants enlevés.
Prévention de la criminalité financière
La surveillance SWIFT et les systèmes de lutte contre le blanchiment interceptent le blanchiment d'argent, le financement du terrorisme et le contournement des sanctions. La norme ISO 20022 améliore la précision du contrôle des transactions.
Une supervision démocratique existe
Les tribunaux FISA, les commissions parlementaires, les autorités de protection des données et le contrôle judiciaire constituent des garde-fous. Le règlement européen sur l'IA démontre qu'une régulation démocratique est possible.

L'argument libertaire

La dérive des usages est universelle
L'article 702 a été créé pour le terrorisme. Il couvre désormais l'immigration et les stupéfiants. Ring était destiné à la sécurité résidentielle. Il sert désormais à surveiller des manifestants. Chaque outil étend son périmètre au-delà de son mandat initial.
Arrestations injustifiées et biais racial
Au moins 8 personnes arrêtées à tort via Clearview AI. Les taux d'erreur de la reconnaissance faciale sont les plus élevés pour les individus à peau sombre. La police prédictive industrialise les biais existants.
La collecte de masse est intrinsèquement disproportionnée
3 millions de recherches sans mandat sur des citoyens américains chaque année au titre de l'article 702, ce n'est pas de la surveillance ciblée — c'est une surveillance de masse dotée d'un vernis juridique. 10 000 personnes détiennent une autorité de recherche.
Les incitations commerciales supplantent les garde-fous
Les courtiers en données vendent des données de localisation militaires pour 0,12 dollar. Les 970,5 M $ de contrats de Palantir créent une dépendance. Le modèle de revenus de l'industrie de la surveillance impose l'expansion, et non la retenue.
La supervision a échoué
Les tribunaux FISA ont historiquement approuvé 99,97  ;% des demandes. Les exigences de porte dérobée britanniques étaient secrètes. Les sanctions Intellexa ont été levées au bout d'un an. Les contrôles démocratiques existent sur le papier mais s'effondrent dans la pratique.

Les données empiriques penchent décisivement en faveur de l'argument libertaire — non pas parce que les bénéfices sécuritaires sont imaginaires, mais parce que chaque indicateur mesurable montre que l'infrastructure de surveillance s'étend dans sa portée, se rétrécit dans sa supervision et résiste à toute contrainte significative une fois déployée. Le cadre théorique de la responsabilité démocratique ne correspond pas à la réalité opérationnelle de la façon dont ces systèmes sont effectivement utilisés, élargis et exemptés de tout contrôle. ◈ Preuves solides

En outre, l'argument du «  ;je n'ai rien à cacher  ;» recèle une erreur logique fondamentale. La vie privée n'est pas le droit de dissimuler des actes répréhensibles. C'est le droit d'exister sans être observé. La valeur de la vie privée n'est pas conditionnée à l'existence d'éléments à cacher — elle tient à l'asymétrie de pouvoir entre l'observateur et l'observé. Un gouvernement capable de surveiller toutes les communications peut identifier la dissidence avant qu'elle ne s'organise, cibler l'opposition avant qu'elle ne se mobilise et brider la liberté d'expression sans jamais poursuivre un seul dossier. La surveillance n'a pas besoin d'être utilisée pour être efficace. Son existence suffit.

Le système de crédit social chinois a été construit sur la prémisse que la surveillance globale améliore la confiance sociale. Les systèmes de surveillance occidentaux sont construits sur la prémisse que la surveillance globale améliore la sécurité nationale. Les prémisses diffèrent. L'infrastructure est structurellement identique. Et le bilan historique ne montre aucun exemple d'une société ayant construit une telle infrastructure et ayant définitivement renoncé à l'utiliser pour le contrôle social.

08

Ce que l'infrastructure révèle
La logique structurelle du contrôle

L'État surveillant n'est pas un risque futur — c'est une architecture présente dont la trajectoire est mesurable ✓ Fait établi. Ce que les données révèlent n'est pas une conspiration mais une logique structurelle  ; : la capacité de surveillance, une fois construite, s'étend parce que chaque incitation dans le système — commerciale, politique, bureaucratique — favorise l'expansion plutôt que la retenue [1].

La convergence structurelle entre la surveillance autoritaire et la surveillance démocratique est la conclusion centrale de cette analyse. La Chine exploite un système de crédit social fragmenté axé sur la conformité des entreprises et les listes noires ciblées. Les États-Unis exploitent un système de surveillance fragmenté axé sur la sécurité nationale et l'application de la loi — mais avec 3 millions de recherches sans mandat sur les citoyens chaque année, un contractant de surveillance privé pesant 970 M $ et 60 milliards d'images faciales aspirées dans une base de données commerciale, les capacités fonctionnelles sont comparables. Le Royaume-Uni exige des portes dérobées de chiffrement. L'Inde laisse fuiter 850 M de données biométriques. Les courtiers en données vendent les localisations de militaires pour quelques centimes. La distinction entre ces systèmes et celui de la Chine n'est pas une question de capacité. C'est une question de contrainte juridique — et ces contraintes s'érodent manifestement.

3 M
Recherches sans mandat annuelles sur des citoyens américains au titre de l'article 702
EFF, 2024 · ✓ Fait établi
970,5 M $
Valeur des contrats fédéraux de Palantir en 2025
State of Surveillance, 2025 · ✓ Fait établi
850 M
Données biométriques indiennes divulguées lors de la fuite de 2023
CDT, 2024 · ✓ Fait établi
167,3 M $
Dommages accordés contre le groupe NSO pour le logiciel espion Pegasus
Meta v. NSO Group, 2025 · ✓ Fait établi
◈ Preuves solides L'infrastructure de surveillance occidentale égale ou dépasse désormais les capacités chinoises dans plusieurs dimensions mesurables

Les États-Unis comptent davantage de caméras de vidéosurveillance par habitant (15,28 contre 14,36 pour 100). Les 60 Mrd d'images de Clearview AI éclipsent toute base de données de reconnaissance faciale chinoise connue. Palantir intègre les données de l'ensemble des agences gouvernementales à une échelle que le système de crédit social fragmenté de la Chine n'atteint pas. La différence tient au cadrage juridique, et non à la capacité technique [2] [10].

La dimension commerciale est déterminante. La surveillance dans les démocraties occidentales n'est pas principalement un projet d'État — c'est un marché. Les revenus de Palantir dépendent de l'extension de l'intégration des données gouvernementales. Le modèle économique de Clearview AI exige la croissance de sa base d'images faciales. Les courtiers en données tirent profit de la vente d'informations personnelles toujours plus granulaires. Le réseau Ring d'Amazon génère de la valeur en élargissant ses partenariats policiers. L'industrie commerciale de la surveillance dispose de revenus, d'actionnaires, de lobbyistes et d'objectifs de croissance. Chaque incitation dans le système commercial pousse vers davantage de surveillance, davantage de collecte de données, davantage d'intégration — et l'appareil réglementaire censé contraindre tout cela fonctionne à la vitesse démocratique face à la vélocité commerciale.

Le marché des logiciels espions ajoute une dimension transnationale. Tout gouvernement disposant d'un budget suffisant peut désormais acheter des capacités de surveillance de niveau militaire auprès de fournisseurs commerciaux. Le régime de contrôle des exportations s'est avéré incapable de contenir ce marché. Les sanctions sont appliquées et levées selon les cycles politiques. Les entreprises se restructurent dans plusieurs juridictions pour échapper aux restrictions. Le Pegasus Project a documenté le déploiement dans 50 pays. Le nombre réel est presque certainement plus élevé. La démocratisation des technologies de surveillance n'est pas une caractéristique. C'est une conséquence de conception qui résulte du traitement de la surveillance comme un produit commercial plutôt que comme un système d'armement.

La trajectoire n'est pas ambiguë. La liberté d'internet a reculé pendant 15 années consécutives. Les bases de données de reconnaissance faciale s'enrichissent de milliards d'images chaque année. Les autorités de renseignement sont étendues, et non contraintes. Le chiffrement — la protection de la vie privée de masse la plus efficace qui soit — est soumis à une attaque législative au Royaume-Uni, en Australie et dans l'UE. La réponse réglementaire, là où elle existe, est structurellement dépassée par les forces commerciales et politiques qui alimentent l'expansion de la surveillance.

L'infrastructure est la menace

La question n'est pas de savoir si la Chine, la Russie ou tout autre État autoritaire exploite un appareil de surveillance. Ils le font. La question est de savoir si les sociétés démocratiques ont construit une infrastructure de surveillance susceptible d'être détournée à des fins autoritaires — et si les garanties juridiques et institutionnelles empêchant un tel détournement sont à la hauteur de la tâche. Les données relatives à la dérive des usages de l'article 702, aux exigences de portes dérobées de chiffrement, aux marchés commerciaux des courtiers en données et à la porte tournante des sanctions sur les logiciels espions suggèrent qu'elles ne le sont pas. L'infrastructure a été construite. Les contraintes s'effritent. Ce qui se passe ensuite dépend entièrement de la décision des sociétés démocratiques de démanteler la machine ou de continuer à l'étendre.

L'État surveillant n'est pas un scénario futur. C'est une condition présente. Les caméras sont installées. Les bases de données sont renseignées. Les algorithmes tournent. Les logiciels espions sont déployés. Les courtiers en données vendent. La question qui demeure n'est pas technique. Elle est politique  ; : l'infrastructure sert-elle la société, ou la société sert-elle l'infrastructure  ; ? Les données disponibles en avril 2026 suggèrent que la réponse évolue dans la mauvaise direction — et qu'elle évolue ainsi dans les démocraties comme dans les autocraties.

SRC

Primary Sources

All factual claims in this report are sourced to specific, verifiable publications. Projections are clearly distinguished from empirical findings.

Cite This Report

APA
OsakaWire Intelligence. (2026, April 7). L'État surveillant — Ce qui a déjà été construit. Retrieved from https://osakawire.com/fr/the-surveillance-state-what-is-already-built/
CHICAGO
OsakaWire Intelligence. "L'État surveillant — Ce qui a déjà été construit." OsakaWire. April 7, 2026. https://osakawire.com/fr/the-surveillance-state-what-is-already-built/
PLAIN
"L'État surveillant — Ce qui a déjà été construit" — OsakaWire Intelligence, 7 April 2026. osakawire.com/fr/the-surveillance-state-what-is-already-built/

Embed This Report

<blockquote class="ow-embed" cite="https://osakawire.com/fr/the-surveillance-state-what-is-already-built/" data-lang="fr">
  <p>Du crédit social chinois à l'article 702 de la FISA, des bases de données de reconnaissance faciale aux marchés des logiciels espions — une analyse fondée sur les données de l'architecture mondiale de surveillance déjà déployée, aussi bien dans les systèmes autoritaires que dans les démocraties.</p>
  <footer>— <cite><a href="https://osakawire.com/fr/the-surveillance-state-what-is-already-built/">OsakaWire Intelligence · L'État surveillant — Ce qui a déjà été construit</a></cite></footer>
</blockquote>
<script async src="https://osakawire.com/embed.js"></script>