Files
archicratie-edition/src/content/cas-ia/chapitre-1.mdx
Archicratia bb9f55a3b5
All checks were successful
SMOKE / smoke (push) Successful in 6s
CI / build-and-anchors (push) Successful in 44s
CI / build-and-anchors (pull_request) Successful in 41s
feat(glossaire): extend taxonomy and align Astro 6 content config
2026-03-12 12:04:46 +01:00

536 lines
108 KiB
Plaintext
Raw Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
title: "Chapitre I — Épreuve de détectabilité"
edition: "cas-ia"
status: "application"
level: 1
version: "0.1.0"
concepts: []
links: []
order: 120
summary: ""
source:
kind: docx
path: "sources/docx/cas-ia/Cas_Pratique-Archicratie_et_gouvernance_des_systemes_IA-Chapitre_1_Epreuve_de_detectabilite.docx"
---
# I. Épreuve de détectabilité : *arcalité / cratialité / archicration* dans un système dIA
Lépreuve de détectabilité ne consiste pas à ajouter une couche de vocabulaire au-dessus dun dispositif déjà saturé de termes techniques. Elle exige, au contraire, un geste presque naïf : *où voit-on quelque chose ? Où peut-on désigner, avec un minimum de précision, ce qui fonde, ce qui opère et ce qui met en épreuve ?* Tant que ces trois prises restent indiscernables ou introuvables, l*archicratie* nest pas simplement déficitaire ; elle est empêchée. Appliquée à un grand système dIA de fondation, lépreuve de détectabilité commande une micro-cartographie patiente des lieux, des moments et des interfaces où Système F se rend effectivement présent ou, plus souvent, se déploie sans se déclarer.
## I.1. Scénarisation structurée du système IA
Lenjeu de cette section nest pas dinventer un futur hypothétique, mais de composer un cas stylisé à partir déléments déjà avérés. Système F sera donc construit comme un agrégat abstrait de dispositifs bien documentés, provenant de plusieurs domaines (protection sociale, justice pénale, santé, recrutement, plateformes numériques). Chaque scène dusage que nous décrirons ensuite reprend des traits explicitement attestés dans ces cas réels.
### I.1.1. Les briques empiriques de Système F
#### **Protection sociale : SyRI et le scandale des allocations familiales néerlandaises**
Dans le domaine de la protection sociale, deux affaires néerlandaises forment un socle empirique très clair.
Le système SyRI (*Systeem Risico Indicatie*) était un outil de détection de fraude aux prestations sociales, fondé sur le croisement massif de données issues de différentes administrations (assurance sociale, emploi, logement, fiscalité). En février 2020, le tribunal de district de La Haye a jugé que la législation encadrant SyRI violait larticle 8 de la Convention européenne des droits de lhomme (droit au respect de la vie privée), notamment en raison du manque de transparence sur le fonctionnement du système, de la faible proportionnalité et du ciblage de quartiers pauvres. Le tribunal a ordonné larrêt immédiat de lutilisation de SyRI.
Parallèlement, le scandale des allocations pour la garde denfants (*toeslagenaffaire*) a mis au jour un modèle de classification du risque utilisé par ladministration fiscale néerlandaise, qui a conduit à accuser à tort environ 26 000 parents de fraude. Ces familles ont été sommées de rembourser des montants importants de prestations, ce qui a provoqué des situations de surendettement massif, de pertes de logement et de détresse psychologique ; une part disproportionnée des victimes avaient un arrière-plan migratoire. Amnesty International a montré que des éléments comme la nationalité ou la double nationalité étaient utilisés comme facteurs de risque, produisant une boucle de discrimination systémique ; lautorité néerlandaise de protection des données a conclu à un traitement discriminatoire.
Ces deux cas attestent empiriquement que des systèmes de *scoring* algorithmique peuvent être intégrés au travail de guichet, cibler certaines catégories de population, fonctionner de manière opaque et produire des décisions automatiques de suspension ou de recouvrement, avec des voies de recours très limitées.
#### **Justice pénale : lalgorithme COMPAS et laffaire Loomis**
Dans le champ pénal, lalgorithme COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), développé par Northpointe/Equivant, est utilisé dans plusieurs États américains pour produire des scores de risque de récidive. Ces scores figurent dans des rapports daide à la décision destinés aux juges lors des phases de mise en liberté sous caution, de fixation de peine ou de libération conditionnelle.
Dans laffaire State v. Loomis (Cour suprême du Wisconsin, 2016), le prévenu a contesté lusage de COMPAS en soutenant que la méthodologie était secrète (secret commercial) et quil ne pouvait donc ni en vérifier lexactitude ni la contester. La Cour a maintenu la possibilité pour le juge dutiliser COMPAS, mais à condition daccompagner le score de mises en garde sur ses limites et en rappelant que la décision finale reste humaine, la méthode demeurant néanmoins non accessible à la défense.
On dispose ainsi dun cas où un score algorithmique chiffré sinscrit explicitement dans la chaîne de la décision judiciaire, tout en restant largement opaque pour le justiciable et même pour le tribunal.
#### **Santé : lalgorithme de gestion de risques analysé par Obermeyer et al. (Science, 2019)**
Dans le système de santé américain, Ziad Obermeyer et ses co-auteurs ont étudié un algorithme commercial largement utilisé pour la gestion de programmes de “soins intensifs” destinés à des patients à haut risque.
Cet algorithme produit, pour chaque patient, un score de risque ; ceux dont le score dépasse un seuil sont orientés vers des programmes qui mobilisent des ressources supplémentaires (suivi renforcé, coordination des soins, etc.).
Létude montre que, pour un niveau de risque donné selon lalgorithme, les patients noirs sont en moyenne beaucoup plus malades que les patients blancs (plus de pathologies non contrôlées, marqueurs biologiques plus dégradés).
La raison identifiée est que lalgorithme ne prédit pas directement la morbidité, mais les coûts de santé futurs ; or, dans un système marqué par des inégalités daccès aux soins, les patients noirs engendrent en moyenne moins de dépenses, à état de santé équivalent. Ce choix de variable (coûts comme proxy des besoins) introduit une biais structurel qui conduit à sous-orienter vers les programmes de soins renforcés des patients noirs qui en auraient le plus besoin.
Ce cas illustre très précisément comment une fonction de coût et un choix de proxy peuvent incorporer une *arcalité implicite* (coûts ≈ besoins) et produire des *effets cratiaux massifs* sur laccès aux ressources médicales.
#### **Recrutement : loutil de tri de CV dAmazon**
En 2018, Reuters a révélé quAmazon avait développé, puis abandonné, un outil interne de recrutement automatisé visant à classer des CV de candidat·es à des postes techniques. Entraîné sur une décennie dhistoriques de recrutement dans un secteur très masculin, le système a “appris” que les profils masculins étaient plus souhaitables. Il pénalisait les CV comportant le mot “womens” (comme “womens chess club captain”) et déclassait les diplômées de certaines universités qualifiées de « féminines ».
Confrontée à ces biais, lentreprise a renoncé à déployer cet outil en production. Mais lenquête montre quil est techniquement possible et, en pratique, déjà réalisé dintégrer des modèles genrés de scoring dans la chaîne de sélection des candidatures, en laissant leur logique sous-jacente hors de la vue des candidat·es.
#### **Plateformes numériques : modération et curation algorithmique**
Enfin, dans le monde des plateformes, la documentation abondante sur Facebook/Meta, YouTube, TikTok ou X (ex-Twitter) montre que la modération des contenus et la curation algorithmique reposent massivement sur des systèmes automatisés, lintervention humaine intervenant préférentiellement en seconde ligne ou pour les cas litigieux.
Des guides destinés aux utilisateurs ou aux praticiens décrivent le fonctionnement général de ces dispositifs : chez Facebook, par exemple, lIA est présentée comme “première ligne de défense”, qui scanne les contenus, détecte les possibles violations et les supprime directement ou les envoie à des modérateurs humains pour revue.
Au niveau réglementaire, le Digital Services Act européen impose désormais aux grandes plateformes de publier des rapports annuels de transparence sur la modération de contenu, en distinguant explicitement les contenus supprimés ou limités suite à des décisions automatisées.
Le rapport 2022 de lAgence des droits fondamentaux de lUE sur les biais dans les algorithmes mentionne dailleurs lusage croissant de systèmes de détection automatique de discours offensant, avec des risques de discrimination et de sur-modération de certaines communautés ou langues.
En parallèle, la création de l*Oversight Board* de Meta, doté dun pouvoir de révision de certaines décisions de modération, confirme lampleur des enjeux : une instance quasi-juridictionnelle a été instituée pour examiner des cas emblématiques et problématiques, souvent issus de décisions initiales prises par des systèmes automatisés ou semi-automatisés.
Ces éléments convergent : lessentiel de ce qui se voit ou ne se voit pas sur les grandes plateformes est trié, promu, enfoui, suspendu par des combinaisons dalgorithmes de recommandation, de détection et de filtrage.
### I.1.2. De ces cas à un système composite : définition structurée de “Système F”
À partir de ces pièces empiriques, nous pouvons maintenant définir plus rigoureusement ce que nous appellerons Système F.
#### **Un fournisseur de modèle de fondation accessible par API**
Du côté de loffre technique, il est désormais établi que des modèles de fondation (grands modèles de langage, modèles multimodaux) sont fournis sous la forme de services cloud accessibles via API. Le Comité européen de la protection des données (EDPB), par exemple, décrit explicitement le modèle “LLM as a Service” : un fournisseur héberge le modèle, en contrôle les poids et la formation, et donne accès aux utilisateurs par une interface de programmation, sans leur donner la main sur larchitecture interne.
Des initiatives comme Azure OpenAI Service pour les administrations publiques américaines ou européennes, et des programmes dédiés comme “OpenAI for Government” ou “ChatGPT Gov”, illustrent lextension de ce modèle au secteur public : les administrations peuvent appeler des modèles puissants pour traiter des textes, analyser des dossiers, générer des réponses, via des API sécurisées.
LAda Lovelace Institute a documenté, dans un rapport dédié, lusage déjà existant de modèles de fondation dans la sphère publique, intégrés à des outils “grand public” (moteurs de recherche, suites bureautiques, logiciels métiers) que les agents utilisent au quotidien.
Dans notre scénarisation, Système F désigne donc un fournisseur de modèle de fondation (type LLM / modèle multimodal), hébergé dans le cloud, accessible via API, et mis à disposition dacteurs publics et privés.
#### **Des intégrateurs qui fabriquent des solutions verticales**
Entre le fournisseur de modèle et les administrations, il y a des intégrateurs : grandes entreprises de services numériques, start-ups spécialisées, équipes internes “IA” de ministères ou dagences. Leur rôle concret, pour linstant, est bien attesté : adapter des briques de modèles génériques à des cas dusage sectoriels (chatbots administratifs, aides à la rédaction de courriers, outils danalyse de documents, systèmes de tri ou de priorisation).
Les dispositifs de détection de fraude sociale, de *scoring* pénal, de gestion de risques en santé et de tri de CV mentionnés plus haut ne reposent pas tous sur des modèles de fondation au sens strict, mais ils incarnent déjà ce rôle dintégrateur : transformer une capacité de calcul et de classification en un module prêt à lemploi pour une administration précise. Système F se situe dans cette continuité : un modèle générique, repris et encapsulé par une diversité de prestataires qui construisent des “solutions” pour la protection sociale, la justice, la santé, le recrutement, la modération.
#### **Des organisations utilisatrices : ministères, caisses, hôpitaux, tribunaux, entreprises, plateformes**
Enfin, les utilisateurs institutionnels que nous considérons caisses de prestations sociales, services fiscaux, tribunaux, hôpitaux, services RH, plateformes de réseaux sociaux ne sont pas conjecturaux : ce sont précisément ceux qui, dans les affaires documentées, ont déjà recouru à des algorithmes de scoring, de tri ou de filtrage. Les études sur lIA dans le secteur public montrent que les cas dusage montent en puissance, notamment dans les fonctions de traitement de dossiers, de tri de demandes, de détection danomalies, dassistance au recrutement et dinformation au public.
En agrégeant ces éléments, Système F désigne donc une chaîne socio-technique structurée en trois niveaux :
- un fournisseur de modèle de fondation via API ;
- des intégrateurs qui encapsulent ce modèle dans des solutions sectorielles ;
- des organisations utilisatrices qui insèrent ces solutions dans leurs procédures quotidiennes.
Cette structure nest pas une vue de lesprit : elle reflète larchitecture déjà mise en place par les grands fournisseurs dIA et adoptée, progressivement, par des administrations publiques et des entreprises.
### I.1.3. Quatre scènes typiques dusage, stylisées mais ancrées
Sur cette base, nous pouvons maintenant détailler quatre scènes dusage de Système F, en indiquant à chaque fois les cas réels qui nourrissent la description.
#### **Lagent de protection sociale et la liste des dossiers**
Dans de nombreux pays européens, les systèmes de détection de fraude aux prestations prennent la forme de listes de dossiers accompagnées dun score de risque. Les travaux sur SyRI et sur le scandale des allocations néerlandaises montrent que des fonctionnaires se voient présenter des listes de bénéficiaires classés par “profil de risque”, résultant de modèles qui croisent des données multiples (revenus, composition familiale, historique fiscal, etc.).
Dans notre scène, lagent·e dune caisse sociale ouvre une application de gestion des dossiers : une file virtuelle apparaît, avec pour chaque dossier un score numérique et un code couleur. Le tri par défaut ne suit plus lordre chronologique de dépôt, mais la priorité calculée par un module issu de Système F, configuré pour combiner “risque de fraude” et “urgence” selon des paramètres fixés en amont. Cette configuration est directement inspirée des systèmes réels de risque de classement (*risk scoring*), même lorsquils ne reposaient pas encore sur des modèles de fondation.
#### **Le juge et le rapport de risque**
Lexpérience américaine avec COMPAS montre quun rapport de risque algorithmique peut être intégré au dossier judiciaire, sous la forme dun document qui synthétise un score global et quelques facteurs aggravants ou atténuants. Dans laffaire Loomis, le prévenu a été évalué comme “à haut risque” par COMPAS, et ce rapport a pesé dans la justification de la peine.
Dans notre scène, le juge ne voit pas directement Système F, mais un rapport standardisé annexé au dossier : un score, une classe de risque, des éléments de langage justifiant ce score, issus dun module pénal connecté au modèle de fondation. Ce schéma reprend les traits factuels de COMPAS (score, opacité de la méthode, statut “daide à la décision”) tout en les transposant dans une architecture de modèle de fondation accessible via API.
#### **La médecin et la priorisation des patients**
Lalgorithme étudié par Obermeyer et al. montre comment un outil de gestion des risques en santé peut décider léligibilité à un programme de soins renforcés sur la base dun score calculé à partir des coûts passés.
Dans notre scène, un médecin hospitalier ouvre la liste des patients en attente dun examen lourd ou dune consultation spécialisée. Linterface, alimentée par un module de Système F, propose une “vue optimisée” : les patients sont ordonnés selon un indice de priorité calculé, avec un message qui signale lorsquelle sécarte de cette priorisation (“vous vous écartez de la recommandation algorithmique, confirmez-vous ?”). La scène est stylisée, mais elle transpose directement la logique documentée : un score de risque conditionne laccès à des ressources rares, et le praticien se voit suggérer un ordre “optimal”.
#### **La plateforme et la visibilité des contenus**
Les documents publics de Meta/Facebook reconnaissent que des systèmes automatisés scannent les contenus, les signalent, voire les suppriment directement en première intention. Les obligations de transparence du DSA confirment que les grandes plateformes utilisent des outils automatisés de modération et de recommandation à grande échelle.
Dans notre scène, un utilisateur poste un contenu critique sur une politique publique ou un témoignage lié à des prestations sociales. Un module dérivé de Système F, intégré à la chaîne de modération et de recommandation, évalue ce contenu : il peut le classer comme “à risque” (discours haineux, désinformation présumée, “contenu limite”), réduire sa visibilité ou déclencher une revue humaine. Lutilisateur ne verra, le plus souvent, quun message laconique (“votre contenu a enfreint nos standards”) ou une chute daudience difficilement interprétable.
## I.2. *Arcalité déclarée* du système
Par “*arcalité déclarée*”, nous désignerons lensemble des formules par lesquelles les acteurs qui conçoivent, diffusent ou utilisent des dispositifs algorithmiques disent ce quils font et au nom de quoi ils le font. Il ne sagit pas des détails techniques de limplémentation, ni des effets réels que nous avons mis au jour dans les affaires de fraude sociale, de justice pénale, de santé, de recrutement ou de plateformes ; il sagit des *justifications publiques*, telles quelles apparaissent dans les textes législatifs, les décisions de justice, les rapports dautorités administratives, les documents dentreprises, les chartes de “bonne conduite” et les programmes de régulation internationale. Cest cette couche discursive que lépreuve archicratique doit dabord prendre au sérieux, non pour la dénoncer en bloc comme “pure idéologie”, mais pour mesurer ce quelle rend visible et ce quelle tient pour acquis.
Dans les cinq domaines où nous avons décrit des usages de Système F protection sociale, justice pénale, santé, recrutement, plateformes numériques , cette *arcalité déclarée* adopte des formes différentes, liées aux traditions propres de chaque champ, mais elle se rassemble autour dune grammaire relativement stable : *lutte contre des menaces identifiées* (fraude, récidive, complications coûteuses, “mauvais recrutements”, contenus illégaux ou dangereux), *rationalisation de laction publique ou privée*, *promesse dobjectivité*, *impératif de sécurité et de confiance*. À ce niveau, Système F apparaît dabord comme un auxiliaire : lalgorithme nest pas présenté comme un souverain qui se substituerait aux institutions, mais comme un instrument qui permettrait à celles-ci de mieux remplir leurs missions.
### I.2.1. La fraude comme récit de fondation
Dans le domaine de la protection sociale, l*arcalité déclarée* est structurée par un récit désormais bien installé : *il sagit de défendre lintégrité de lÉtat social contre la fraude aux prestations, labus de droits et les détournements de fonds publics*. Comme la montré laffaire SyRI et, plus encore, le scandale des allocations pour la garde denfants, la lutte contre la *fraude* devient la matrice discursive qui justifie le recours à des systèmes de classements massifs et opaques.
Dans ce cadre discursif, les termes techniques *profil de risque*, *croisement de bases de données*, *ciblage des contrôles* se présentent comme de simples moyens datteindre un but qui, lui, est posé comme incontestable : *protéger la “soutenabilité” des régimes de prestations en évitant quils ne soient “vidés de leur substance” par des comportements abusifs*. Lessentiel de largument arcal se déploie dans un lexique de la vigilance et de la responsabilité : ladministration se doit, pour protéger les “vrais bénéficiaires”, de traquer les fraudeurs avec des outils modernes, proportionnés et ciblés.
Du point de vue archicratique, on voit se dessiner ici une figure typique : la *fraude* devient le point focal de la justification. La question de savoir ce quest, concrètement, une erreur de bonne foi, un litige interprétatif, une situation de vulnérabilité structurelle, est reléguée à larrière-plan. La tension entre présomption dinnocence et présomption de suspicion est peu articulée ; le terme de “fraude” fonctionne comme un opérateur de condensation qui autorise des dispositifs de surveillance étendus, pourvu quils soient décrits comme des moyens “nécessaires” à la sauvegarde de lÉtat social. L*arcalité déclarée* est donc forte (*défense dun bien collectif précieux*), mais très générale : elle ne descend guère au niveau des catégories fines qui seront effectivement travaillées par Système F.
### I.2.2. Objectivation du risque et cohérence des peines
Dans le champ de la justice pénale, l*arcalité déclarée* sappuie sur un autre récit, lui aussi bien identifié dans la littérature : celui de l*évaluation actuarielle du risque* et de la “*cohérence*” *des décisions de justice*. Les guides destinés aux praticiens pour lusage de COMPAS, par exemple, présentent loutil comme une méthode “objective, standardisée, fondée sur la recherche” pour estimer la probabilité de récidive à partir dun ensemble de facteurs psychosociaux et historiques.
Dans larrêt *State v. Loomis*, la Cour suprême du Wisconsin accepte cette finalité : lusage dun instrument actuariel est recevable dès lors quil est clairement qualifié d“aide à la décision” et que le juge conserve, en principe, la maîtrise de la peine. La Cour insiste sur la nécessité de rappeler les limites du système, mais elle ne remet pas en cause la légitimité de lobjectif affiché : rendre les décisions plus cohérentes, plus prévisibles, moins dépendantes des intuitions ou des préjugés des magistrats. L*arcalité déclarée* articule ici un double horizon : *améliorer la justice distributive* (réduire les disparités de traitement) *et la sécurité publique* (anticiper les comportements futurs “à risque”).
Ce discours sinscrit dans une histoire plus longue de “gestion du risque” en droit pénal : montée des outils actuariels de probation, intérêt pour les “évaluations fondées sur la preuve”, critiques de larbitraire judiciaire. Il emprunte beaucoup au vocabulaire de la statistique, de la psychologie et du management du risque. Lalgorithme nest jamais présenté comme une source de normativité autonome ; il fournit des scores, des ratios, des catégories (“faible”, “moyen”, “élevé”) qui doivent éclairer des décisions qui, elles, demeurent juridiquement encadrées. L*arcalité déclarée* est donc celle dune *rationalisation du pouvoir de juger* : mettre la peine sous le signe du calcul et de lexpertise plutôt que du tâtonnement individuel.
### I.2.3. Gestion de population et ciblage de ressources rares
Dans le domaine de la santé, les algorithmes que nous avons retenus comme briques de Système F sont inscrits dans un lexique propre : celui de la “politique santé des populations”, de la “gestion de patients jugés à risque”, de la “prévention des hospitalisations évitables”. Lalgorithme analysé par Obermeyer et al. est présenté par ses concepteurs et par les hôpitaux qui lutilisent comme un outil permettant didentifier les patients “aux besoins complexes” et de les orienter vers des programmes de gestion de soins intensifs.
Les documents de promotion de ce type de systèmes insistent sur un double objectif : dune part, “*améliorer la qualité des soins*” en offrant un suivi renforcé aux patients les plus vulnérables ; dautre part, “*maîtriser les coûts*” en réduisant les complications graves, les ré-hospitalisations et les recours imprévus aux urgences. L*arcalité déclarée* assume pleinement cette tension : il sagit de *concilier des impératifs cliniques et budgétaires en allouant des ressources rares* (temps médical, programmes sophistiqués, coordination, technologies coûteuses) *de la “façon la plus efficiente possible*”.
Sur le plan discursif, la notion de “*risque élevé*” est donc chargée dune valeur positive : loin de stigmatiser les patients, elle leur ouvre laccès à des dispositifs jugés bénéfiques. Le modèle dIA est décrit comme un moyen de “repérer ce que lœil humain ne voit pas facilement”, cest-à-dire de *détecter en amont des trajectoires de dégradation de la santé*. À nouveau, l*arcalité déclarée* en appelle à des valeurs fortes : *meilleure prise en charge, prévention, justice dans lallocation des soins, soutenabilité financière des systèmes de santé*.
### I.2.4. “Talent”, méritocratie et efficacité de la sélection
Dans le secteur du recrutement, les systèmes de tri automatisé empruntent dautres registres. Les discours qui entourent le projet de classement des CV développé par Amazon, ainsi que la littérature managériale plus large sur les “*talent analytics*”, convergent vers une même promesse : “*mécaniser la recherche des meilleurs talents*”, “*libérer les recruteurs des tâches répétitives*”, “*standardiser la sélection*” et “*réduire les biais individuels*” en confiant la première lecture des dossiers à un modèle.
L*arcalité déclarée* ici ne renvoie ni à lÉtat social ni à la justice pénale, mais à une certaine *représentation de la méritocratie en entreprise* : les “bons profils” seraient ceux qui maximisent la performance, la productivité, ladéquation à la culture de lorganisation. Le système dIA est présenté comme un “assistant impartial” capable de faire émerger des “signaux faibles” dans les CV, de repérer des trajectoires prometteuses, de réduire le poids des impressions fugitives et des “préjugés inconscients” des recruteurs.
Ce discours est en résonance avec une tradition managériale qui valorise le *data-driven HR*, la capacité à “objectiver” des intuitions en les traduisant en scores, en *rankings*, en probabilités de succès. Lalgorithme devient une sorte de miroir supposé neutre des “caractéristiques qui différencient les meilleurs employés des autres”, pour reprendre une formule fréquemment mobilisée dans ce champ. L*arcalité déclarée* associe donc trois promesses : *gain defficacité*, *amélioration de la qualité des recrutements*, *réduction affichée des biais humains*.
### I.2.5. Sécurité, “contenus illégaux” et transparence
Dans lunivers des grandes plateformes, le Digital Services Act européen donne une formulation particulièrement nette de l*arcalité déclarée*. Le DSA affirme vouloir “*réduire la distribution de contenus illégaux*”, protéger les utilisateurs contre diverses formes de risques en ligne, et instaurer des exigences nouvelles de transparence et de responsabilisation pour les intermédiaires.
Les plateformes, de leur côté, ont développé depuis plusieurs années un lexique de sûreté et de réduction des risques : leurs règles de “standards communautaires” ou de “règles de la communauté” visent à “protéger” les utilisateurs contre les discours haineux, le harcèlement, la propagande terroriste, la désinformation dommageable, les images violentes ou sexualisées non consenties. Elles décrivent leurs systèmes dIA comme une “*première ligne de défense*” qui filtre les contenus au moment de la mise en ligne, identifie les violations manifestes, et transmet les cas ambigus à des équipes de modération humaines.
L*arcalité déclarée* se trouve ici à la frontière entre droit et morale : les plateformes affirment respecter les législations nationales et européennes, mais elles revendiquent aussi la mise en œuvre de “standards de communauté” qui excèdent parfois les strictes obligations juridiques. Avec le DSA, une grammaire spécifique se stabilise : celle de la “*sécurité en ligne*” et de la “*transparence des décisions de modération*”, adossée à des *obligations concrètes* (mécanismes de signalement des contenus illégaux, justification des décisions de retrait ou de déréférencement, bases de données publiques dactions de modération).
Dans ce cadre, lusage doutils automatisés est présenté comme un moyen de faire face à des volumes massifs de contenus, de “réagir rapidement” à des menaces, de limiter lexposition du public à des messages jugés dangereux. L*arcalité déclarée* articule donc *protection des usagers, respect de la liberté dexpression* (au moins dans lintention), *et exigence de transparence accrue.*
### I.2.6. Principes transversaux : “*IA responsable*”, “*IA digne de confiance*”
Au-dessus de ces légitimités sectorielles, une couche plus générale sest constituée autour de lidée d“*IA responsable*” ou d“*IA digne de confiance*”. Les Principes de lOCDE sur lintelligence artificielle, adoptés en 2019, affirment que les systèmes dIA devraient “*bénéficier aux personnes et à la planète en favorisant une croissance inclusive, le développement durable et le bien-être*”, être conçus de manière à “*respecter létat de droit, les droits de lhomme, les valeurs démocratiques et la diversité*”, et inclure des garanties appropriées (*intervention humaine, traçabilité, sécurité*).
Les Lignes directrices européennes pour une IA digne de confiance, élaborées par le groupe dexperts de haut niveau sur lIA, déclinent ces ambitions en sept “*exigences*” : agence humaine et contrôle, robustesse et sécurité techniques, gouvernance des données, transparence, diversité et équité, bien-être sociétal et environnemental, responsabilité. Elles sont assorties dune liste dauto-évaluation (ALTAI) destinée aux développeurs et aux utilisateurs pour vérifier que leurs systèmes sy conforment.
Les grands fournisseurs privés de modèles de fondation se sont, pour lessentiel, alignés sur cette grammaire. Google a publié en 2018 ses “*AI Principles*”, qui insistent sur le fait que les applications dIA doivent être “*socialement bénéfiques*”, “*éviter de créer ou de renforcer des biais injustes*”, être “*construites et testées pour la sécurité*”, “*être responsables devant les personnes*” et “*incorporer la vie privée dès la conception*”. Microsoft a formulé, quant à lui, un ensemble de principes analogues : *équité, fiabilité et sécurité, confidentialité et sécurité, transparence, responsabilité, inclusivité*, qui servent de base à son “*Responsible AI Standard*” interne.
Cette couche transversale dénoncés nest pas anecdotique : elle fournit le vocabulaire dans lequel Système F doit, aujourdhui, se présenter pour être légitime. Une administration qui lance un appel doffres pour un module de détection de fraude ou daide à la décision judiciaire attend des fournisseurs quils sinscrivent dans ce registre ; une entreprise qui internalise un système de tri de CV est incitée à le faire sous la bannière de l“IA responsable” et de la lutte contre la discrimination. L*arcalité déclarée* de Système F est donc redoublée par ce *halo de principes généraux*, qui se veulent compatibles avec les droits fondamentaux et les valeurs démocratiques.
### I.2.7. Une grammaire commune de légitimation
Si lon rassemble ces différents registres, une grammaire commune de l*arcalité déclarée* apparaît assez nettement. Elle articule au moins quatre motifs récurrents.
Le premier est celui de la *protection contre des menaces identifiées*. Dans la protection sociale, cest la fraude aux prestations qui menace la viabilité du système ; dans la justice pénale, cest la récidive qui met en danger la sécurité publique ; dans la santé, ce sont les complications évitables et les trajectoires de dégradation qui menacent la stabilité des systèmes de soins ; dans le recrutement, ce sont les “mauvais choix” qui mettent en péril la compétitivité de lentreprise ; sur les plateformes, ce sont les contenus illégaux ou nocifs qui mettent en péril les usagers et lespace public. Lalgorithme est habilité à partir du moment où il est cadré comme une *barrière* supplémentaire contre ces risques.
Le deuxième motif est celui de la *rationalisation* et de l*efficience*. Lautomatisation est décrite comme un moyen de traiter plus de dossiers, plus rapidement, avec moins de ressources humaines, de rendre les décisions plus cohérentes, de réduire larbitraire. Dans le langage des administrations sociales, cela se traduit par la promesse de “*ciblage des contrôles*” et de “*réduction des abus*” ; dans celui des hôpitaux, par la “*priorisation des patients à haut risque*” ; dans celui des services RH, par la “*gestion de volumes massifs de candidatures*” ; dans celui des plateformes, par la possibilité de *modérer des quantités de contenus impossibles à gérer manuellement*. Système F est ici la figure dun auxiliaire rationnel, intensifiant les capacités habituelles des organisations.
Le troisième motif est celui de l*objectivité* ou, à tout le moins, dune réduction des biais imputés aux évaluations purement humaines. Dans la justice pénale, l*évaluation actuarielle* se donne comme “*fondée sur la preuve*” plutôt que sur les intuitions ; dans la santé, le score de risque agrège des données cliniques et des historiques de dépenses ; dans le recrutement, lalgorithme promet dêtre indifférent au genre, à lorigine, à lapparence ; dans les plateformes, les modèles de détection de contenus haineux ou terroristes se présentent comme appliquant des critères constants. L*arcalité déclarée* insiste sur lidée que ces dispositifs ne font que *mesurer* ou *mettre en forme* *des régularités objectives déjà là*.
Enfin, le quatrième motif est celui de la *sécurité* et de la *confiance*. Les discours sur l“*IA digne de confiance*” et les documents de régulation européenne convergent : *pour être acceptable, un système doit être robuste, fiable, “sûr”, respecter la vie privée, être transparent et rendre des comptes*. Dans le langage des plateformes, la “*sûreté*” est un *produit que lon fournit aux utilisateurs* ; dans les textes de lOCDE et de lUnion européenne, la “*confiance*” est une *condition de possibilité du déploiement de lIA dans des secteurs sensibles*.
Cette grammaire nest pas simplement un vernis. Elle structure les termes dans lesquels les acteurs peuvent se justifier devant les tribunaux, les autorités de régulation, les opinions publiques. Elle *détermine ce qui peut être publiquement défendu* et ce qui, au contraire, doit rester dans les coulisses (sélection des variables, choix des proxies, calibrage des seuils). Du point de vue archicratique, elle constitue bien une *arcalité* : *une manière dexposer au moins en principe les finalités et les valeurs censées commander lusage* de Système F.
### I.2.8. Une *arcalité réelle*, mais *extra-scénique*
Reste à savoir dans quelle mesure cette *arcalité déclarée*, riche et apparemment sophistiquée, remplit les conditions minimales dune *arcalité* proprement archicratique, cest-à-dire dune mise en scène effective des fondements. La réponse, à ce stade de laudit, est ambivalente.
Dun côté, il serait excessif de considérer que les dispositifs que nous avons examinés seraient dépourvus de toute justification explicite. La lutte contre la fraude sociale, la recherche de cohérence dans les peines, la volonté de mieux prendre en charge des patients vulnérables, lambition de limiter les discriminations à lembauche, la nécessité de réguler les contenus illégaux ou dangereux sur les grandes plateformes, la référence aux droits fondamentaux et aux valeurs démocratiques dans les textes internationaux : tout cela constitue un *socle normatif substantiel*. L*arcalité déclarée* nest pas un pur écran de fumée ; elle exprime des préoccupations réelles, souvent largement partagées.
Dun autre côté, cette *arcalité* reste le plus souvent *extra-scénique*. Elle sexprime dans des préambules de lois, des communiqués, des chartes, des rapports, mais elle nest guère travaillée dans des scènes où les notions centrales fraude, risque acceptable, mérite, besoin de soin, dangerosité, contenu nuisible seraient définies, discutées, révisées en présence de ceux qui en subissent les effets. La définition pratique de la fraude, dans les dispositifs de protection sociale, nest pas débattue en tant que telle avec les allocataires ; la hiérarchie entre erreurs acceptables et erreurs intolérables dans la justice pénale nest pas posée frontalement aux justiciables ; le choix de prendre les coûts comme proxy des besoins en santé nest pas soumis à une délibération spécifique avec les patients et les soignants ; les critères de “talent” dans le recrutement ou de “contenu nuisible” sur les plateformes ne donnent que rarement lieu à des dispositifs de confrontation structurée.
Leffet archicratique de cette situation est double. Dune part, les *valeurs affichées* protection de lÉtat social, prévention de la récidive, justice dans laccès aux soins, égalité des chances, sécurité des espaces numériques, respect des droits fondamentaux fonctionnent comme des *slogans darrière-plan* : elles justifient en bloc lentrée de Système F dans les chaînes décisionnelles, sans que soient explicitées les manières concrètes dont elles sont traduites en paramètres, en seuils, en arbitrages derreurs. Dautre part, cette *faiblesse scénique* ouvre un espace où les véritables fondements opératoires tendent à se déplacer vers dautres couches du dispositif : fonctions de coût, choix de proxies, sélection de variables, architecture des jeux de données.
Autrement dit, l*arcalité déclarée* de Système F est à la fois réelle et incomplète : elle pose des finalités, mais elle ne prend pas à bras-le-corps la question de leur implémentation normative fine. Elle ouvre un horizon de légitimation, mais elle laisse largement hors scène les fondements effectifs à partir desquels le système se met à discriminer, prioriser ou classer.
Cest cette dissociation que la section suivante se propose dexaminer. En passant à l*arcalité implicite*, nous quitterons les formulations officielles pour aller voir où se logent, dans Système F, les axiomes silencieux : ceux qui définissent en pratique ce qui compte comme fraude, comme risque tolérable, comme mérite, comme besoin, comme contenu acceptable. Cest là que se noue l*oblitération archicratique* caractéristique des dispositifs contemporains : non pas absence de fondement, mais fuite du fondement derrière loptimisation.
## I.3. *Arcalité implicite*
Avec l*arcalité déclarée*, nous avons observé ce que les acteurs disent de Système F : protection de lÉtat social, objectivation du risque pénal, ciblage des soins, rationalisation du recrutement, sécurité des espaces numériques, “IA responsable” et “digne de confiance”. L*arcalité implicite* se loge ailleurs : dans les *fonctions de coût*, les *proxies choisis*, les *métriques dévaluation*, la *composition des jeux de données*, les *seuils*, les *arbitrages sur les erreurs*. Cest là que se décide, au sens fort, ce quest un “bon” résultat pour le système, ce quon est prêt à sacrifier, qui lon accepte de sur-surveiller, qui lon accepte de mal desservir.
Du point de vue archicratique, chaque choix de ce type relève dun acte de fondation silencieux : il fixe une hiérarchie entre injustices acceptables, il distribue les soupçons et les protections, il stabilise une certaine vision de ce qui compte. Limportant nest pas dopposer un “pôle technique” neutre à un “pôle politique” chargé ; cest de *reconnaître que le paramétrage lui-même a une portée normative*, et quil constitue une *arcalité effective* qui, le plus souvent, ne comparaît jamais en tant que telle. Cest ce régime des fondements non mis en scène que nous appellerons *arcalité implicite* ou *arcalité fantôme*.
### I.3.1. Arbitrages derreurs et profilage social
Dans les dispositifs de détection de fraude aux prestations qui composent la brique “protection sociale” de Système F, lobjectif opérationnel est de distinguer des dossiers “à risque” des autres. Techniquement, cela se traduit par une *fonction de coût qui pondère plusieurs objectifs* : *maximiser la détection des fraudes avérées*, *limiter les faux positifs*, *contenir les coûts denquête*, *éviter de suspendre abusivement des prestations*. En apparence, il sagit d*optimiser une procédure de contrôle* ; en réalité, on décide comment répartir la charge de lerreur entre lÉtat et les allocataires.
Laffaire néerlandaise des allocations pour la garde denfants, relue par Amnesty International dans son rapport *Xenophobic Machines*, a montré à quel point ces arbitrages implicites pouvaient devenir violents. Des dizaines de milliers de familles, très majoritairement à faibles revenus et souvent issues de limmigration, ont été accusées à tort de fraude et soumises à des recouvrements massifs sur la base de profils de risque établis par un système automatisé. Amnesty documente lusage de variables comme la nationalité ou la double nationalité dans la construction des profils, ce qui produisait un ciblage disproportionné de certains groupes ethniques et migratoires.
Du point de vue archicratique, plusieurs axiomes implicites se donnent ici à voir. Dabord, lidée selon laquelle il serait acceptable de concentrer un volume élevé de faux positifs sur des populations déjà précaires, au nom de la défense du budget public, sans scène où ces personnes puissent contester la hiérarchie ainsi instituée entre la protection des fonds et la protection des droits. Ensuite, lidée quune caractéristique comme la nationalité puisse servir de proxy de suspicion, alors même que le droit non discriminatoire des États européens proscrit précisément ce type dusage. Le rapport *Xenophobic Machines* parle de discrimination “intégrée” dans la conception même du système, non seulement dans ses usages déviants.
La décision du tribunal de La Haye dans laffaire SyRI confirme le diagnostic à un autre niveau. SyRI était un dispositif de profilage de risque en matière de sécurité sociale, fondé sur le croisement massif de données issues de multiples administrations et sur la production de “*rapports de risque*” transmis aux services dinspection. Le tribunal a jugé que la législation encadrant SyRI violait larticle 8 de la Convention européenne des droits de lhomme, en raison notamment dun déficit de transparence, de lampleur du traitement et du ciblage de quartiers défavorisés.
Ce qui est en cause, là encore, nest pas seulement une erreur de calibrage, mais une *arcalité implicite* : il serait considéré comme *tolérable de soumettre certains territoires à un profilage intensif*, *de croiser leurs données à grande échelle, de déclencher des enquêtes intrusives sur la base de scores opaques, au nom dun “juste équilibre” entre lutte contre la fraude et respect de la vie privée*. Or ce “*juste équilibre*” na pas été déterminé sur une scène où lon aurait mis en débat les types derreurs acceptables, les populations exposées, la nature des données croisées. Il a été fixé dans la fonction de coût globale du système, puis naturalisé sous la forme dune procédure “moderne” de contrôle.
L*arcalité implicite* de Système F, dans ce segment social, prend donc la forme dune *hiérarchisation silencieuse* : mieux vaut tolérer un nombre important de faux positifs concentrés sur des familles vulnérables que daccepter une fraude résiduelle ; mieux vaut considérer certains profils nationaux ou résidentiels comme intrinsèquement plus suspects que douvrir un débat public sur les causes structurelles des erreurs, des omissions ou des malentendus administratifs.
### I.3.2. Le *proxy* “*coûts*” comme axiome de valeur
Lalgorithme de gestion des risques étudié par Ziad Obermeyer et ses co-auteurs offre un exemple paradigmatique d*arcalité implicite*. Le système, largement utilisé dans les systèmes de santé américains, sert à déterminer quels patients doivent bénéficier de programmes de “*care management*” intensif : ceux dont le score dépasse un certain seuil se voient offrir un suivi renforcé, des ressources supplémentaires et une coordination accrue.
Les auteurs montrent que, pour un même score de risque donné par lalgorithme, les patients noirs sont en moyenne bien plus malades que les patients blancs : davantage de pathologies chroniques non contrôlées, plus de complications, etc. La raison nest pas une “erreur” de calcul, mais le choix du proxy : lalgorithme prédit les coûts de santé futurs plutôt que la morbidité elle-même. Or, dans un système marqué par des inégalités daccès aux soins, on dépense historiquement moins pour les patients noirs que pour les patients blancs à état de santé comparable. En prenant les coûts comme substitut des besoins, lalgorithme sous-estime donc systématiquement les besoins des patients noirs, ce qui conduit à les orienter beaucoup plus rarement vers les programmes intensifs.
Du point de vue archicratique, le choix du proxy “coûts” constitue un acte d*arcalité implicite* majeur : il institue, sans jamais le dire, lidée que *la meilleure approximation des besoins de santé dun individu est ce que le système a déjà dépensé pour lui*. Dans un univers égalitaire et sans contraintes budgétaires, ce raccourci pourrait éventuellement se discuter ; dans un univers où laccès aux soins est profondément inégal, il revient à considérer que les vies pour lesquelles on a historiquement le moins dépensé sont objectivement moins “à risque” et moins prioritaires. Laxiome est extraordinairement chargé sur le plan moral et politique, mais il nest pas présenté comme un choix de justice : il est codé comme un paramètre doptimisation raisonnable.
Obermeyer et al. montrent quen remplaçant le proxy “coûts” par un proxy plus proche des besoins cliniques (par exemple le nombre de maladies chroniques non contrôlées), on pourrait presque tripler la part des patients noirs orientés vers les programmes intensifs.
Autrement dit, un seul choix de variable suffit à faire basculer la répartition dun dispositif de soin à grande échelle. Or ce choix na donné lieu ni à une controverse publique, ni à une délibération institutionnelle, ni à un dispositif d*archicration* : il a été décidé en amont, au croisement de considérations pratiques (disponibilité des données, facilité de mesure) et de rationalités gestionnaires (coûts comme indicateur privilégié), puis diffusé comme allant de soi.
Ce cas illustre avec une précision chirurgicale ce que nous nommons *arcalité fantôme* : l*existence de fondements normatifs réels* ici, une conception du besoin de santé traduite en coût *qui pilotent une large distribution de ressources, sans jamais être convoqués sur une scène où ils devraient se justifier devant ceux quils affectent*.
### I.3.3. Hiérarchies des erreurs et justice des risques
Loutil dévaluation de risque pénal COMPAS, lorsquon le regarde à travers les débats suscités par lenquête de ProPublica et les réponses de ses concepteurs, met en lumière un autre aspect de l*arcalité implicite* : la gestion différenciée des faux positifs et des faux négatifs selon les groupes. ProPublica a montré en 2016 que, dans le comté de Broward, les accusés noirs étaient beaucoup plus souvent classés à tort comme “à haut risque” que les accusés blancs (faux positifs), tandis que les accusés blancs étaient plus souvent classés à tort comme “faible risque” alors quils récidivaient (faux négatifs).
Des chercheurs et les auteurs de COMPAS ont contesté la méthodologie de ProPublica, en soulignant quil est mathématiquement impossible de satisfaire simultanément plusieurs notions de “*justice algorithmique*” (par exemple égalité des taux de faux positifs et égalité de calibration) lorsque les taux de récidive diffèrent entre groupes.
Mais, du point de vue archicratique, cette impossibilité mathématique ne dissout pas le problème : elle le reformule avec plus dacuité. Si toutes les configurations sont impossibles simultanément, il faut choisir lesquelles on privilégie : *faut-il minimiser les faux négatifs* (ne pas laisser sortir un individu qui récidivera) *au prix dun grand nombre de faux positifs* (maintenir en détention des personnes qui nauraient pas récidivé) ? *Ou linverse ? Est-il acceptable que ces arbitrages se distribuent différemment selon les groupes racisés ?*
En droit pénal, cette question nest pas nouvelle : elle recoupe des débats de longue durée sur la *présomption dinnocence*, sur la maxime selon laquelle “*mieux vaut laisser dix coupables en liberté que condamner un innocent*”, sur la hiérarchie entre sécurité collective et protection contre lerreur judiciaire. Ce que le recours à un outil actuariel comme COMPAS transforme, cest le lieu où cette hiérarchie est fixée : au lieu dêtre lobjet dune discussion explicite au Parlement, dans la doctrine, dans la jurisprudence elle est réglée par la manière dont on écrit la fonction de coût, choisit les métriques dévaluation, fixe les seuils de risque et paramètre la calibration. Les débats techniques sur les définitions de léquité deviennent le substitut de débats normatifs sur ce que lon juge plus grave : enfermer injustement ou libérer à tort.
Là encore, l*arcalité implicite* nest pas labsence de normativité, mais sa *relégation dans des micro-décisions techniques qui napparaissent jamais comme telles aux justiciables*. Un prévenu auquel on annonce un score de risque “élevé” ne voit pas la structure normative qui a présidé au calibrage des erreurs ; un juge qui consulte ce score ne voit pas davantage la hiérarchie implicite entre types dinjustice. La scène archicratique celle où lon discuterait ouvertement du partage admissible des risques derreurs se trouve remplacée par une scène actuarielle limitée à quelques spécialistes.
### I.3.4. Apprendre des hiérarchies sociales existantes
Le système de tri de CV développé par Amazon, puis abandonné avant son déploiement, met au jour une autre dimension de l*arcalité implicite* : *limportation non critique de hiérarchies sociales existantes dans la définition de ce qui compte comme “talent”*. Lenquête de Jeffrey Dastin pour Reuters a montré que loutil, entraîné sur une dizaine dannées dhistoriques de recrutement dans des métiers techniques majoritairement masculins, avait “appris” à désavantager les CV féminins : il pénalisait les dossiers contenant le mot “womens” et rétrogradait certains établissements fréquentés par des femmes.
L*arcalité implicite* ne réside pas seulement dans ces effets visibles, mais dans la décision initiale de prendre le passé des recrutements comme référence pour lavenir. En faisant de la capacité à prédire “qui serait embauché” à partir des données historiques la fonction de coût principale, Amazon a installé comme norme ce que ses pratiques antérieures, déjà marquées par un déséquilibre de genre, considéraient comme un “*bon candidat*”. Lalgorithme ninvente pas le biais ; il le systématise et le cristallise.
Du point de vue archicratique, cette configuration revient à traiter les décisions passées elles-mêmes situées dans des rapports de pouvoir, des routines, des préjugés comme un “réel” à imiter. La question “quest-ce quun talent ?” nest pas abordée comme une question ouverte, susceptible de révision, mais comme un pattern à extraire dun corpus de CV, de trajectoires et de décisions. L*arcalité implicite* associe trois éléments : *lidée que la performance passée est la meilleure mesure du mérite futur* ; *la naturalisation de hiérarchies de genre, de diplôme, de style de CV* ; *la marginalisation de toute scène où ces hiérarchies pourraient être discutées par les personnes quelles affectent.*
Lépisode se conclut par labandon du projet, une fois les biais mis au jour par les ingénieurs. Mais il illustre bien la logique de Système F : tant que lalgorithme fonctionne dans les coulisses, la question de la normativité de ses critères reste invisible. Ce nest quau moment où loutil “déraille” visiblement ici, en supprimant presque mécaniquement les femmes du pool de candidats que les questions archicratiques surgissent, sur un mode défensif.
### I.3.5. Seuils de tolérance et architectures de la visibilité
Dans le cas des plateformes numériques, l*arcalité implicite* se manifeste dans un autre registre : celui des seuils de tolérance au contenu et des architectures de visibilité. Les textes de mise en œuvre du Digital Services Act, ainsi que les guides de transparence publiés par la Commission européenne et les analyses doctrinales récentes, montrent que les grandes plateformes sont désormais explicitement tenues de rendre compte de leurs décisions de modération, des outils automatisés quelles emploient et des risques systémiques quelles identifient.
Les rapports de transparence de Meta, combinés aux travaux de l*Oversight Board* et aux analyses critiques sur lévolution des “*Community Standards*”, illustrent concrètement lampleur de la délégation faite à des systèmes dIA pour détecter, classer et retirer des contenus. Meta reconnaît que des systèmes automatisés identifient et agissent sur une grande partie des contenus avant même quils soient signalés, et l*Oversight Board* rappelle que des millions dutilisateurs font appel de décisions de retrait initialement prises par ces systèmes, souvent en expliquant que leur contenu relevait de linformation, de la satire ou du témoignage.
Dans ce contexte, l*arcalité implicite* ne se situe pas seulement dans la définition formelle des “discours haineux”, des “contenus terroristes” ou de la “désinformation”, ni même dans la distinction entre illégalité et simple non-conformité aux standards de communauté. Elle se loge dans la manière dont les systèmes automatisés et leurs opérateurs paramètrent les seuils : *à partir de quel degré dambiguïté un contenu est-il retiré préventivement ? jusquoù privilégie-t-on la réduction du risque dexposition au détriment de la préservation de la parole minoritaire ? comment traite-t-on les contenus dans des langues peu dotées, pour lesquelles les modèles sont moins précis ?* Les études récentes sur limpact de ces choix dans le Sud global ou pour certaines communautés minorées montrent que les erreurs de classification et les suppressions abusives se concentrent souvent là où les ressources linguistiques et les contextes locaux sont les moins bien pris en compte.
Le DSA impose aux très grandes plateformes la création de bases de données de décisions de modération et ouvre des accès à la recherche, ce qui, en principe, devrait permettre de rendre visibles ces arbitrages. Mais, tant que le débat reste centré sur la conformité globale aux obligations (rapports de transparence, existence de mécanismes de recours, descriptions qualitatives des systèmes automatisés), la question archicratique de fond à savoir la hiérarchie implicite entre les types derreurs acceptables, les types de contenus sur-modérés ou sous-modérés, les publics plus ou moins protégés demeure largement encapsulée dans les paramètres des modèles et dans les règles internes.
### I.3.6. L*arcalité fantôme* comme régime des fondements non mis en scène
Les fragments que nous venons de parcourir permettent de préciser, sans métaphore, ce que nous nommons *arcalité implicite* ou *arcalité fantôme*.
Nous appellerons *arcalité fantôme* l*opérateur dont les fondements normatifs du dispositif ne disparaissent pas, mais se trouvent encapsulés dans des options de paramétrage* (fonctions de coût, proxies, métriques, seuils) *qui opèrent à lintérieur de la cratialité, sans jamais être exposées comme telles sur une scène dépreuve*.
Dans la protection sociale, la *manière de calibrer les modèles de détection de fraude* *choix des variables, des seuils, des quartiers ciblés, rapport accepté entre faux positifs et faux négatifs* encode une *hiérarchie entre la lutte contre les abus et la protection des allocataires de bonne foi*, ainsi quune *distribution des soupçons selon des lignes de classe et dorigine*. Cette *hiérarchie* nest en aucune manière discutée publiquement avec les personnes concernées ; elle est incorporée dans la fonction de coût globale du dispositif.
Dans la santé, le *choix dun proxy* comme les *coûts de santé* pour représenter *les besoins encode une conception implicite de la valeur des vies en fonction des dépenses déjà engagées*, *dans un contexte où ces dépenses sont ethniquement inégales*. Ce choix transforme une inégalité historique daccès aux soins en différence “objective” de risque, puis en inégalité daccès à des programmes intensifs supplémentaires.
Dans la justice pénale, la définition dun profil de risque et la manière de pondérer les erreurs entre différents groupes encode une hiérarchie des injustices supportables : mieux vaut enfermer trop de personnes qui ne récidiveront pas, ou libérer trop de personnes qui récidiveront, et pour quels groupes précisément ? La littérature sur COMPAS montre que, quelles que soient les positions prises dans le débat, un choix normatif irréductible doit être fait, mais quil est pris en pratique dans lécriture de la fonction de coût et des métriques, non dans une scène de délibération pénale explicite.
Dans le recrutement, la décision de prendre les pratiques passées comme guide principal encode une conception du mérite qui sanctuarise des hiérarchies sociales et de genre. Loutil dAmazon a rendu visible ce mécanisme en produisant des effets suffisamment grossiers pour être politiquement indéfendables ; mais le mécanisme apprentissage à partir dhistoriques de décisions biaisées demeure au cœur de nombreux systèmes d“analyse de talents”.
Sur les plateformes, enfin, les seuils de détection, la granularité des catégories de contenu, les modèles de risque assignés aux différentes langues et régions encodent une hiérarchie implicite entre la protection contre certains types de discours et la tolérance à dautres, entre la visibilité accordée à certains groupes et la sur-modération dautres. Les obligations du DSA ouvrent des voies de visibilité, mais ne constituent pas en elles-mêmes une scène où ces hiérarchies seraient mises en débat avec les publics concernés.
Dans tous ces cas, on ne peut pas dire quil ny ait pas de fondements : au contraire, ils sont nombreux, puissants, efficaces. Ils prennent la forme de fonctions de coût, de choix de proxies, de distributions de données, de métriques de performance, de seuils de décision. Simplement, ces fondements ne sont pas exposés comme tels ; ils napparaissent ni dans les chartes, ni dans les communiqués, ni dans les rapports de principe. Ils agissent dans la *cratialité* du système dans son code, ses pipelines, ses paramétrages , mais ils naccèdent jamais au statut de fondements discutables.
Cest en ce sens que nous parlons d*arcalité fantôme* : non pas une absence d*arcalité*, mais une *arcalité exilée hors de la scène*. La modernité algorithmique ne se caractérise pas seulement par une intensification de la capacité à calculer, à corréler, à prédire ; elle se caractérise par une dés-scénarisation des fondements, cest-à-dire par le transfert des décisions normatives les plus décisives dans des couches techniques où elles ne sont plus identifiées comme telles.
Au regard de l*archicratie*, cela signifie que la promesse dune “*IA responsable*” ou “*digne de confiance*” reste structurellement bancale tant que lon ne ramène pas ces choix à la scène, cest-à-dire tant quon ne crée pas de dispositifs archicratifs pour les rendre visibles, contestables, révisables. Lépreuve de détectabilité, dans sa dimension d*arcalité implicite*, permet précisément de diagnostiquer ce défaut : là où les axiomes les plus lourds sont dissimulés derrière le langage de loptimisation, l*archicratie* nest pas seulement déficitaire ; elle est *empêchée*. Cest sur cette base que pourra être menée, dans les sections ultérieures, lanalyse des *cratialités* de Système F et des *archicrations* rares, fragmentaires, parfois fantomatiques qui tentent déjà, dans certains secteurs, de réintroduire de la scène dans un ordre régulé par les modèles.
## I.4. Cratialité du système IA
Si l*arcalité* répond à la question “*selon quoi ou qui ?*”, la *cratialité* répond à la question “*par quoi et comment ?*”. Dans Système F, ce “*par quoi et comment*” nest pas un point, mais une chaîne : *collecte et circulation de données*, *construction dattributs*, *entraînement du modèle*, *réglages successifs*, *mise en production*, *intégration dans des logiciels très ordinaires* et enfin *procédures dusage*. Ce que l*archicratie* appelle *cratialité*, cest précisément cette chaîne, dès lors quelle ne se contente plus doutiller une activité, mais *distribue de manière répétée des accès, des soupçons, des protections, des sanctions*.
Dans un centre de données où tourne le modèle de fondation, dans le service informatique dun ministère, dans une direction de linnovation dun hôpital, cette chaîne est documentée en détail : *diagrammes darchitecture*, *pipelines de données*, *journaux de traitement*. Mais pour lagent de guichet qui consulte une file de dossiers triés, pour la médecin confrontée à une liste de patients “priorisés”, pour le juge qui reçoit un rapport chiffré, pour le recruteur ou léquipe de modération qui voit un indicateur rouge, *cette cratialité est entièrement compacte* : un score, une couleur, un message, parfois une mention vague à un “outil danalyse avancée”. Lépreuve de détectabilité conduit alors à remonter, autant que possible, cette chaîne invisible, en sappuyant sur ce que les travaux existants documentent déjà.
### I.4.1. Des archives régulatrices recyclées en carburant statistique
La première strate de la *cratialité* de Système F, ce sont les *données*. Non pas des “matières premières” neutres, mais des *archives de décisions passées*.
Ainsi, avec SyRI, la littérature juridique montre que le système a été conçu comme un *instrument de “couplage” massif entre fichiers administratifs* : *données fiscales, registres de sécurité sociale, informations sur lemploi, le logement ou la dette, issues dun ensemble dorganismes publics qui, jusque-là, nétaient pas nécessairement interconnectés*. Lobjet nétait pas simplement de consulter lun ou lautre fichier, mais de constituer un “*dépôt de risque*” où les trajectoires de vie des habitants de certains quartiers étaient recomposées en *profils susceptibles de déclencher un contrôle*. Les dossiers saisis par les ONG et la décision de La Haye insistent sur ce point : cest bien cette concentration, ce couplage étendu et asymétrique des données qui a conduit le tribunal à juger que le dispositif ne respectait pas la vie privée.
Dans le scandale des allocations pour la garde denfants, lalgorithme incriminé na pas été conçu *ex nihilo* : il reposait sur les dossiers fiscaux et sociaux accumulés par ladministration, sur les anciens contrôles, sur les historiques de remboursement, sur des métadonnées apparemment triviales (nationalité, double nationalité, type de crèche). Les enquêtes parlementaires et les analyses doctrinales montrent que la machine à profiler a, de ce fait, hérité dune longue histoire de suspicion ciblée, pour la concentrer sur des familles à bas revenus, souvent issues de limmigration.
Dans ce dispositif précis de santé étudié par Obermeyer et ses co-auteurs, la base dapprentissage est constituée de données de facturation : coûts passés, diagnostics, passages à lhôpital, prescriptions, etc. Lalgorithme ne “voit” pas les patients, il voit les dépenses que le système de santé a consenties pour eux. Quand le dispositif est ensuite utilisé pour sélectionner les patients éligibles à des programmes de soins intensifs, la *cratialité* de Système F prolonge ainsi une économie historique des soins : ceux dont on a peu dépensé pour eux sont moins visibles pour lalgorithme, même sils sont plus malades.
Du côté pénal, les études sur COMPAS rappellent que les scores sont calculés à partir dune combinaison déléments du casier judiciaire et des réponses à un questionnaire de 137 items, portant sur la trajectoire de vie, lenvironnement social, lemploi, la scolarité, le logement. Là encore, Système F ne “crée” pas les variables ; il hérite de la manière dont la police a arrêté, dont les tribunaux ont condamné, dont les services sociaux ont consigné des éléments de biographie, dans un contexte où ces histoires sont déjà fortement structurées par la race, la classe, le territoire.
Dans le recrutement, loutil dAmazon décortiqué par Reuters a été entraîné sur une décennie de décisions de recrutement dans des métiers techniques, essentiellement occupés par des hommes. Les CV, lettres, diplômes et trajectoires de carrière qui composent cette base reflètent un champ professionnel déjà fortement genré ; cest cette archive que le modèle prend pour horizon de référence.
Enfin, sur les plateformes, les systèmes de modération et de recommandation ingèrent des flux continus de contenus, mais aussi des archives de signalements, de suppressions, de “likes”, de signalements de discours haineux ou terroristes. Les rapports de transparence imposés par le Digital Services Act et les documents publiés par Meta insistent sur le *rôle des systèmes automatisés dans la détection initiale des contenus, en se nourrissant précisément de cette mémoire dinterventions passées*.
Dans tous ces cas, la *cratialité* de Système F commence donc par un *geste de reprise* : les *bases de données sur lesquelles repose lentraînement et le fonctionnement du système sont déjà des condensés darbitrages régulateurs, de contrôles et de sélections, parfois de longues routines discriminatoires*. La chaîne cratiale ne se contente pas d“absorber” la réalité sociale ; elle absorbe des archives de pouvoir.
### I.4.2. Pipelines : transformer des vies en vecteurs
La deuxième strate de la *cratialité* est moins visible encore : ce sont les chaînes de transformation qui convertissent ces données hétérogènes en représentations exploitables par le modèle. Les manuels de science des données et les guides sur lusage de lIA dans les administrations décrivent des étapes désormais classiques : nettoyage, normalisation, sélection ou construction de variables, agrégation, puis vectorisation.
Dans le cas dun dispositif de détection de fraude sociale, une succession de décisions apparemment techniques se met en place : faut-il coder la “nationalité” comme une variable binaire, ou comme une liste fine de pays ? Faut-il comptabiliser le nombre de déménagements sur cinq ans, ou sur dix ? Comment transformer des remarques écrites par des agents en indicateurs numériques ? Le rapport de la Commission denquête parlementaire néerlandaise sur le scandale des allocations montre que, dans la pratique, ces choix ont conduit à donner un poids particulier à certains marqueurs (double nationalité, erreurs mineures dans les formulaires), qui faisaient passer des familles entières du côté du “risque élevé”.
Pour l*algorithme de santé* analysé par Obermeyer et al., cette chaîne consiste à *agréger des années de dépenses en santé, de diagnostics et dhospitalisations en un score unidimensionnel de “risque”, censé représenter les “besoins futurs” du patient*. Le fait dopter pour les coûts plutôt que pour des indicateurs cliniques, puis de compresser ces informations en un score continu, est un *geste cratial* autant que statistique : il *rend possible lintégration du système dans les tableaux de bord des gestionnaires*, et *autorise un tri automatique des patients à échelle industrielle*.
Dans COMPAS, transformer 137 réponses et un casier judiciaire en un score de 1 à 10 suppose plusieurs *couches de prétraitement* : *recodage des réponses en catégories numériques*, *pondération de facteurs*, *combinaison en indices partiels*, puis en *score global*. Les études qui ont reconstruit partiellement la méthode à partir de données ouvertes montrent à quel point *cette chaîne incorpore des éléments contextuels* (code postal, stabilité résidentielle, entourage, historique de consommation de drogues) qui, une fois vectorisés, deviennent des *attributs apparemment neutres, mais fortement corrélés à des trajectoires socio-raciales différenciées*.
L*outil de tri de CV* dAmazon, pour sa part, devait convertir des documents richement formatés en vecteurs de caractéristiques : *universités*, *mots-clés*, *expériences*, *engagements*, parfois même *tournures de phrases*. Cest dans cette phase que le système a “*appris*” à pénaliser des expressions comme “*womens chess club*” ou des références à des universités connotées féminines, parce que ces traits coïncidaient, dans les données dentraînement, avec des candidatures historiquement moins retenues.
Enfin, les *pipelines de modération* et de *recommandation* transforment chaque message, image ou vidéo en une série de marqueurs : *langue, thème, tonalité, degré présumé de violence ou de haine, signaux de “fiabilité” de la source, etc.* Les documents de Meta et les analyses indépendantes montrent que ces *pipelines* combinent *détection automatisée*, *listes de mots*, *signaux issus de comportements passés*, avant de produire des étiquettes (“contenu à risque”, “contenu limite”) qui orientent la visibilité des publications bien en amont de toute décision humaine.
Ce que la lecture archicratique met ici en avant, ce nest pas seulement la technicité de ces *pipelines*, mais leur *effet de réduction* : *des vies, des trajectoires, des plaintes, des prises de parole sont ramenées à des vecteurs, des classes, des scores*. Cette réduction est nécessaire pour que Système F fonctionne ; elle nest pas en soi illégitime. Mais elle constitue lun des lieux où la *cratialité* fait passer un seuil : *ce qui devient calculable devient gouvernable*.
### I.4.3. Modèles, paramètres, seuils : la mécanique fine des décisions
La troisième strate de la *cratialité* de Système F est celle des *modèles* et de leurs *réglages*. Les manuels de *machine learning* parlent *darchitectures, de fonctions de perte, doptimisation, dhyperparamètres*. Pour l*archicratie*, ces notions deviennent intéressantes lorsquelles cristallisent des *choix régulateurs*.
Ainsi, *santé* étudié par Obermeyer et al., le modèle est paramétré pour *minimiser lerreur globale de prédiction des coûts futurs*. Ce choix minimiser une somme derreurs plutôt que de garantir un niveau de traitement minimal pour certains groupes a pour effet doptimiser la performance moyenne au prix dune sous-protection systématique des patients noirs. Les auteurs montrent quen modifiant la fonction de coût pour intégrer explicitement des mesures de morbidité, le classement des patients noirs change radicalement.
Dans COMPAS, les paramètres du modèle et la manière dont les scores sont répartis en catégories (“faible”, “moyen”, “élevé”) déterminent la proportion de personnes qui basculent dans chaque classe de risque. Les études empiriques indiquent que, pour un même score, la probabilité de récidive est similaire entre accusés noirs et blancs, mais que la distribution des erreurs (faux positifs, faux négatifs) diffère fortement selon les groupes. Larchitecture et les réglages du modèle correspondent donc à un compromis implicite : il est jugé acceptable de produire davantage de faux positifs pour certains groupes, afin de maintenir une calibration globale satisfaisante.
Les *systèmes de scoring* de fraude sociale fonctionnent de la même manière : la décision de fixer un seuil de déclenchement de contrôle à tel niveau plutôt quà tel autre se traduit immédiatement en nombre de dossiers réexaminés, en proportion de familles frappées par des procédures, en intensité de la surveillance sur certains quartiers. Les travaux juridiques sur SyRI insistent sur le fait que ce seuil, et les indicateurs qui y conduisent, nétaient pas seulement inconnus du public, mais inaccessibles même aux personnes contrôlées.
Dans le cas dAmazon, larchitecture exacte du modèle na pas été publiée, mais les sources indiquent quil sagissait dun système dapprentissage supervisé qui attribuait une note dune à cinq étoiles aux CV, en imitant les décisions de recrutement passées. La simple existence dune échelle discrète de 1 à 5, avec un tri automatique des dossiers en fonction de cette note, traduit un choix cratial : il ny a plus de lecture directe de chaque CV, mais un filtrage basé sur un signal synthétique, qui décide de ce qui est vu ou non par les recruteurs.
Dans tous ces cas, les modèles, les paramètres et les seuils ne sont pas seulement des composantes techniques ; ils sont les points précis où la chaîne cratiale se décide : *combien de personnes seront contrôlées, qui sera inclus dans un programme de soins, qui portera le stigmate dun “haut risque”, qui sera vu par un recruteur ou par le public dune plateforme*. La *cratialité* de Système F, cest cette capacité à faire varier, par ajustement de quelques coefficients, la forme concrète de laccès aux droits, aux ressources, à la visibilité.
### I.4.4. Interfaces : là où la *cratialité IA* rencontre la *cratialité humaine*
Pour les agents, juges, médecins, recruteurs, modérateurs, la *cratialité* napparaît cependant quà lautre bout de la chaîne : dans les *interfaces*. Cest là que Système F devient visible sous la forme dune colonne de scores, dun code couleur, dun message dalerte, dune suggestion “recommandée par le système”.
Les études sur les systèmes daide à la décision clinique montrent que la manière dont une recommandation est affichée (alerte intrusive, message discret, couleur, possibilité de justification) influence fortement la propension des praticiens à la suivre ou à la contourner. Les travaux sur les biais dautomation confirment que, lorsque linterface présente une proposition algorithmique avec un fort statut dautorité (icône de validation, texte en vert, mention “recommandé”), les opérateurs ont tendance à lui accorder plus de crédit quà leur propre jugement, surtout dans des contextes de charge de travail élevée.
Transposé à Système F, cela signifie quun agent de caisse sociale, confronté à une liste de dossiers triés par un score rougeorangevert, sera incité à traiter en priorité les dossiers rouges, même si rien ne loblige formellement à suivre lordre proposé. Une médecin, devant une liste de patients ordonnés par un indice de “priorité” accompagné dun avertissement lorsquelle sen écarte, devra assumer de “désobéir” au système pour reclasser un patient. Un juge, lisant un rapport de risque pénal avec un score mis en avant et une série de formulations standardisées, sait que toute divergence devra être explicitée dans son jugement.
Les interfaces de plateformes, elles, ne montrent souvent rien du tout : lutilisateur voit que sa publication “marche moins bien”, ou bien reçoit un message standardisé lui indiquant que son contenu a “enfreint les standards”, sans que la contribution exact de Système F soit explicitée. Les rapports de transparence exigés par le DSA commencent à donner des indicateurs agrégés sur la proportion de décisions automatisées, mais ils ne modifient pas cette expérience élémentaire : pour lusager, la *cratialité* se résume à un refus, une baisse de portée, un retrait.
Du point de vue archicratique, ces interfaces sont des lieux décisifs : elles articulent la *cratialité IA* et la *cratialité humaine.* Selon la manière dont elles sont conçues plus ou moins explicites, plus ou moins contraignantes, plus ou moins configurables elles peuvent soit renforcer lautorité de Système F au point den faire un quasi-oracle, soit ménager des marges de requalification, de contestation, de suspension. La matérialité du bouton, de la couleur, de lalerte est ici pleinement politique.
### I.4.5. Procédures dintégration : scripts dusage et effets disciplinaires
Enfin, la *cratialité* de Système F se fixe dans les règles internes qui déterminent sa place dans les procédures de décision. Les études de cas sur lIA dans les administrations et le droit de lUE sur les décisions automatisées insistent sur ce point : la différence entre un système de “recommandation” et un système de “décision automatisée” tient souvent moins à la technique quaux scripts organisationnels qui encadrent son usage.
Dans un service de protection sociale, il peut être écrit que “les dossiers marqués à haut risque doivent être examinés en priorité” ; dans un tribunal, que “le score de risque ne peut être le seul fondement dune décision, mais que toute divergence substantielle doit être motivée”. Dans un hôpital, qu“un patient proposé par lalgorithme pour un programme de soins intensifs ne peut être exclu quaprès justification”; dans un service de recrutement, que “seuls les CV classés au-dessus dun certain seuil seront examinés humainement”.
Chacune de ces règles transforme un score en quasi-obligation : lagent, la médecin, le juge, le recruteur ne se contentent plus de consulter Système F ; ils doivent se positionner par rapport à lui, éventuellement sen justifier. Cest là que se loge, souvent, l“*humain dans la boucle*” invoqué par les chartes dIA responsable : un humain reste dans la boucle, mais placé en position davoir à expliquer pourquoi il ne suit pas la recommandation, plutôt que de décider de manière primaire.
Les travaux sur SyRI et sur le scandale des allocations montrent en outre que ces scripts ne sont pas toujours explicités, ni même stabilisés : certains agents témoignent dune pression implicite à suivre les signaux produits par le système, sous peine dêtre jugés “laxistes” ou “inefficaces”. Dans le cas de COMPAS, la décision Loomis autorise lusage de loutil comme aide à la décision, mais sans offrir de critères clairs sur la manière dont les juges devraient articuler le score avec leur appréciation propre : la *cratialité* *se faufile ainsi entre prescription et simple “support”, en laissant la responsabilité dernière porter par les individus*.
Du point de vue de l*archicratie*, cette couche procédurale est cruciale parce quelle fixe, en pratique, ce que “vaut” Système F : sil doit être suivi par défaut, sil peut être contredit, sil déclenche automatiquement des contrôles ou des sanctions, sil ouvre ou non un droit à un examen contradictoire. Dans de nombreuses configurations actuelles, cette valeur est déterminée par des circulaires internes, des guides utilisateurs, des formations *ad hoc*, rarement débattus sur une scène publique.
### I.4.6. Une *cratialité hypertopique*
*Reprise des archives régulatrices, pipelines de transformation, modèles et paramètres, interfaces, scripts dusage* : si lon assemble ces strates, la *cratialité* de Système F apparaît comme une *chaîne dense, continue, extraordinairement efficace*. Elle fait circuler des signaux depuis les bases de données jusquaux décisions prises au guichet, au tribunal, à lhôpital, dans lentreprise, sur la plateforme. Elle est fortement topologisée située dans des centres de données, des services informatiques, des consoles administratives , mais elle ne dispose pas, dans la plupart des cas, de lieux où elle se montre comme telle.
Pour les personnes affectées bénéficiaires, patients, justiciables, candidat·es, usagers la *cratialité* de Système F se présente avant tout comme une force “*hypertopique*” : un *vecteur deffets sans visibilité de sa propre structure*. On peut ressentir ses conséquences (un contrôle inattendu, une radiation, un refus de prestation, une incarcération prolongée, une non-sélection, un contenu invisibilisé), sans jamais pouvoir désigner précisément le “*par quoi et comment*” qui a conduit à la situation.
L*enjeu de lépreuve de détectabilité*, appliquée à la *cratialité*, est dès lors double. Dune part, *rendre descriptible cette chaîne, en montrant quelle nest ni magique ni diffuse, mais composée de décisions localisées, techniquement et institutionnellement situées*. Dautre part, *ouvrir la possibilité dun déplacement : faire exister des scènes où cette cratialité peut être exposée, discutée, reconfigurée, et ne plus opérer de manière invisible*.
Cest à cette condition seulement que la puissance calculatoire de Système F peut être insérée dans un ordre archicratique — cest-à-dire dans un ordre où la manière dont le pouvoir prend forme dans les dispositifs reste, elle aussi, amenée à lépreuve.
## I.5. Archicration existante mais lacunaire
Après l*arcalité déclarée et implicite*, après la *cratialité* de Système F, reste à interroger ce qui tient lieu, aujourdhui, d*archicration* : des *scènes dépreuve où lon pourrait amener la régulation algorithmique en visibilité, la contester, la transformer*. Dans la grammaire de la thèse, une archicration nest pas un simple “dispositif de contrôle” : cest un *lieu institué où les fondements (arcalité) et les instruments (cratialité) peuvent être mis en discussion par des acteurs concernés, dans des formes réglées, avec des effets possibles sur larchitecture du système*.
À première vue, lécosystème de Système F semble en être riche : *comités déthique de lIA*, *conseils de gouvernance des données*, *audits de biais*, *autorités de protection des données*, *agences sectorielles*, *juges*, *mécanismes de recours*, désormais complétés par les *obligations de transparence et de plainte du Digital Services Act*, par des lois sectorielles comme le *Local Law 144* de New York sur les outils automatisés de recrutement, ou par des dispositifs singuliers comme le *Meta Oversight Board*.
Mais, dès quon reformule les questions dans les termes archicratiques — *qui peut voir quoi ? qui peut contester quoi ? avec quels effets sur le système lui-même ?* — le paysage se transforme. Beaucoup de ces dispositifs produisent des avis, des rapports, des sanctions ponctuelles, des formulaires de recours ; très peu organisent une véritable comparution de Système F devant ceux quil affecte.
### I.5.1. Cartographie rapide des prétendants à la scène
On peut, pour commencer, distinguer quatre grandes familles de dispositifs qui, chacune à leur manière, prétendent jouer un rôle dinstance dépreuve pour lIA :
1. *Comités, chartes, conseils dexperts*
Comités internes déthique de lIA dans les grandes entreprises technologiques, commissions *ad hoc* dans les administrations, groupes dexperts de haut niveau comme celui qui a élaboré les Lignes directrices pour une IA digne de confiance au niveau européen. Ils produisent des principes, des recommandations, des “bonnes pratiques”.
2. *Audits et évaluations techniques*
Audits de biais sur les outils de recrutement imposés par le Local Law 144 à New York (obligation de réaliser un audit annuel, de publier un résumé, dinformer les candidats).
Évaluations dimpact sur les droits fondamentaux ou sur les risques, demandées par certains régulateurs et expérimentées dans le cadre de lAI Act européen et de rapports comme *Algorithmic Rule* ou le *Handbook: AI and Public Administration*.
3. *Autorités de régulation et juridictions*
Autorités de protection des données, conseils pour légalité et organismes antidiscrimination, autorités sectorielles, institutions européennes (Commission, FRA, etc.) qui ont enquêté sur les systèmes de profilage dans le social, la police ou la fiscalité.
Cours nationales et européennes, comme le tribunal de La Haye dans SyRI, ou la chaîne de procédures qui a suivi le scandale des allocations familiales aux Pays-Bas.
4. *Voies de recours et mécanismes de réclamation*
Droit au recours des allocataires, des justiciables, des patients, des candidats à lemploi, des utilisateurs de plateformes.
Mécanismes internes de plainte et de contestation imposés par le Digital Services Act (obligation pour les grandes plateformes de prévoir des procédures de traitement des signalements et des recours, de publier des rapports annuels sur la modération, en précisant notamment la part de décisions automatisées et les taux derreurs).
Dispositifs spécifiques comme le *Meta Oversight Board*, qui réexamine un nombre limité de décisions de modération emblématiques et publie des décisions motivées et des recommandations.
Dans ce maillage, les éléments dune *archicration authentique* sont présents : *lieux de délibération, expertises, procédures contradictoires, sanctions possibles*. Mais leur articulation et leur accessibilité restent profondément inégales. Surtout, la plupart de ces dispositifs sadressent avant tout aux organisations et aux concepteurs, beaucoup moins aux personnes directement affectées par Système F.
### I.5.2. Comités et chartes : scènes sans publics
Les comités déthique de lIA et les groupes dexperts ont joué un rôle central dans la formulation des grands principes qui structurent l*arcalité déclarée des systèmes* — équité, transparence, robustesse, responsabilité, etc. Les AI Principles de Google et Microsoft, les Lignes directrices européennes pour une IA digne de confiance, ou encore les rapports nationaux sur “lIA et les libertés” en sont des exemples typiques.
Ces instances ont bien une dimension quasi archicratique : elles mettent en scène, dans un cercle de spécialistes, des questions de fond (“quest-ce quune IA digne de confiance ?”, “quels sont les risques majeurs pour les droits fondamentaux ?”). Elles produisent des textes publics, organisent des consultations, parfois invitent la société civile à réagir. Mais, du point de vue de Système F, elles restent à un niveau très général :
- elles ne se prononcent que rarement sur un système concret inséré dans des chaînes cratiales spécifiques (fraude sociale, tri de CV, gestion des risques de santé, etc.) ;
- elles ne réunissent quà la marge les personnes directement affectées par ces dispositifs (allocataires, patients, justiciables, candidats, usagers) ;
- elles nont pas, sauf exception, de pouvoir dinjonction ou de suspension sur les systèmes en question.
Autrement dit, ces comités produisent des scènes de discours normatif situées très en amont, mais ils norganisent pas lépreuve dun Système F déterminé. Ils contribuent à la fondation discursive de l“IA responsable”, sans pour autant mettre en visibilité la *cratialité effective* des dispositifs déjà déployés.
### I.5.3. Audits de biais et évaluations dimpact : scènes confinées, biaisées par les conflits dintérêts
Une deuxième famille de dispositifs, plus proche des chaînes réelles de Système F, est celle des *audits de biais* et des *évaluations dimpact algorithmiques*. Dans de nombreux pays, cette famille est en plein essor : New York, avec le *Local Law 144*, impose des audits de biais pour les outils automatisés de recrutement ; le Canada a généralisé l“*Algorithmic Impact Assessment*” pour les systèmes de décision automatisée dans ladministration ; des guides de bonnes pratiques, produits par des organisations internationales, des agences publiques et des *think tanks*, enjoignent désormais administrations et entreprises à “évaluer” leurs systèmes de profilage avant ou pendant leur déploiement.
Dans lesprit, on pourrait croire tenir enfin une *archicration* structurée : un tiers examine un système, mesure ses effets, formule des recommandations, éventuellement sous le regard de lautorité ou du public. Un rapport est produit, parfois publié ; des chiffres sont discutés ; des engagements damélioration sont pris. Mais dès quon regarde de près *qui audite, sur quoi, avec quelles marges de manœuvre*, apparaissent des tensions lourdes, qui tiennent moins de la sophistication statistique que de la *configuration des intérêts en présence*.
Premièrement, la plupart des régimes daudit existants reposent sur un modèle classique de *relation clientprestataire*. Cest lorganisation qui déploie Système F employeur, administration, plateforme qui commande, finance et choisit son auditeur. Le *Local Law 144* de New York illustre bien cette logique : les employeurs doivent faire réaliser un audit annuel par un tiers “indépendant” de leurs outils de décision automatisée en matière demploi, et publier un résumé des résultats. Sur le papier, lexigence dindépendance est posée ; dans la pratique, rien nempêche la constitution dun marché de cabinets spécialisés dont la survie dépend de la capacité à produire des audits compatibles avec les attentes de leurs clients. Les premières analyses de ce régime soulignent un nombre limité daudits effectivement réalisés, une tentation dinterpréter les exigences de manière minimaliste, et un *risque de* “*vice de conformité*” : *laudit devient un examen du respect formel des prescriptions, non une épreuve substantielle du dispositif et de ses usages*.
Deuxièmement, la montée en puissance dune véritable “industrie de laudit de lIA” introduit un *conflit dintérêts structurel*. De *grandes firmes de conseil* parfois les mêmes qui développent, vendent ou intègrent des solutions dIA *se positionnent comme auditeurs des systèmes quelles contribuent par ailleurs à diffuser*. Des organismes de normalisation, comme le British Standards Institution, ont explicitement mis en garde contre cette situation : un nombre significatif dacteurs qui commercialisent des audits dIA sont aussi producteurs de technologies, ce qui alimente des doutes sur leur indépendance et sur la rigueur des évaluations ; des initiatives de standardisation cherchent désormais à encadrer ces pratiques. Dans le même sens, les appels à des audits “holistiques” qui évalueraient non seulement les performances techniques, mais aussi les présupposés normatifs, les effets sociaux et les mécanismes de gouvernance insistent sur la *nécessité dauditeurs* “*libres de tout conflit dintérêts*”, *sans quoi la procédure se réduit à une validation de façade*.
Troisièmement, les *évaluations dimpact algorithmiques* mises en place dans le secteur public prolongent souvent, sous une forme plus sophistiquée, la *logique de lauto-évaluation*. Lorsquun ministère ou une agence réalise lui-même “son” évaluation dimpact avant de déployer un système de profilage ou de tri, il se trouve en position de juger la pertinence dun dispositif quil a conçu, financé, promu et quil espère présenter comme vecteur de modernisation. Les travaux pionniers sur les *Algorithmic Impact Assessments* insistent, à linverse, sur la nécessité de dispositifs véritablement contradictoires : participation forte des publics concernés, consultations publiques substantielles, possibilité pour des acteurs externes (ONG, chercheurs, journalistes) de demander des compléments ou de contester des évaluations jugées insuffisantes. Certaines analyses des cadres européens vont dans le même sens, en plaidant pour des droits daccès aux données, aux modèles et aux documents de conception, faute de quoi aucun écosystème daudit réellement indépendant ne peut émerger.
Si lon recompose ces éléments dans notre langue archicratique, on voit se dessiner une *typologie de conflits dintérêts qui affectent directement la scène dépreuve*. Les conflits sont *financiers*, lorsque lauditeur dépend économiquement, de manière répétée, du client quil est censé contrôler ; *organisationnels*, lorsque laudit est confié à des structures internes, à des filiales ou à des partenaires stratégiques qui partagent les mêmes objectifs de déploiement ; *cognitifs*, enfin, lorsque audités et auditeurs appartiennent au même petit milieu technico-juridique, avec des catégories de pensée, des indicateurs et des horizons de pertinence largement communs. Dans ces trois cas, *linstance censée jouer le rôle de tiers contradicteur se trouve, à divers degrés, alignée avec les intérêts et les cadrages de ceux qui conçoivent et exploitent Système F*.
Le cadrage même des audits accentue cette dérive. Les textes juridiques et les guides méthodologiques encouragent parfois une vision très étroite de lobjet audité. Le *Local Law 144*, par exemple, impose de mesurer des écarts de taux de sélection selon le genre et la “race/ethnicité” dans les outils de recrutement, mais ne couvre pas dautres dimensions pourtant protégées par le droit (âge, handicap) ou manifestement pertinentes (origine sociale, statut migratoire, langue). Dans ce contexte, lorganisation a tout intérêt à limiter lexercice à ce qui est strictement requis, à traiter laudit comme une *check-list* de ratios, et à laisser hors champ les questions plus profondes de fonction de coût, de proxy ou de composition des jeux de données cest-à-dire précisément l*arcalité implicite* que notre cas cherche à mettre au jour.
Au terme de cette séquence, les *audits de biais* et *évaluations dimpact* apparaissent comme des *archicrations tronquées*. Il y a bien, formellement, une scène : un rapport est rédigé, parfois rendu public ; des chiffres sont produits ; des recommandations sont formulées. Mais les personnes directement affectées par Système F allocataires, justiciables, patients, candidat·es, utilisateurs de plateformes en sont largement absentes, ou réduites au statut de “parties prenantes” abstraites ; les choix les plus déterminants (fonctions de coût, proxies, seuils, composition des jeux de données) restent souvent hors du périmètre audité, au profit dindicateurs aisément mesurables ; les *conflits dintérêts structurels*, enfin, minent la capacité de lauditeur à assumer le rôle de *tiers contradicteur* que l*archicration* exigerait.
Dans notre grammaire archicratique, ces dispositifs constituent donc des épreuves techniques sans scène véritable : lalgorithme est certes testé, mais la collectivité ne dispose pas dun lieu institué où confronter les résultats, interroger les axiomes, contester les compromis retenus, exiger des transformations. Laudit remplit principalement une fonction de légitimation “le système a été évalué” plus quune fonction de mise en débat. Autrement dit : la *cratialité* de Système F est brièvement éclairée par quelques faisceaux dexpertise, mais l*arcalité implicite* reste soustraite à la comparution, et la scène demeure largement capturée par ceux qui ont intérêt à maintenir le dispositif intact.
### I.5.4. Autorités et tribunaux : scènes fortes, mais rares et *ex post*
Les autorités de régulation et les juridictions offrent, à première vue, les formes les plus accomplies d*archicration* : procédures contradictoires, auditions, décisions motivées, sanctions, parfois réparation.
Larrêt SyRI du tribunal de La Haye est emblématique : le dispositif de profilage de fraude aux prestations y est décrit, mis en rapport avec larticle 8 de la CEDH, et finalement jugé disproportionné, en raison notamment du manque de transparence, du ciblage de quartiers défavorisés et de la difficulté pour les personnes profilées de contester le système.
Dans le scandale des allocations pour la garde denfants, les enquêtes de lAutorité de protection des données (AP), les rapports parlementaires et, finalement, la crise politique qui a conduit à la démission du gouvernement Rutte illustrent ce que peut être une scène dépreuve à grande échelle : les pratiques de profilage, les critères utilisés (dont la double nationalité), les effets sur des milliers de familles sont mis au jour, décrits, condamnés, et donnent lieu à un vaste plan de compensation.
Au niveau européen, le DSA commence à être appliqué comme base juridique pour sanctionner des plateformes qui manquent à leurs obligations de transparence, comme dans le cas récent de lamende infligée à X (anciennement Twitter) pour violation de ses devoirs de transparence et de lutte contre les “*dark patterns*”.
Ces scènes ont un effet archicratique réel : elles forcent les systèmes à comparaître, révèlent des pratiques jusque-là invisibles, imposent des réformes. Mais elles ont aussi des limites structurelles :
- Elles interviennent tard, après des années dusage, lorsque les dommages sont déjà massifs, comme dans le *toeslagenaffaire* (surendettement, perte de logement, placement denfants).
- Elles restent focalisées sur certains aspects juridiques (vie privée, discrimination, transparence) sans pouvoir, à elles seules, reconfigurer lensemble de la chaîne cratiale de Système F.
- Elles donnent une place indirecte aux personnes affectées (plaignants, associations, ONG), mais ces dernières nont ni la maîtrise de lagenda, ni la garantie que la logique même du modèle sera transformée.
On pourrait dire, en termes archicratiques, que ces procédures sont des *scènes de rattrapage* : elles produisent des effets puissants, mais elles ne transforment pas encore la régulation algorithmique en régime ordinaire de comparution. Système F ny vient quen cas de crise, non comme un acteur continuellement justiciable.
### I.5.5. Recours individuels et plaintes : scènes fermées, réponses standardisées
Reste la question des recours : que peut faire, dans létat actuel des choses, un individu ciblé par Système F ?
Dans les politiques sociales, un allocataire qui voit sa prestation suspendue ou refusée peut en principe exercer un recours administratif ou contentieux. Pourtant, comme lont montré les enquêtes sur le scandale néerlandais, ces voies ont été largement inopérantes face à des décisions massives et standardisées, fondées sur des profils de risque opaques. Des parents ont multiplié les recours individuels sans succès, jusquà ce que des journalistes, des parlementaires et des autorités de contrôle parviennent à ouvrir le scandale au niveau systémique.
Le recours reste structuré comme si la décision avait été prise par un agent individuel, dans un dossier singulier ; il noffre aucune prise pour contester la logique même du système de profilage.
Dans le recrutement, des candidats peuvent saisir les autorités anti-discrimination ou engager des actions en justice, comme dans les affaires récentes où des candidats ont attaqué des fournisseurs doutils de tri automatisé pour discrimination raciale ou fondée sur le handicap.
Mais même les dispositifs les plus avancés, comme le *Local Law 144*, se concentrent sur le respect dobligations de procédure (audit, transparence minimale), non sur louverture dune scène où les candidats pourraient discuter des critères incorporés dans loutil. Une fois que lemployeur peut montrer quun audit a été réalisé et quun résumé est en ligne, la possibilité de contester la structure même de loutil reste très limitée.
Pour les plateformes, le DSA impose lexistence de *mécanismes internes de réclamation* et, pour les très grandes plateformes, la *mise en place de systèmes de traitement des notifications de contenus illégaux et de plaintes contre les décisions de modération*, ainsi que des *mécanismes de règlement extrajudiciaire des litiges*.
En pratique, ces dispositifs prennent la forme de formulaires en ligne, de délais de réponse, de messages standardisés. Ils permettent parfois de corriger des erreurs manifestes (restauration dun contenu, réouverture dun compte), mais ils nouvrent presque jamais une discussion sur les critères de modération eux-mêmes. Lutilisateur reste face à une interface laconique ; le rôle de Système F dans la décision (score de toxicité, détection de désinformation, etc.) est rarement explicité.
Le *Meta Oversight Board* constitue une exception partielle : il *publie des décisions motivées*, *analyse la conformité des politiques de Meta aux droits humains*, *formule des recommandations publiques*, parfois très critiques, sur certains *aspects de la modération* et de la *hiérarchisation des contenus*.
Mais il ne traite quun nombre infime de cas, sélectionnés parce quils soulèvent des questions emblématiques ; il na pas de pouvoir direct sur la conception des systèmes de recommandation ou sur lensemble des algorithmes qui régulent la visibilité. Sa scène est réelle, mais fortement débitée : quelques affaires par an, dans un océan de décisions automatisées quotidiennes.
Dans la santé, enfin, les patients disposent de droits daccès à leur dossier et, dans certains pays, peuvent saisir des médiateurs ou des commissions déthique clinique. Les travaux sur lalgorithme dObermeyer et al. montrent que la prise de conscience de ses effets discriminatoires est venue de chercheurs en épidémiologie et en médecine, non de recours individuels de patients.
Là encore, la scène dépreuve reste centrée sur la relation médecinpatient ; Système F y apparaît, au mieux, comme un outil contextuel, rarement comme objet principal de la contestation.
On voit se dessiner un trait commun : les mécanismes de recours existants permettent de contester les effets (une suspension de prestation, une peine, un refus dembauche, un retrait de contenu), beaucoup plus difficilement le dispositif qui les produit. Ils ouvrent surtout des scènes de réclamation, non des scènes d*archicration*.
### I.5.6. *Archicrations fantômes* et *oblitération de la scène*
Si lon rassemble ces éléments, le diagnostic archicratique sur l“*archicration existante*” de Système F devient plus précis.
- Oui, il existe des *instances qui ressemblent à des scènes* : *comités dexperts, audits, autorités de régulation, tribunaux, mécanismes de plainte, organes comme lOversight Board*.
- Oui, certaines de ces *instances produisent des effets tangibles* : *arrêt de SyRI, révélation et compensation dans le scandale des allocations, sanctions financières sous le DSA, ajustements ou abandons de certains outils* (comme le système de recrutement dAmazon).
- Mais, pour lessentiel, ces *instances restent partielles, sectorisées, tardives et pauvres en participation directe des personnes affectées*.
Du point de vue de l*archicratie*, cela signifie que :
- L*arcalité* de Système F existe, mais elle demeure largement *fantomatique* : les fondements implicites (proxies, fonctions de coût, hiérarchies des erreurs) ne sont presque jamais mis en scène comme tels. Les grands principes d“IA digne de confiance” ou de “lutte contre la fraude” sont proclamés, mais leurs traductions opératoires ne sont pas exposées devant ceux quelles engagent.
- La *cratialité* est puissante, finement articulée, mais *hypertopique* : elle concentre ses opérations dans des architectures techniques et organisationnelles peu visibles, qui produisent des effets massifs sans quil soit possible, pour un individu, de remonter aisément la chaîne du “*par quoi et comment*”.
- L*archicration*, enfin, est *lacunaire* : elle se manifeste soit sous forme de procédures internes, daudits, de comités qui ne sont pas de vraies scènes publiques ; soit sous forme de grandes affaires contentieuses ou de scandales médiatiques, qui jouent le rôle de scènes dexception plutôt que dinstances ordinaires de mise à lépreuve.
On peut, avec la thèse, parler ici d*archicrations fantômes* : des dispositifs qui empruntent lallure des scènes (commissions, formulaires, recours), mais qui ne disposent ni de la consistance, ni de louverture, ni de la réflexivité nécessaires pour faire effectivement comparaître Système F. Ils maintiennent limpression dune possibilité de recours, sans organiser véritablement la confrontation des fondements, des instruments et des effets.
La première conclusion de lépreuve de détectabilité est ainsi nette : dans létat actuel des usages de Système F, la régulation algorithmique est, pour une large part, hors scène. Les scènes qui existent sont soit trop en amont (principes généraux), soit trop en aval (scandales, contentieux), soit trop étroites (audits techniques fermés, formulaires de plainte standardisés). La suite du cas détude consistera à replacer cette *oblitération archicratique* dans la longue histoire des régimes régulateurs, puis à examiner ce que pourrait signifier, pour un système dIA de ce type, une véritable réouverture de la scène : non plus des reculs ponctuels, mais une politique explicite des épreuves, où Système F serait tenu de rendre des comptes, non seulement sur ses performances, mais sur les fondements et les formes de pouvoir quil met en œuvre.
##