--- title: "Conclusion" edition: "cas-ia" status: "application" level: 1 version: "0.1.0" concepts: [] links: [] order: 190 summary: "" source: kind: docx path: "sources/docx/cas-ia/Cas_Pratique-Archicratie_et_gouvernance_des_systemes_IA-Conclusion.docx" --- # Conclusion : Ce que l’audit archicratique d’un système IA nous apprend On peut maintenant refermer le dossier de Système F, mais il serait trompeur de parler de “fin”. Ce cas pratique n’a jamais été conçu comme une étude de cas au sens faible – un exemple illustratif venu mettre un peu de chair sur une théorie déjà bouclée. Il a été traité comme un *laboratoire* : un lieu où le paradigme archicratique est mis à l’épreuve d’un dispositif particulièrement condensé de notre présent, un lieu où il est sommé de tenir ses promesses ou de montrer ses limites. La conclusion qui s’impose n’est donc pas un résumé, mais une mise en forme : *que nous a appris, en retour, l’exploration archicratique d’un grand système d’IA de fondation intégré à la régulation sociale ? Qu’a-t-elle révélé sur la nature des régimes qui nous gouvernent déjà, et sur les conditions de possibilité d’un réarmement archicratique crédible ?* D’un point de vue purement descriptif, la première leçon est presque brutale : Système F n’est pas un objet futuriste, mais la forme intensifiée de logiques déjà largement à l’œuvre. En le construisant comme un système composite – agrégat stylisé de dispositifs de scoring social, d’outils de gestion des risques en santé, de modules de tri de candidatures, de systèmes de recommandation et de modération de contenus, de services d’IA “as a Service” intégrés par API dans des guichets et des logiciels métier –, nous avons pris soin de ne rien lui attribuer qui ne soit déjà attesté, sous une forme ou une autre, dans des affaires documentées : scandale des allocations néerlandaises, algorithmes de risque pénal, gestion automatisée des patients à “haut risque”, outils de recrutement biaisés, plateformes dont la modération repose massivement sur des chaînes automatisées. Cette précaution n’est pas seulement méthodologique. Elle a une portée archicratique directe : ce qui fait problème dans Système F n’est pas l’IA en tant que telle, ni une supposée “intelligence” mystérieuse, mais la manière dont un ensemble de techniques statistiques et computationnelles vient s’insérer dans des chaînes de décision déjà existantes, et y redéployer de vieux régimes de soupçon, de hiérarchisation, de sélection. Le cas pratique a montré, pas à pas, que l’“innovation” ici consiste moins à inventer de nouveaux critères de jugement qu’à automatiser et disperser des critères anciens – ceux de la lutte contre la fraude, de la gestion des risques, de la recherche de “talent”, de la surveillance des comportements – en les encapsulant dans des dispositifs qui ne comparaissent plus. C’est précisément ce geste d’encapsulation que l’épreuve de détectabilité a mis en lumière. Sous le vocabulaire rassurant de l’“IA responsable”, de l’“objectivité” et de l’“efficacité”, nous avons distingué trois couches nettement différenciées. D’abord, l’*arcalité déclarée* : les justifications explicites, les objectifs affichés, les valeurs proclamées. Lutte contre la fraude pour “protéger l’État social”, objectivation actuarielle du risque pénal pour “harmoniser” les décisions, rationalisation de la gestion des soins pour “cibler les patients les plus vulnérables”, mécanisation de la recherche de talents au nom de l’“efficacité” et de la “méritocratie”, sécurisation des espaces numériques contre les contenus illégaux ou toxiques ; à cela s’ajoutent les grandes chartes d’“IA digne de confiance” qui mobilisent droits fondamentaux, non-discrimination, transparence, responsabilité. Cette couche n’est pas pure imposture : elle condense des préoccupations réelles, des valeurs substantiellement importantes, des promesses auxquelles beaucoup tiennent sincèrement. Ensuite, l’*arcalité implicite* : celle qui se niche dans les fonctions de coût, les proxies, la composition des jeux de données, les seuils de décision. C’est ici que se jouent les bascules lourdes : choix des coûts de santé comme approximant des besoins de soins, avec des effets racialisés massifs ; utilisation de la nationalité ou de la double nationalité comme variable de risque dans la détection de fraude ; apprentissage à partir de passés de recrutement structurellement masculins ; arbitrages entre faux positifs et faux négatifs distribués différemment selon les groupes. Au sens archicratique, chacun de ces choix est un axiome silencieux : une définition pratique de ce qui est grave ou tolérable, injuste mais accepté, suspect ou présumé innocent. L’épreuve de détectabilité a ici joué son rôle : montrer que ces axiomes existent bien, qu’ils produisent des effets massifs, mais qu’ils n’ont jamais été exposés comme tels. Enfin, la *cratialité* : la chaîne des instruments, des procédures, des interfaces, des règles d’usage par lesquelles Système F agit effectivement. Là encore, l’analyse détaillée a montré la *puissance de cette cratialité hypertopique* : pipelines qui transforment des trajectoires de vie en vecteurs numériques, tableaux de bord qui ordonnent les dossiers selon des scores calculés, logiciels hospitaliers qui proposent une “vue optimisée” des patients à traiter, modules de modération qui filtrent les contenus sans dire précisément sur quel fondement, procédures internes qui imposent de traiter d’abord les dossiers “rouges” ou de justifier toute divergence avec la recommandation. La plupart du temps, ce que voient les agents – case colorée, alerte, message – n’est que la pointe d’un iceberg cratial dont la structure reste inaccessible aux publics concernés. En termes archicratiques, le verdict est clair : Système F est massivement hors scène. Les fondements sont authentiques mais imperceptibles ; le pouvoir opératoire est intense mais opaque ; les archicrations existantes – comités d’éthique, audits de biais, évaluations d’impact, procédures de recours – sont en grande partie fantomatiques. Elles donnent la forme d’une scène, sans en avoir la puissance : elles examinent des indicateurs périphériques, produisent des recommandations non contraignantes, se déroulent entre experts aux intérêts parfois imbriqués, laissent les personnes affectées hors du cercle. L’épreuve topologique n’est pas venue ajouter une plainte de plus sur le “manque de transparence” : elle a montré que ce manque prend la forme d’une altération systématique de la scène elle-même. À force de suivre Système F au ras des guichets, des interfaces, des comités et des juridictions, une géographie récurrente s’est dessinée, presque obstinée : des *hypotopies locales*, des *hypertopies fermées*, des *atopies procédurales*. Du côté des *hypotopies*, on rencontre ces *scènes maigres, presque dénutries*, où l’on parle encore mais *sans véritable prise sur la régulation*. L’agent de caisse lit à haute voix une décision calculée en amont par un module IA, sans pouvoir ni en reconstituer la logique ni en infléchir le résultat ; le patient signe un formulaire de consentement standardisé dans un hôpital saturé de dispositifs numériques, sans que nul ne puisse lui montrer comment les algorithmes ont structuré son parcours de soins ; l’utilisateur de plateforme coche “je ne suis pas d’accord avec cette décision”, mais n’accède ni aux critères, ni aux scores, ni aux arbitrages qui ont conduit à la suppression ou au déréférencement de son contenu. À l’autre extrémité se trouvent les *hypertopies*, *scènes pleines mais fermées où se concentrent les décisions effectives*. *Les comités de pilotage des projets IA, les réunions de design, les arbitrages budgétaires entre directions métiers et prestataires, les séances de paramétrage des seuils et des métriques sont de véritables scènes, avec controverses, arguments, mises en tension*. Mais elles sont peuplées d’un petit nombre d’acteurs – dirigeants, ingénieurs, juristes, consultants – et la présence des allocataires, patients, justiciables, salariés, usagers y reste structurellement improbable. *La scène est alors riche en prises, mais sélective dans sa composition*. Entre ces deux pôles prolifèrent les *atopies*, scènes fantomatiques où l’on mime la mise en débat sans ouvrir réellement l’architecture des décisions. Consultations en ligne dont les conclusions n’engagent personne, boîtes à idées numériques qui nourrissent surtout des indicateurs d’“engagement”, dispositifs de “*retour* *utilisateur*” qui alimentent des tableaux de bord sans jamais déboucher sur une révision du modèle ou de ses usages : l’apparence de participation est là, mais la capacité de transformer la cratialité IA reste nulle ou marginale. La scène fonctionne comme décor, non comme opérateur. Le cas pratique montre, avec une régularité presque mécanique, que *Système F* tend à coloniser l’ensemble de ces topologies : il *étend sa présence dans les hypotopies* (interfaces de guichet, formulaires en ligne), *se renforce dans les hypertopies* (cénacles techno-managériaux où se décident modèles, proxies et seuils), *et se drape dans des atopies* (consultations, audits, panels, *feedbacks*) qui absorbent la contestation sans reconfigurer la régulation. Du point de vue archicratique, la question simple – “*où ce système peut-il être mis en procès ?*” – reçoit pour l’instant des réponses décevantes : *presque jamais au bon endroit, presque jamais au bon moment*. L’épreuve archéogénétique a donné à ce diagnostic une profondeur historique : elle a situé Système F au croisement de plusieurs méta-régimes déjà identifiés, tout en montrant en quoi ce croisement tend vers quelque chose comme un *méta-régime autarchicratique numérique*. Sur le versant *techno-logistique*, Système F apparaît comme l’héritier exacerbé de la *mégamachine* *des flux* : il *priorise* des dossiers, des contenus, des patients, des candidats, des alertes policières, *en orchestrant à grande vitesse des circuits d’information* ; il *intensifie la logique de pilotage par indicateurs et tableaux de bord*, où l’action publique et privée est évaluée à l’aune de courbes, de scores, de taux. Les *grandes infrastructures de données*, les *centres de calcul*, les *chaînes logicielles* sont la continuation, par d’autres moyens, de ces *architectures qui ont progressivement substitué à la décision située une régulation par flux*. Sur le versant *scripturo-normatif*, Système F n’abolit pas la bureaucratie, il la recode : *critères, grilles, formulaires, procédures de contrôle* sont désormais *incorporés dans des modèles qui manipulent des représentations vectorielles de ces mêmes catégories*. Le geste archicratique n’est pas d’opposer l’“ancien monde” bureaucratique au “nouveau monde” algorithmique, mais de montrer comment *l’algorithme encode et sur-détermine la bureaucratie, en naturalisant ses classifications, en les rendant plus difficiles à contester*. Sur le versant *marchand*, enfin, Système F s’inscrit pleinement dans le régime de *captation de valeur* : services d’IA vendus à des administrations, dépendance vis-à-vis de fournisseurs privés pour des fonctions critiques, monétisation de la prédiction et de la recommandation, optimisation des comportements de consommation et de participation. Le cas pratique a insisté sur le fait que rien de tout cela n’est accidentel : la structuration même de l’écosystème IA – grands acteurs du cloud, modèles de fondation, intégrateurs, consultants – fait du déploiement de Système F une affaire de marchés autant que de politiques publiques. Là où l’épreuve devient archéogénétique au sens fort, c’est lorsque ces trois dimensions – *techno-logistique, scripturo-normative, marchande* – sont articulées à la notion d’*autarchicratie* : un *méta-régime où la régulation se gouverne elle-même, où les dispositifs de mesure, de modélisation, de contrôle deviennent leurs propres critères de validité*. Système F condense cette tendance : il *repose sur des métriques* (perte, précision, métriques d’équité, indicateurs clés de performance) *qui s’auto-évalue à partir de ses propres sorties*, il *s’inscrit dans des circuits de reporting automatisés où les résultats produits servent à justifier le maintien ou l’extension du dispositif*. La boucle est bouclée : *les dispositifs se jugent eux-mêmes à l’aune des indicateurs qu’ils ont eux-mêmes contribué à fabriquer*, et les scènes externes, lorsqu’elles existent, peinent à se frayer un chemin dans ce cercle. L’épreuve morphologique, en confrontant Système F aux grandes philosophies du pouvoir, n’a pas seulement confirmé cette intuition ; elle l’a précisée en montrant ce que le paradigme archicratique ajoute à ces morphologies, et ce qu’il leur doit. L’angle foucaldien de la *gouvernementalité* a éclairé la manière dont Système F s’insère dans des dispositifs de sécurité, de normalisation, de gestion des populations : il permet de comprendre la *logique de la “conduite à distance”*, la *centralité de la prédiction et de l’anticipation*, la *rationalité des risques et des statistiques*. Mais cette grille laisse en retrait la question de la scène où ces dispositifs peuvent être publiquement discutés. Le cas pratique a montré que l’on peut maintenir la puissance descriptive de la gouvernementalité tout en déplaçant le centre de gravité : non plus seulement “comment le pouvoir circule-t-il à travers des dispositifs ?”, mais “*où ces dispositifs peuvent-ils être mis en épreuve ?*”. C’est ce décalage qui fait la spécificité archicratique. L’angle habermassien de l’*espace public délibératif* a éclairé d’autres tensions : circulation des informations, filtrage algorithmique des contenus, simulation de la délibération par des systèmes génératifs, colonisation de la formation de la volonté par des dispositifs technico-administratifs. Là encore, l’apport archicratique n’est pas de jeter Habermas par-dessus bord, mais de remplacer une opposition trop générale entre “communication” et “systèmes” par des questions plus concrètes : *quelles scènes précises permettent à des publics de contester les dispositifs qui filtrent leurs informations, orientent leurs possibilités de parole, catégorisent leurs demandes ? Où l’IA elle-même est-elle convoquée comme objet de discussion, plutôt que comme infrastructure silencieuse de la discussion ?* Avec Rancière et avec Boltanski-Thévenot, l’épreuve a pris encore une autre couleur : Système F a été lu comme un dispositif d’épreuves silencieuses. *Scores* qui décident qui est “éligible” ou non, “méritant” ou non, “à risque” ou non ; *grandeurs implicites qui hiérarchisent les êtres et les situations* (sécurité, efficacité, solvabilité, employabilité, conformité) ; *formats d’épreuves qui ne sont pas publics, mais encapsulés dans des modèles*. Le paradigme archicratique a ici joué un rôle de transposition : il a proposé de transformer ces épreuves silencieuses en épreuves instituées, plurivoques, multisectorielles, en inventant des scènes où les “sans-part” du numérique – ceux qui n’ont pas la main sur les modèles, qui ne sont visibles que comme données – peuvent demander des comptes. Ce dialogue morphologique a donc rempli son double objectif : montrer que le paradigme archicratique est capable d’entrer en conversation avec des philosophies puissantes sans s’y dissoudre, et, simultanément, montrer ce qu’il apporte en propre : un recentrage de la critique sur la question de la scène, du faire-apparaître, de la possibilité de rejouer les fondements et les instruments. L’épreuve historique a ensuite replacé Système F dans la séquence des révolutions régulatrices : non pas pour lui attribuer une place téléologique dans une marche du progrès, mais pour le situer comme intensification de la quatrième révolution (numérisation intégrale, pilotage par la donnée, clôture douce) et comme possible catalyseur d’une cinquième, scénique. Dans le cadre de la quatrième révolution, Système F apparaît comme l’outil par excellence de la “*clôture douce*” : tout est en apparence programmable, paramétrable, ajustable ; rien ne semble empêcher, en droit, de corriger les biais, de redéfinir les proxies, de changer les seuils. Mais cette *plasticité technique intriquée dans le secret des affaires rend plus difficile la réouverture de la scène : au lieu de se traduire spontanément en débats publics, elle se confine dans un univers d’experts qui manipulent les modèles sous clauses de non divulgation*. La promesse d’“amélioration continue” tend à remplacer l’obligation de justification. Face à cette dynamique, la cinquième révolution hypothétique – révolution du faire-apparaître, du différé, de la scène comme opérateur central – ne peut pas consister en une simple “transparence” au sens visuel (ouvrir les boîtes noires, documenter les algorithmes, publier des rapports). Le cas pratique a permis de préciser ce point : ce qui manque à Système F, ce n’est pas d’abord de la visibilité, mais des *scènes d’épreuve opposables*. Les gestes archicratiques que nous avons déclinés – *droit au différé contradictoire, journaux de justification, visas d’affectation, coupe-circuits, tribunaux, assemblées, budgets scéniques, révision périodique* – dessinent concrètement ce que pourrait signifier une telle révolution scénique dans le domaine de l’IA. Ils montrent aussi que cette révolution n’est pas acquise, ni même probable. L’épreuve de co-viabilité en a donné une image plus âpre : sous sa forme actuelle, Système F pèse fortement contre la *co-viabilité sociale et écologique*. Socialement, nous avons mis en évidence une *série de trajectoires de désarchicration* : décisions automatisées qui coupent des prestations sans scène préalable, profils de risque qui enferment des individus dans des catégories quasi indiscutables, refus de dossiers appuyés sur des scores invisibles, déploiements d’outils dans des environnements où les recours sont formellement ouverts mais pratiquement inaccessibles. Dans ce contexte, parler de *co-viabilité sociale* ne veut plus simplement dire “éviter les injustices individuelles”, mais *préserver la possibilité, pour des collectifs, d’habiter des institutions où les décisions qui les affectent peuvent encore être mises en débat*. Écologiquement, la *co-viabilité* est *compromise par l’ampleur matérielle et énergétique des infrastructure*s qui portent Système F : *consommations électriques des centres de données, pressions sur les réseaux, tensions sur la ressource en eau, accumulation de déchets électroniques, impacts sur des territoires précis où sont implantées les fermes de serveurs*. Là encore, le problème n’est pas que ces coûts soient ignorés dans l’absolu – les chiffres commencent à circuler –, mais qu’ils ne soient nulle part mis en épreuve sur des scènes où l’on pourrait décider : “*acceptons-nous de consacrer telle part de notre budget énergétique, de nos nappes, de nos terres rares, à ce type de dispositif régulateur ?*”. L’*autarchicratie numérique* apparaît ici comme le nom adéquat de cette double déliaison : un *méta-régime où la régulation par IA s’auto-entretient à partir de ses propres métriques*, *et où les coûts sociaux et écologiques sont externalisés hors des scènes où l’on pourrait en débattre*. Le cas pratique a montré que cette dynamique n’est pas une fatalité abstraite, mais un effet concret de l’absence de certaines scènes – absence que les gestes archicratiques se proposent de combler. C’est là que réside sans doute l’apport le plus immédiatement opératoire du cas pratique : la déclinaison des gestes archicratiques en “manuel d’usage” pour un système IA. *Droit au différé contradictoire, journaux de justification, visa d’affectation des scores, coupe-circuit citoyen, tribunal de l’algorithme, assemblées d’affectation et budgets scéniques, révision archicrative périodique et cartographie des scènes manquantes* : pris isolément, chacun de ces gestes pourrait sembler modeste, presque technique. Pris ensemble, reliés à l’architecture d’ensemble du cas, ils dessinent une autre manière d’aborder la régulation. D’abord parce qu’ils renversent le point de départ. Au lieu de demander : “comment rendre l’IA fiable, performante, moins biaisée ?”, ils demandent : “*à quelles conditions acceptons-nous de reconnaître à Système F un rôle régulateur dans nos institutions ?*”. La question n’est plus seulement celle des propriétés internes du modèle, mais celle de l’architecture scénique dans laquelle il est inséré. Un système qui ne tolère ni droit au différé, ni journal de justification, ni visa public des usages, ni coupe-circuit, ni tribunal, ni assemblées d’affectation, ni révision périodique est un système qui se place délibérément *hors archicratie, en tendance autarcique d’un pouvoir auto-référé et auto-référant confiné à un cercle de spécialistes et d’experts, seul capable de les fonder, de les activer et de les modifier*. Ensuite parce qu’ils rendent concrète la notion de “*politique des épreuves viables*”. Ce que le traité formulait en termes généraux – *nécessité d’instituer des épreuves où les régimes régulateurs peuvent être mis en discussion, condition d’une co-viabilité soutenable* – prend ici la forme de dispositifs précis, négociables, amendables. Le cas pratique ne fige pas ces gestes en dogmes ; il montre comment ils pourraient s’agencer, se renforcer, se contrôler mutuellement. Il propose une grammaire minimale pour toute tentative sérieuse de gouvernance des IA qui ne se résigne ni à l’*autarchicratie* ni à l’*illusion d’un simple “moratoire technologique”*. Enfin parce qu’ils donnent à voir une ligne de crête : comment résister à la tentation symétrique de la technophilie naïve et du luddisme impuissant. Le cas pratique ne conclut ni à l’abolition pure et simple des systèmes IA dans la régulation, ni à leur adoption sans réserve. Il soutient que des systèmes comme Système F peuvent, dans certains cas, contribuer à une meilleure coordination, à une meilleure allocation des ressources, à des gains réels d’intelligibilité ; mais à une condition stricte : que ces dispositifs soient eux-mêmes soumis, en permanence, à des scènes d’épreuve instituées, pluralisées, dotées de pouvoirs effectifs. Au terme de ce parcours, il est possible de dire ce que ce cas pratique apporte en retour au paradigme archicratique. Il confirme d’abord la capacité opératoire de la triade archicratique. Loin de rester un triptyque conceptuel abstrait, elle s’est révélée capable de guider une enquête dans un domaine techniquement complexe, de repérer des fondements silencieux là où l’on ne voyait que des arbitrages techniques, de décrire des pouvoirs opératoires là où l’on parlait seulement d’“assistance à la décision”, de qualifier des scènes comme inexistantes, fantomatiques, hypotopiques ou hypertopiques là où l’on croyait avoir des procédures suffisantes. Il nuance ensuite certaines tentations de simplification. Là où l’on aurait pu opposer trop brutalement “ancien” et “nouveau”, “humain” et “machine”, “politique” et “technique”, le cas pratique montre que la réalité est plus subtile : Système F n’est pas un intrus tombé dans un ordre régulateur par ailleurs homogène, il est un accélérateur et un condensateur de tendances déjà à l’œuvre. Reconnaître cette continuité n’amoindrit pas la critique ; au contraire, cela l’affine. Il approfondit, enfin, l’intuition d’une *bascule autarchicratique* propre à la configuration numérique contemporaine, en lui donnant un nom, un visage, des prises. Il ne s’agit pas de décréter que “nous serions déjà entrés dans un nouveau méta-régime” ; il s’agit de montrer que des dispositifs comme Système F présentent toutes les caractéristiques d’un régime où la régulation se gouverne elle-même, et que la seule manière de ne pas céder à cette pente est de multiplier les gestes de réouverture scénique. Que reste-t-il, alors, à la conclusion à dire qui ne soit ni simple paraphrase, ni montée en généralité gratuite ? Peut-être ceci : en entrant dans l’IA par la porte de la gouvernance archicratique plutôt que par celle de la seule performance calculatoire, nous avons déplacé le centre même de la question. Nous n’avons pas demandé jusqu’où les modèles pourraient aller, quelles tâches ils seraient capables de prendre en charge, quelle part d’intelligence humaine ils pourraient imiter ; nous avons demandé *jusqu’où nous sommes prêts à laisser disparaître les scènes où un monde commun se discute, se raconte, se règle*. Autrement dit : nous avons cessé de parler de l’IA comme d’un simple gain de capacités pour l’interroger comme un opérateur de monde : *quels horizons de vie ses dispositifs ouvrent-ils, quelles formes de présence ses dispositifs invisibilisent, quelles trajectoires ses dispositifs resserrent ou, au contraire, desserrent ?* Ce déplacement inverse la charge de la preuve. Ce n’est plus aux citoyens, aux allocataires, aux patients, aux justiciables, aux salariés, aux usagers – ni à la faune silencieuse des milieux, aux territoires énergétiquement mis à contribution, aux atmosphères saturées de chaleur résiduelle – de démontrer que l’IA serait dangereuse, injuste ou illégitime. *C’est aux dispositifs qui prétendent réguler leurs vies et leurs environnements de montrer qu’ils acceptent d’être mis en scène, ralentis, contredits, révisés*. *C’est aux promoteurs et régulateurs de Système F, publics comme privés, de prouver qu’ils ne cherchent pas seulement à optimiser des indicateurs, mais à s’inscrire dans un ordre archicratique où les fondements, les instruments et les effets du pouvoir régulateur demeurent exposables et disputables*. La question n’est plus : “l’IA est-elle utile ?”, mais : “*les mondes qu’elle configure sont-ils encore négociables, encore ouverts à l’adresse, encore habités par des voix qui ne se résument pas à des variables ?*”. Ce cas pratique n’a ni la vocation ni la prétention de résoudre d’un bloc un tel problème. Il s’est assigné une tâche plus modeste et, pour cette raison même, plus décisive : r*endre explicites des conditions minimales d’acceptabilité archicratique pour un grand système d’IA*, là où l’on se contentait le plus souvent de chartes, de principes génériques ou de diagnostics moraux. Il a permis d’écrire, presque ligne à ligne : pour un modèle de fondation intégré à des politiques publiques et privées, voici les scènes qu’il faut instituer, les gestes à prévoir, les droits à inscrire, les temps et les ressources à consentir si l’on veut autre chose qu’une régulation hors scène légèrement habillée de transparence. Il a tenté de montrer qu’une *cosmopolitique des systèmes techniques* commence par une *cosmopoétique* : par l’*art patient de décrire comment ces dispositifs redessinent les lignes de visibilité, d’audibilité, d’habitabilité entre humains, institutions et milieux*. Rien, dans ces pages, ne promet une “bonne IA” réconciliée avec tout et tous•tes. Rien n’annonce que cette réorientation pourrait se faire sans coût, sans conflits, sans renoncements – sans que certains usages soient abandonnés, certains automatismes démantelés, certaines promesses d’optimisation relativisées. Ce que le cas pratique affirme est plus nu, mais plus tranchant : *une société qui renonce à instituer de telles scènes autour de ses dispositifs régulateurs renonce, en vérité, à sa propre archicratie*. Elle accepte que la régulation devienne son propre souverain ; elle laisse des machines de classement décider sans jamais comparaître ; elle tolère que des métriques se cristallisent en dogmes, que des architectures techniques découpent silencieusement le partage entre vies recevables et vies marginalisées, entre milieux exploitables et milieux sacrifiés. Une telle société ne se contente pas d’adopter des systèmes d’IA : elle délègue son pouvoir d’instituer des mondes et se dépossède de la poétique de sa propre scène. L’inverse n’implique ni nostalgie technophobe, ni fantasme de contrôle intégral. Une société qui prend au sérieux ce que cette enquête propose – un *audit archicratique systématique*, une *politique des épreuves viables appliquée à l’IA*, un *ensemble de gestes concrets pour réarmer la scène* – *ne s’oppose pas à la technique*. Elle lui assigne une place. Elle refuse d’en faire le trône invisible de la régulation et lui confie, à chaque fois, un *rôle situé, provisoire, discutable, dans un ordre où le pouvoir d’instituer des scènes reste irréductiblement humain, social, écologique et politique*. Elle accepte que ses architectures numériques soient elles-mêmes prises dans une trame plus large de co-viabilité : qu’elles répondent devant les corps qu’elles classent, devant les institutions qu’elles structurent, devant les milieux qu’elles mobilisent. Elle reconnaît que chaque nouvelle couche d’IA est un geste cosmopoétique : un acte par lequel se recomposent ce qui compte, ce qui apparaît, ce qui peut être entendu. Si cinquième révolution régulatrice il doit y avoir, rien ne dit qu’elle sera spectaculaire, ni qu’elle portera son nom. Elle ne viendra pas des modèles eux-mêmes, mais de cette décision collective, lente et conflictuelle, de *faire de l’IA non plus le laboratoire d’une autarchicratie numérique, mais un terrain parmi d’autres pour refonder des scènes d’épreuve à la hauteur de nos co-viabilités*. À ce titre, Système F est un test. Il demande : *voulons-nous d’un monde où des dispositifs de ce type prolifèrent sans jamais avoir à comparaître, ou d’un monde où leur puissance même oblige à concevoir de nouvelles scénographies du commun, de nouveaux rites de justification, de nouveaux agencements entre calcul et récit ?* Dans cette mise à l’épreuve, le *paradigme archicratique* est lui-même sommé de tenir. Il ne se contente pas de dire ce que le pouvoir fait ; il *indique comment et où le faire comparaître, quels mondes il contribue à installer, quelles scènes il accepte encore de partager*. S’il y a, dans ce cas pratique, quelque chose comme une promesse, elle tient en peu de mots : *tant que des scènes pourront être instituées autour de nos systèmes techniques, tant que des épreuves pourront être inventées pour les faire répondre devant les vivants et les milieux qu’ils affectent, l’archicratie ne sera pas tout à fait perdue*. Elle restera disponible comme art de composer, parmi les possibles du calcul, des mondes encore habitables.