258 lines
61 KiB
Plaintext
258 lines
61 KiB
Plaintext
---
|
||
title: "Chapitre VI — Épreuve de co-viabilité"
|
||
edition: "cas-ia"
|
||
status: "application"
|
||
level: 1
|
||
version: "0.1.0"
|
||
concepts: []
|
||
links: []
|
||
order: 170
|
||
summary: ""
|
||
source:
|
||
kind: docx
|
||
path: "sources/docx/cas-ia/Cas_Pratique-Archicratie_et_gouvernance_des_systemes_IA-Chapitre_6_Epreuve_de_Co-viabilite.docx"
|
||
---
|
||
# VI. Épreuve de co-viabilité : autarchicratie, désarchicration et politique des épreuves viables pour l’IA
|
||
|
||
Avec la cinquième épreuve, celle de la *co-viabilité*, notre cas pratique arrive à un point où la description ne suffit plus. Les parties I à V ont rendu Système F lisible comme dispositif régulateur : nous avons repéré ses prises d’*arcalité explicite* et *implicite*, reconstruit sa *cratialité*, mis en évidence la *pauvreté de ses scènes* ; nous l’avons *cartographié topologiquement, inscrit dans la série des méta-régimes, confronté aux grandes morphologies du pouvoir, replacé dans la séquence des révolutions régulatrices*. Ce travail a fait apparaître, sous des angles différents, un même motif : une puissance de régulation considérable, distribuée dans des chaînes algorithmico-organisationnelles, et une raréfaction symétrique des lieux où cette puissance peut être mise en épreuve. L’épreuve de *co-viabilité* demande autre chose : non plus seulement voir et comparer, mais interroger les conditions sous lesquelles un dispositif comme Système F peut être toléré, ajusté, contesté dans un monde où les existences humaines, les milieux écologiques et les ordres symboliques sont déjà sous tension.
|
||
|
||
Dans notre essai-thèse lié à ce cas pratique, la *co-viabilité* désigne précisément *ce seuil où un régime régulateur ne se juge plus seulement à l’aune de son efficacité fonctionnelle, mais à la façon dont il maintient, ou détruit, les possibilités de vie des collectifs qu’il traverse*. *Co-viabilité sociale* : *accès matériel aux ressources*, mais aussi *dignité, reconnaissance, capacité à se tenir comme sujet adressé*. *Co-viabilité écologique* : *conditions physiques de subsistance, intégrité des milieux, soutenabilité des infrastructures*. *Co-viabilité symbolique* : *intelligibilité des expériences, possibilité de nommer les injustices, de se raconter autrement que comme “cas” d’un modèle*. Appliquée à Système F, l’*épreuve de co-viabilité* revient à poser une question simple en apparence, mais redoutable : dans les formes concrètes qu’il prend aujourd’hui – *tri des dossiers, scoring pénal, gestion des risques en santé, filtrage des contenus, sélection des candidatures* – *contribue-t-il à élargir ou à rétrécir les possibilités de vie commune ?* *Est-il compatible avec une archicratie minimale, ou tend-il à consolider un régime d’autarchicratie numérique où tout fonctionne, mais presque rien ne s’expose ?*
|
||
|
||
Pour répondre, la Partie VI ne se contentera pas d’ajouter une couche de “considérations éthiques” à un diagnostic déjà établi. Elle prolongera, jusqu’à leur point politique, les fils que nous avons tirés jusque-là. Du côté de la *co-viabilité sociale* (VI.1), il ne s’agira pas de dresser un inventaire moral des “bons” et “mauvais” usages de Système F, mais de *reconstruire, à partir des scènes stylisées que nous avons déjà travaillées, ce que deviennent l’accès aux droits, la dignité et la reconnaissance lorsque des décisions critiques* (suspension d’une prestation, classement au risque, refus de dossier, invisibilisation d’une parole) *sont prises ou préparées par des modules d’IA*. L’*épreuve de co-viabilité* demande ici que nous regardions jusqu’au bout si ces décisions peuvent, oui ou non, être justifiées publiquement, réclamées dans une scène, opposées dans un délai raisonnable, au sens propre de notre paradigme archicratique.
|
||
|
||
Du côté de la *co-viabilité écologique* (VI.2), le cas pratique devra desserrer un angle mort. Dans la plupart des discours sur l’IA, les *enjeux environnementaux sont soit minimisés* (problème de “second rang” par rapport à la justice sociale), *soit réduits à des considérations d’optimisation* (rendre les modèles “plus sobres”). L’*épreuve de co-viabilité écologique*, elle, reformule la question en termes archicratiques : *quelles infrastructures matérielles et énergétiques Système F suppose-t-il et renforce-t-il ? quels milieux sont affectés par l’extraction de ressources, la construction des centres de données, la circulation des flux ?* et surtout : *existe-t-il des scènes où ces effets peuvent être mis en débat, arbitrés, opposés à d’autres exigences, ou bien cette dimension reste-t-elle entièrement hors-scène, traitée comme un paramètre technique secondaire ?* Là encore, ce n’est pas l’IA comme “technologie en général” qui nous intéresse, mais l’écosystème concret que Système F compose avec des réseaux électriques, des plateformes cloud, des chaînes logistiques, des politiques industrielles.
|
||
|
||
C’est dans ce double éclairage – social et écologique – que la notion d’*autarchicratie numérique*, déjà élaborée dans la Partie III, va prendre une épaisseur supplémentaire (VI.3). Nous avons décrit l’*autarchicratie* comme un *gouvernement de la régulation par elle-même* : des dispositifs qui se jugent à l’aune de leurs propres métriques, des modèles qui définissent eux-mêmes ce que signifie “bien fonctionner”, des indicateurs qui se certifient en boucle fermée, des systèmes d’audit qui ne débouchent que sur des ajustements internes. L’*épreuve de co-viabilité* permet de voir que Système F est l’un des candidats centraux à un tel régime : ses modules peuvent continuer à faire tourner des chaînes de décision entières, en produisant des chiffres, des rapports, des tableaux de bord, alors même que les scènes où l’on pourrait mettre en balance leurs effets sociaux et écologiques se réduisent à des simulacres ou à des contentieux isolés. La question devient alors plus tranchante : *à partir de quel seuil d’autarchicratie numérique la co-viabilité est-elle mise en danger ?*
|
||
|
||
Enfin, la Partie VI ne se limite pas à ce constat ; elle prépare le terrain de la dernière étape du cas pratique en esquissant, dans VI.4, une *politique des épreuves viables appliquée à l’IA*. Dans la conclusion de notre essai-thèse, nous avons formulé l’idée que l’acte régulateur proprement archicratique ne consiste pas d’abord à prescrire des normes substantielles, mais à *instituer des épreuves* : *des scènes, des procédures, des différés, des droits au recours, des dispositifs de confrontation entre régimes de justification, qui rendent possible la mise en cause des régulations elles-mêmes*. Transposée à Système F, cette *politique des épreuves viables* revient à requalifier ce que l’on appelle aujourd’hui “gouvernance de l’IA” : non plus gouverner l’IA au sens d’en organiser l’expansion avec quelques garde-fous, mais obliger tout système de ce type à se laisser apparaître dans des scènes ouvertes, opposables, répétées, où la *co-viabilité sociale*, *écologique et symbolique peut être effectivement exposée et mise en délibération*.
|
||
|
||
L’*épreuve de co-viabilité* est donc, à la fois, une synthèse et un déplacement. Synthèse, parce qu’elle ressaisit, dans une même interrogation, les diagnostics de détectabilité, de topologie, d’archéogénèse, de morphologie et d’histoire : tous convergent vers la question de ce que Système F fait, concrètement, aux conditions de vie et de contestation. Déplacement, parce qu’elle contraint notre cas pratique à quitter le terrain du seul constat pour entrer, sans changer de langage, dans celui des exigences : *quelles configurations de scènes, de droits, de limites, de suspensions rendent un dispositif comme Système F vivable, ou au contraire destructeur de co-viabilité ?* C’est à cette exploration, orientée mais non réductible à un programme, que la Partie VI est désormais consacrée.
|
||
|
||
## VI.1. *Co-viabilité sociale*
|
||
|
||
L’*épreuve de co-viabilité sociale* prend Système F non plus du point de vue de son architecture, ni de ses scènes institutionnelles, mais depuis les trajectoires de celles et ceux qui s’y trouvent pris. Ce qui est en jeu n’est pas tant la “qualité” des modèles, ni la conformité de leurs usages au droit existant. La question est plus nue : *dans les domaines où Système F est désormais intégré – protection sociale, santé, justice, emploi, plateformes – rend-il la vie socialement habitable, ou bien organise-t-il des formes de tri, de suspicion et de silence qui finissent par fragiliser les conditions mêmes d’une vie digne pour certains groupes ?*
|
||
|
||
### VI.1.1. Accès aux droits : quand le score devient seuil invisible
|
||
|
||
Vu de loin, l’accès aux droits reste garanti : les textes existent, les formulaires sont en ligne, les procédures de recours sont théoriquement ouvertes. Mais dès que l’on resserre la focale sur les scènes que Système F traverse, on voit se multiplier des seuils invisibles qui reconfigurent en profondeur l’effectivité de ces droits.
|
||
|
||
Dans la protection sociale, un module de scoring branché sur les dossiers ne supprime aucun droit formel ; il modifie la manière dont les demandes sont traitées. Certains dossiers passent en tête de file, d’autres sont envoyés d’office en contrôle, d’autres enfin sont “gelés” dans l’attente de pièces supplémentaires. Pour l’allocataire, le droit n’a pas disparu, mais il devient conditionnel à une évaluation algorithmique qu’il ne voit jamais. À l’échelle d’un territoire, cela suffit pour que des catégories entières de personnes – habitants de certains quartiers, familles nombreuses, foyers précaires – soient plus fréquemment freinées, contrôlées, retardées dans l’accès effectif à leurs prestations.
|
||
|
||
Le même mécanisme se retrouve dans la santé lorsqu’un score d’IA intervient dans la priorisation de listes d’attente ou l’orientation vers des programmes de soins renforcés. Le droit proclamé à l’accès à des soins nécessaires n’est pas formellement remis en cause ; mais la décision de “qui passe avant qui” est partiellement déléguée à des modèles qui peuvent, comme on l’a vu, sous-estimer systématiquement les besoins de certains groupes. *De facto*, la frontière entre “éligible” et “non prioritaire” se déplace, sans jamais être nommée comme choix politique.
|
||
|
||
Un troisième exemple apparaît dans le recrutement : lorsqu’un système dérivé de Système F trie des centaines de CV pour n’en faire remonter qu’une fraction, il ne modifie pas les lois du travail, mais il déplace la barrière d’entrée dans la relation d’emploi. Des profils considérés comme “instables”, “peu prometteurs” ou “atypiques” sont éliminés avant même d’avoir pu rencontrer un recruteur. Là encore, le droit formel à candidater subsiste, mais l’accès concret à une opportunité dépend d’un filtre que les personnes ne peuvent ni voir, ni discuter.
|
||
|
||
Du point de vue de la *co-viabilité sociale*, ces trois scènes ont un trait commun : le *passage du droit explicite au droit conditionné par un score*. Ce passage n’est pas neutre. Il fabrique des *zones de non-recours de fait* : des personnes qui renoncent à faire valoir leurs droits après un premier refus incompréhensible ; des patients qui ne savent même pas qu’ils auraient pu prétendre à un programme plus intensif ; des candidat·es qui intègrent, en silence, que “ce n’est pas pour eux”. Système F ne supprime pas les droits ; il installe, en amont, des filtres non déclarés qui en modulent l’effectivité.
|
||
|
||
### VI.1.2. Dignité : vivre sous un soupçon chiffré
|
||
|
||
La *co-viabilité sociale* ne se résume pas à des indicateurs d’accès. Elle implique des *formes minimales de respect* : *ne pas être traité comme un fraudeur par défaut, ne pas être réduit à un risque abstrait, ne pas découvrir sa propre existence administrative à travers des sanctions automatiques*. Système F, tel qu’il se déploie aujourd’hui, met précisément à l’épreuve ces exigences.
|
||
|
||
Lorsqu’une famille reçoit une notification de suspension de prestation à la suite d’un profilage algorithmique, la *perte monétaire* est une première atteinte. Mais ce qui se joue en même temps est une *atteinte symbolique* : *la relation à l’institution se renverse*. *On n’est plus bénéficiaire d’un droit, mais suspect à justifier*. Et ce renversement est d’autant plus violent qu’il est difficile de trouver un interlocuteur capable d’en répondre autrement qu’en renvoyant à “des contrôles automatisés” présentés comme des évidences techniques. La honte, la colère, le sentiment de ne pas être cru se combinent, sans que l’on puisse identifier un lieu où cette expérience puisse être entendue comme autre chose qu’un “cas problématique”.
|
||
|
||
Dans la justice, l’introduction d’un score de risque dans un rapport peut aussi peser sur la *dignité de l’accusé ou du condamné*. Être classé “haut risque” par un dispositif dont le fonctionnement est inaccessible revient à porter une étiquette qui ne se laisse ni expliquer ni contester aisément. Là encore, ce qui blesse n’est pas seulement la sévérité de la peine, mais le fait que cette sévérité soit soutenue par une évaluation extérieure, chiffrée, opaque, qui place la personne dans une position de désajustement radical : *comment se défendre contre une probabilité ?*
|
||
|
||
De manière plus diffuse, les dispositifs de tri de CV, de notation de clients ou de filtrage de contenus créent des populations pour lesquelles la norme devient l’invisibilité ou la défiance par défaut. La dignité est alors entamée non pas par un acte ouvertement humiliant, mais par une accumulation de signaux faibles : candidatures qui ne reçoivent aucune réponse, publications qui cessent d’être vues, dossiers que l’on sent “mal considérés” sans comprendre pourquoi. Système F construit des *hiérarchies silencieuses de respectabilité et de crédibilité*, sans scène où ces hiérarchies puissent être nommées.
|
||
|
||
La *co-viabilité sociale* exige, à l’inverse, la *possibilité de répondre à ce type de classement, de demander des comptes, de transformer une suspicion abstraite en conflit explicite sur des raisons*. Tant que Système F installe du soupçon chiffré sans adresser à ceux qu’il cible une parole justifiable, il fabrique des zones de vie sous-dignes, où l’humiliation ne peut même plus se dire comme telle.
|
||
|
||
### VI.1.3. Reconnaissance et voix : qui peut encore faire récit ?
|
||
|
||
*Une société reste co-viable tant que ceux qui la composent peuvent, au moins par moments, transformer leurs expériences en récits partageables, en plaintes adressables, en revendications recevables*. Ce pouvoir de faire récit suppose des scènes – guichets, audiences, réunions, espaces publics – où la parole n’est pas purement décorative. L’insertion de Système F dans les chaînes décisionnelles modifie en profondeur cette géographie de la voix.
|
||
|
||
*Au guichet devenu interface, l’usager ne raconte plus sa situation ; il remplit des champs*. Là où un agent pouvait, même dans un cadre contraint, reformuler, préciser, prendre en compte une particularité, l’interface se contente de transformer la situation en vecteur de variables. Si Système F signale un dossier comme “à risque”, la marge d’interprétation de l’agent se rétrécit : *il devient difficile de prendre au sérieux un récit qui ne “colle pas” avec les signaux remontés par le modèle*. *L’expérience vécue – dette imprévue, rupture familiale, maladie non documentée – reste en marge de ce que le système reconnaît comme information pertinente*.
|
||
|
||
Dans la santé, un patient qui objecte à la priorisation proposée par un outil d’IA se heurte souvent à la solidité apparente des “données”. Son ressenti, ses craintes, ses connaissances propres de sa trajectoire n’entrent qu’à la marge dans les décisions d’orientation. *Le langage du risque calculé prend le pas sur le récit de la vulnérabilité*. La même logique se retrouve, à une autre échelle, lorsque des collectifs tentent de contester le fonctionnement d’un système de scoring : leur parole se heurte à des représentations agrégées des “comportements typiques” que le modèle prétend déjà synthétiser.
|
||
|
||
Sur les plateformes, enfin, la reconnaissance est mise à l’épreuve d’une autre manière. Un utilisateur dont le contenu est systématiquement moins montré, ou régulièrement supprimé, peut, en principe, contester une décision. Mais cette contestation se fait au milieu de procédures standardisées, souvent sans motif précis, sans interlocuteur identifié. La possibilité de dire : “ce que vous qualifiez de contenu nuisible est, dans mon expérience, le seul moyen de rendre visible tel type d’injustice” reste largement théorique. La voix se heurte à une structure qui, tout en traitant massivement des discours, accorde très peu de place à la discussion sur les catégories qui décident ce qui mérite ou non d’être vu.
|
||
|
||
Dans toutes ces scènes, Système F ne fabrique pas seulement des scores ; il redistribue les conditions de la parole efficace. Certains récits – ceux qui s’alignent sur les catégories du modèle, sur les formats déjà prévus – trouvent encore leur place. D’autres, plus dissonants, plus marginaux, plus complexes, se heurtent à une absence de prise. La *co-viabilité sociale* est menacée lorsque trop d’expériences ne trouvent plus aucun chemin pour apparaître autrement que comme anomalies à corriger ou résidus statistiques.
|
||
|
||
### VI.1.4. Ce qu’impliquerait une *co-viabilité sociale* minimale pour Système F
|
||
|
||
L’*épreuve de co-viabilité sociale* ne débouche pas immédiatement sur un programme de réformes exhaustif ; elle permet de préciser des conditions minimales pour qu’un dispositif comme Système F ne détruise pas, à moyen terme, les possibilités d’une vie sociale habitable.
|
||
|
||
Une première condition tient à la *mise en visibilité des seuils* : partout où un score conditionne l’accès à un droit, à un service essentiel ou à une opportunité structurante, ce fait doit être explicite, et non enfoui dans la chaîne technique. Sans cette explicitation, il est impossible d’ouvrir un débat sur la légitimité de ces seuils, sur leur calibration, sur leurs effets différenciés.
|
||
|
||
Une deuxième condition concerne la *possibilité de renverser la présomption*. Si Système F produit du soupçon (fraude, risque, non-mérite), ceux qui en sont l’objet doivent disposer de moyens concrets pour faire entendre un récit contraire, pour apporter des informations qualitatives, pour *demander que leur cas soit examiné autrement qu’à travers les seules variables enregistrées*. Cela suppose des procédures où la parole des personnes affectées ne soit pas purement rituelle, mais puisse effectivement *infléchir la décision*.
|
||
|
||
Une troisième condition vise le *cumul des dispositifs*. La *co-viabilité sociale* est mise en danger lorsque les mêmes groupes se trouvent systématiquement du “mauvais côté” de plusieurs modules de Système F à la fois. Reconnaître cette *dimension cumulative* implique de regarder les effets non pas secteur par secteur, mais transversalement : *qui est, en pratique, surexposé au contrôle, au déclassement, à l’invisibilisation algorithmique ?* *Sans cette vue d’ensemble, la régulation se contente de corriger à la marge des injustices locales, tout en laissant intacte une architecture d’ensemble défavorable*.
|
||
|
||
Enfin, une *co-viabilité sociale minimale* exige que l’on prévoit, dès la conception des dispositifs, des scènes de réparation : non pas seulement des formulaires de recours individuels, mais des *instances capables de reconnaître des torts systématiques, d’indemniser, de réformer, voire de démanteler* des modules de Système F qui produisent durablement des effets socialement destructeurs. Tant que de telles scènes restent exceptionnelles, improvisées après coup, la tentation restera forte de considérer les dommages comme des “effets collatéraux” inévitables.
|
||
|
||
Dans toutes ces dimensions, l’enjeu n’est pas de rendre Système F “parfaitement juste” – horizon illusoire –, mais de s’assurer qu’il n’installe pas, au cœur même des politiques sociales, sanitaires, judiciaires, économiques, un régime où les droits deviennent des probabilités, la dignité un résidu, et la voix un bruit de fond. C’est à cette condition que la co-viabilité sociale pourra être, non garantie, mais au moins sérieusement réouverte.
|
||
|
||
## VI.2. Co-viabilité écologique
|
||
|
||
L’*épreuve de co-viabilité écologique* oblige à regarder Système F depuis un autre bord : celui de l’agencement matériel qui prélève de l’électricité, de l’eau, des métaux, des sols, et qui rejette de la chaleur, des déchets, des risques. Autrement dit : ce qui est apparu jusqu’ici comme un “modèle dans le *cloud*” doit être décrit comme une *chaîne de data centers, de réseaux électriques, de mines et de filières de déchets, inscrite dans des milieux concrets*. La question archicratique devient alors : *à quelles conditions un système d’IA de fondation intégré à la régulation sociale peut-il être écologiquement co-viable, et où se trouve aujourd’hui la scène où cette question est instruite ?*
|
||
|
||
### VI.2.1. Du “*cloud*” aux milieux : rendre visible l’infrastructure
|
||
|
||
Dans la scénarisation de Système F, nous avons distingué un fournisseur de modèle, des intégrateurs, des organisations utilisatrices. Il faut maintenant ajouter une couche supplémentaire : les infrastructures qui rendent possible cette chaîne. Un modèle de fondation n’existe pas sans centres de données où se concentrent des dizaines, voire centaines de milliers de processeurs, des systèmes de refroidissement, des batteries et onduleurs, reliés à des réseaux électriques de plus en plus puissants.
|
||
|
||
Les estimations de l’Agence internationale de l’énergie indiquent que, en 2022, les centres de données consommaient déjà entre 240 et 340 TWh d’électricité par an, soit environ 1 à 1,3 % de la demande mondiale finale, hors cryptomonnaies. Des analyses récentes projettent, sous l’effet de la montée en puissance de l’IA, un doublement voire un quasi-triplement de cette demande d’ici 2030–2035, avec des *data centers hyperscale* dépassant régulièrement les 100 MW et pesant fortement sur des réseaux déjà fragilisés. En parallèle, des travaux sur les États-Unis estiment qu’en 2023 les *data centers* représentaient déjà 4,4 % de la consommation électrique du pays, avec une possible multiplication par trois d’ici 2028 si la trajectoire actuelle se poursuit.
|
||
|
||
Système F, dans cette perspective, n’est pas une abstraction désincarnée : c’est un locataire majeur de cette capacité électrique mondiale. Chaque appel d’API dans un service social, chaque priorité de patient calculée dans un hôpital, chaque tri de CV ou de contenu sur une plateforme repose sur ce socle électro-matériel. Or ce socle est inégalement distribué : on voit se multiplier, dans certains territoires, des projets de “campus” de *data centers* dont la consommation équivaut à celle d’une ville moyenne, avec des demandes de raccordement qui questionnent la stabilité des réseaux locaux et les trajectoires climatiques nationales.
|
||
|
||
Du point de vue archicratique, cette première mise au point a une conséquence simple : toute décision d’étendre Système F – par exemple en généralisant l’usage de modèles de fondation dans les politiques sociales ou de santé – est aussi une décision d’augmenter la part de l’infrastructure numérique dans les budgets énergétiques collectifs. Ne pas le dire ne supprime pas cet effet ; cela le rend seulement extra-scénique.
|
||
|
||
### VI.2.2. Eau, chaleur et tensions hydriques
|
||
|
||
L’électricité n’est qu’une partie de l’empreinte. Les centres de données nécessaires à Système F consomment aussi des volumes considérables d’eau pour le refroidissement, directement ou via des systèmes de production d’électricité. Des études sur les *data centers* en contexte de sécheresse rappellent qu’un seul site peut consommer des dizaines de millions de litres d’eau potable par jour – l’équivalent des besoins de plusieurs milliers de foyers ou d’une petite ville.
|
||
|
||
La tension devient particulièrement aiguë là où l’IA est en train de redessiner des régions entières. Dans le Nevada, par exemple, des enquêtes récentes décrivent une véritable “ruée vers l’IA” autour d’un immense parc industriel, où se concentrent datacenters et infrastructures de calcul pour les grands acteurs du numérique. L’eau de la rivière Truckee, dont dépend la communauté autochtone Paiute, est également mobilisée pour le refroidissement de ces installations, ce qui nourrit des inquiétudes quant à la durabilité de ce partage de ressource dans un environnement aride.
|
||
|
||
En Australie, les autorités de l’eau de Sydney et de Melbourne alertent désormais sur le fait que les demandes des opérateurs de *data centers* pourraient, d’ici une décennie, dépasser la consommation de villes entières ; des organisations environnementales appellent à interdire l’usage d’eau potable pour le refroidissement de ces infrastructures, ou à déplacer ces charges sur des systèmes de recyclage et de dessalement particulièrement coûteux. Des analyses globales estiment que l’eau utilisée directement par les *data centers* américains pourrait doubler ou quadrupler entre 2023 et 2028, sous l’effet de l’IA.
|
||
|
||
Du côté des fournisseurs d’IA, des chiffres permettent déjà de prendre la mesure de ces ordres de grandeur : Google indique que la consommation de ses *data centers* en 2023 équivaut à l’usage annuel de plus de 200 000 personnes, et certains travaux projettent que la demande mondiale en eau liée à l’IA pourrait représenter, à l’horizon 2027, l’équivalent de la consommation annuelle de 30 à 47 millions de personnes.
|
||
|
||
Pour l’instant, ces chiffres sont discutés dans des rapports techniques, des controverses locales, des enquêtes journalistiques ; ils restent rarement articulés à la décision d’utiliser Système F dans un domaine régulateur. On débat de l’équité d’un score de fraude ou de la performance d’un modèle de tri de dossiers sans interroger le fait qu’installer ces modèles, les maintenir et les faire croître implique de mobiliser, dans d’autres lieux, des volumes croissants d’eau et d’énergie. La *co-viabilité écologique* est ainsi entamée à distance, dans des bassins versants, des nappes et des réseaux, tandis que la scène où l’on discute de Système F se réduit à ses performances internes.
|
||
|
||
### VI.2.3. Chaînes matérielles et déchets électroniques : l’aval invisible de Système F
|
||
|
||
L’empreinte écologique de Système F ne se limite pas au fonctionnement des *data centers* ; elle *commence en amont, dans l’extraction et la transformation des matériaux, et se prolonge en aval, dans la gestion des déchets*. Concevoir, entraîner et déployer des modèles de fondation à grande échelle suppose des volumes croissants de puces spécialisées, de serveurs, de systèmes de stockage et de refroidissement. Chaque génération de matériel promet plus de puissance, mais implique aussi de nouvelles séries de wafers, de cartes, de racks – et donc de nouvelles mines, de nouveaux sites industriels, de nouvelles lignes de transport.
|
||
|
||
Les chiffres globaux sur les déchets électroniques donnent un ordre de grandeur : selon le Global E-waste Monitor 2024, la planète a produit 62 millions de tonnes de déchets électroniques en 2022, soit une augmentation de 82 % par rapport à 2010, et cette masse pourrait atteindre 82 millions de tonnes en 2030. Moins d’un quart (environ 22 %) de ces déchets sont actuellement collectés et recyclés de manière documentée. Cela signifie que la majeure partie des équipements obsolètes – serveurs, baies de stockage, systèmes de climatisation, équipements de réseau – se disperse dans des filières opaques, avec des risques de pollution, d’exposition toxique et de pillage des ressources dans des régions souvent peu dotées en capacités de contrôle (RDC).
|
||
|
||
Système F, comme tout grand système d’IA, accélère ces flux : montée en puissance rapide des GPU, réduction des cycles de vie des architectures, démultiplication des sites de calcul redondants. Or ce lien entre l’augmentation de la puissance régulatrice de Système F et l’augmentation mécanique des volumes de matériel à produire et à jeter reste, lui aussi, largement extra-scénique. Les utilisateurs d’un service d’aide au diagnostic ou d’un outil de tri de dossiers ne voient pas – et ne peuvent pas voir – les montagnes de composants qui rendront possible, dans quelques années, leurs mises à jour successives.
|
||
|
||
Vu depuis la *co-viabilité écologique*, l’enjeu n’est pas de dénoncer abstraitement “le numérique” : il est de reconnaître que la régulation par Système F consomme une part croissante d’un budget matériel et énergétique global, dans un monde où les autres usages – chauffage, mobilité, agriculture, adaptation aux dérèglements climatiques – devront eux aussi être financés. Tant que ce conflit de destinations reste hors scène, il est réglé par défaut en faveur de l’expansion du calcul.
|
||
|
||
### VI.2.4. Spatialisation des coûts : milieux gagnants, milieux perdants
|
||
|
||
Les effets écologiques de Système F ne se répartissent pas uniformément dans l’espace. On voit se dessiner des géographies contrastées : d’un côté, des métropoles ou des agences publiques qui bénéficient des services – scoring social, IA médicale, outils de pilotage ; de l’autre, des territoires où se concentrent les infrastructures et leurs impacts.
|
||
|
||
Les *data centers hyperscale* se localisent souvent dans des zones à foncier disponible, à proximité de nœuds électriques ou de sources d’eau, dans des régions qui offrent des avantages fiscaux ou réglementaires. Ils arrivent parfois dans des territoires déjà marqués par d’autres usages intensifs (agriculture irriguée, industrie lourde), ce qui crée des tensions locales : craintes d’augmentation des factures d’électricité, inquiétudes sur la disponibilité de l’eau pour les cultures ou la consommation domestique, opposition à la construction de nouvelles lignes à haute tension.
|
||
|
||
Plus loin encore dans la chaîne, les zones d’extraction de métaux, de fabrication de composants, ou de réception des déchets électroniques sont rarement celles où l’on parle de “gouvernance de l’IA” dans un langage policé. Les coûts écologiques – terres dégradées, nappes polluées, corps exposés – sont portés par des populations qui n’apparaissent jamais comme “utilisateurs finaux” de Système F, mais qui supportent une part de plus en plus importante de son empreinte.
|
||
|
||
Du point de vue de la *co-viabilité*, cette spatialisation pose une question simple : *peut-on considérer comme co-viable un régime où certaines populations profitent des gains d’efficacité de Système F dans la gestion des dossiers, des patients ou des contenus, tandis que d’autres voient leurs milieux durcis, contaminés, mis en tension pour alimenter cette puissance ?* La réponse archicratique tient moins dans une condamnation morale que dans un diagnostic : tant que ces relations restent invisibles, il n’existe aucune scène où elles puissent être mises en balance.
|
||
|
||
### VI.2.5. *Archicration écologique* existante : procédures, rapports, controverses
|
||
|
||
On pourrait objecter que l’empreinte écologique des infrastructures numériques n’est pas totalement ignorée. Des réglementations imposent déjà des formes de visibilité. L’Union européenne, par exemple, a introduit dans sa directive sur l’efficacité énergétique une obligation de reporting pour les centres de données au-delà d’un certain seuil de puissance, afin de suivre leur consommation, leur efficacité et certains indicateurs de durabilité ; la Commission doit publier des analyses régulières sur ces données agrégées. Par ailleurs, les grandes entreprises numériques et industrielles sont, pour les plus importantes d’entre elles, soumises à des obligations de reporting de durabilité (type CSRD), qui incluent des informations sur le mix énergétique et les émissions associées à leurs activités numériques.
|
||
|
||
À l’échelle locale, chaque implantation de *centres de données* fait généralement l’objet d’études d’impact environnemental, voire d’enquêtes publiques où les habitants peuvent formuler des observations. Dans certains cas, des collectivités imposent des conditions : obligation d’utiliser de l’électricité décarbonée, interdiction de certaines technologies de refroidissement trop consommatrices, limitation des prélèvements d’eau potable. Des associations et collectifs écologistes mobilisent ces procédures pour contester des projets qu’ils jugent incompatibles avec la préservation des milieux.
|
||
|
||
Il existe donc bien des éléments d’archicration écologique autour de Système F : des rapports, des chiffres, des consultations, des recours juridiques. Mais ces scènes présentent au moins trois limites archicratiques majeures :
|
||
|
||
1. Elles restent *sectorielles* : on évalue un *data center*, un projet d’extension, un plan d’investissement, sans jamais articuler ces décisions à la question plus globale de la part du budget énergétique et matériel que l’on consacre à la régulation algorithmique par rapport à d’autres besoins.
|
||
|
||
2. Elles sont largement *capturées par le langage des opérateurs et des experts* : les indicateurs de performance énergétique (PUE, WUE…), les scénarios de compensation, les engagements “net zéro” sont discutés dans un cadre technique qui laisse peu de place à une interrogation sur les fondements : pourquoi ce projet plutôt qu’un autre ? pourquoi maintenant ? pour quels bénéficiaires, à quel prix écologique pour quels autres ?
|
||
|
||
3. Elles sont *dissociées des scènes où l’on décide d’utiliser Système F dans les politiques sociales, sanitaires ou judiciaires* : les ministères, les caisses, les hôpitaux, les tribunaux qui adoptent ces outils ne délibèrent que rarement sur les conséquences écologiques de cette adoption ; les scènes environnementales et les scènes réglementaires restent juxtaposées.
|
||
|
||
On se trouve donc en présence de ce que l’on pourrait appeler des *archicrations écologiques fragmentées* : *des lieux où certaines dimensions de l’empreinte sont examinées, parfois contestées, mais sans articulation explicite avec la question de savoir si, et à quelles conditions, Système F est un dispositif écologiquement acceptable pour organiser la co-viabilité sociale*.
|
||
|
||
### VI.2.6. Conditions d’une co-viabilité écologique minimale pour Système F
|
||
|
||
À ce stade, l’*épreuve de co-viabilité écologique* permet de formuler, non un cahier des charges exhaustif, mais quelques *exigences minimales pour qu’un système comme Système F ne contribue pas, silencieusement, à défaire les conditions écologiques de sa propre société*.
|
||
|
||
La première est une *exigence de traçabilité opposable*. Tant que l’empreinte énergétique et matérielle de Système F reste agrégée au niveau de “l’industrie du *cloud*”, aucune scène ne peut instruire le conflit entre les bénéfices régulateurs obtenus et les coûts écologiques induits. *Une co-viabilité minimale suppose qu’à chaque grand déploiement* (par exemple l’intégration de Système F dans un régime d’assurance santé ou dans un système de protection sociale), *on puisse associer un profil d’empreinte – en termes d’électricité, d’eau, de matériel – et en débattre publiquement*.
|
||
|
||
La deuxième est une *exigence de droit à la scène pour les territoires et les milieux affectés*. Il ne suffit pas que des indicateurs soient publiés ; encore faut-il que *les habitants des zones d’implantation, les travailleurs des chaînes matérielles et les collectifs concernés puissent disposer de lieux où contester un projet, exiger des modifications, demander des compensations, voire refuser purement et simplement l’installation d’une infrastructure jugée incompatible avec la préservation de leur milieu*. Une archicration écologique digne de ce nom ne se réduit pas à une étude d’impact ; elle implique la possibilité, pour ceux qui supportent les coûts, de peser réellement sur la décision.
|
||
|
||
La troisième est une *exigence de mise en balance explicite*. Toute extension de Système F repose sur une promesse de gains – efficacité des politiques, réduction des fraudes, meilleure priorisation des soins, amélioration de la sécurité. Ces promesses doivent être, secteur par secteur, mises en regard des investissements écologiques nécessaires : quelle consommation supplémentaire d’énergie et d’eau ? quelle part du budget carbone national ? quels effets sur des milieux déjà fragilisés ? Tant que cette mise en balance reste implicite, elle est tranchée par la seule *cratialité* : ce qui est techniquement possible et économiquement rentable tend à être considéré comme légitime, indépendamment de ses conséquences écologiques.
|
||
|
||
Enfin, une *co-viabilité écologique minimale* suppose que l’on résiste à un récit désormais fréquent : celui de Système F présenté comme solution “verte” en soi, au motif qu’il pourrait optimiser des réseaux, réduire certaines consommations, améliorer la maintenance ou la planification. Il est possible, et même probable, que certains usages de l’IA contribuent effectivement à réduire des impacts écologiques dans des secteurs précis. Mais ces bénéfices ne peuvent être posés d’emblée comme justification générale ; ils doivent eux aussi passer par des scènes d’épreuve, où l’on compare ce qu’ils font gagner ici et ce qu’ils font perdre ailleurs.
|
||
|
||
Autrement dit, l’IA régulatrice n’échappe pas au registre de la co-viabilité écologique par sa seule promesse d’“optimisation”. Au contraire : en devenant un des principaux consommateurs de ressources énergétiques et hydriques, et un accélérateur des flux matériels, Système F devient un test décisif pour l’*archicratie*. Si l’on ne parvient pas à instituer des scènes où ses bénéfices régulateurs et ses coûts écologiques puissent être instruits ensemble, avec ceux qui les supportent et ceux qui en profitent, alors la dynamique autarchicratique se déploie aussi sur ce versant : la régulation par l’IA continuera de se renforcer en se prenant elle-même pour critère, tandis que les milieux qui la soutiennent seront gouvernés par pure nécessité matérielle, sans scène. C’est précisément ce nouage entre autarchicratie et effacement écologique que la section suivante (VI.3) devra rendre explicite.
|
||
|
||
## VI.3. Autarchicratie numérique
|
||
|
||
Les sections précédentes ont montré, chacune à leur façon, comment Système F organise des accès différenciés aux droits, installe des régimes de soupçon chiffré, redistribue silencieusement les conditions de la parole, tout en s’appuyant sur une infrastructure matérielle énergivore, hydrovore et productrice de déchets dont les coûts sont spatialement dissociés des bénéfices. La question qui se pose maintenant est la suivante : *quel type de régime régulateur se dessine lorsque ces dynamiques sociales et écologiques sont pilotées, évaluées, corrigées presque exclusivement à partir des instruments internes du système lui-même ?* C’est ce que nous appelons, dans le langage de la thèse, une *autarchicratie numérique* : un gouvernement de la régulation par elle-même, où modèles, indicateurs et procédures deviennent leurs propres critères de validité, en marginalisant les scènes externes d’épreuve.
|
||
|
||
### VI.3.1. Quand les métriques deviennent fondement
|
||
|
||
Dans Système F, presque tout ce qui compte – au sens littéral – prend la forme de métriques : taux de détection de fraude, précision des scores de risque, réduction des “erreurs” sur certains groupes, temps moyen de traitement d’un dossier, économies budgétaires, diminution des “fausses alertes” dans les hôpitaux, amélioration des “KPIs de modération” sur les plateformes, baisse annoncée des émissions associées par unité de calcul. De l’autre côté, du côté des fournisseurs de modèle et des intégrateurs, on trouve une autre famille d’indicateurs : fonctions de perte, accuracy, F1-score, courbes ROC, métriques de “fairness”, empreinte carbone par requête, efficacité énergétique des data centers.
|
||
|
||
Pris séparément, aucun de ces indicateurs n’a quoi que ce soit d’illégitime : mesurer n’est pas en soi un problème. *L’autarchicratie commence lorsque ces métriques cessent d’être des instruments au service de décisions situées pour devenir, de fait, la seule arcalité pratique de Système F*. Dans les comités de pilotage, dans les rapports internes, dans les bilans de projet, une question domine : les indicateurs cibles se sont-ils améliorés ? Si la réponse est oui – si les taux de fraude détectée augmentent, si les écarts mesurés entre groupes se resserrent selon la métrique choisie, si la consommation électrique par opération diminue relativement à un référentiel antérieur –, alors le dispositif est réputé “sous contrôle”.
|
||
|
||
Ce glissement a une conséquence décisive : les notions de fraude, de risque, de mérite, de besoin, de contenu nuisible, de bénéfice écologique sont progressivement reformulées en langage métrique. Ce qui vaut, ce qui est grave, ce qui est supportable se déplace vers ce qui améliore des courbes. Les valeurs explicites qui légitimaient Système F – protection de l’État social, accessibilité des soins, sécurité, inclusion, sobriété écologique – se voient en quelque sorte encapsulées dans des indicateurs techniques qui deviennent, à leur tour, les seuls fondements opérationnels de l’action. *L’arcalité déclarée subsiste dans les chartes, mais l’arcalité effective de la régulation est de plus en plus tenues par des tableaux de bord*.
|
||
|
||
### VI.3.2. Boucles fermées d’évaluation : auto-audit et auto-justification
|
||
|
||
À cette métrologie généralisée s’ajoute une seconde dynamique : la *boucle fermée de l’évaluation*. Pour répondre aux critiques, aux exigences réglementaires, aux principes d’“IA responsable”, les organisations qui déploient Système F se dotent de *dispositifs d’audit* : *matrices de risque, évaluations d’impact, rapports internes de biais, journaux de conformité, comités de gouvernance des données et de l’IA*. Sur le papier, ces dispositifs introduisent de la réflexivité. En pratique, ils sont le plus souvent conçus, alimentés et interprétés par les mêmes familles d’acteurs qui conçoivent, paramètrent et pilotent les systèmes.
|
||
|
||
*L’audit devient alors un moment où le système se juge lui-même à partir des métriques qu’il a déjà choisies*. Les questions principales deviennent : avons-nous réduit l’écart de traitement entre tel et tel groupe selon la mesure d’équité retenue ? Avons-nous baissé la consommation énergétique par requête selon le calcul que nous avons défini ? Avons-nous diminué le nombre de recours en justice liés à tel module ? Lorsque les réponses sont positives, le système se déclare “amélioré”, “aligné avec les bonnes pratiques”, voire “digne de confiance”.
|
||
|
||
L’*autarchicratie numérique* se cristallise là : dans cette capacité de Système F à *produire lui-même les instruments de sa propre absolution*. Les audits externes existent, nous l’avons vu, mais ils se déroulent souvent dans un espace déjà formaté par les catégories, les métriques et les scénarios d’usage fournis par les opérateurs. *Les autorités de régulation manquent fréquemment de moyens techniques pour contester ces cadrages, les personnes affectées ne sont pas intégrées à la définition des critères de succès, et les interrogations sur les effets sociaux et écologiques de long terme se trouvent réduites à des colonnes dans un registre de risques.* La scène d’épreuve tourne en vase clos : on ajuste les paramètres, on raffine les mesures, mais on discute rarement de ce qui devrait compter autrement que comme un “risque résiduel”.
|
||
|
||
### VI.3.3. Marginalisation des scènes externes : droit, politique, publics
|
||
|
||
Pendant que les métriques se referment sur elles-mêmes, les scènes externes – juridictions, parlements, corps intermédiaires, espaces publics – peinent à accéder aux prises nécessaires pour transformer Système F. Les tribunaux jugent des décisions individuelles, mais n’ont pas toujours la capacité d’instruire la structure du modèle qui a contribué à ces décisions ; ils peuvent sanctionner un usage manifestement discriminatoire, sans pour autant redessiner l’architecture globale des fonctions de coût. Les parlements votent des textes encadrant l’IA, mais ces textes restent souvent focalisés sur la transparence, la gouvernance des données, la documentation des systèmes, sans imposer de véritables scènes d’*archicration* où les configurations arcales et cratiales seraient travaillées avec les publics concernés.
|
||
|
||
Les *espaces publics*, quant à eux, discutent de l’IA à coups de grandes oppositions – menace existentielle, opportunité économique, risque de surveillance, promesse d’innovation – sans toujours disposer des informations concrètes sur les usages effectifs de Système F dans les caisses sociales, les hôpitaux, les tribunaux, les entreprises. La discussion se déplace vers des enjeux spectaculaires (l’IA va-t-elle remplacer les travailleurs ? inventer des contenus trompeurs ? déstabiliser la démocratie ?), alors même que Système F s’installe silencieusement dans les couches les plus ordinaires de la régulation.
|
||
|
||
Dans une *autarchicratie numérique*, ces scènes externes ne disparaissent pas ; elles deviennent décoratives. On les convoque pour valider a posteriori des choix déjà intégrés dans les métriques : consultation sur des principes, délibération sur des textes généraux, auditions d’experts qui décrivent des dispositifs dont les paramètres structurants sont fixés ailleurs. La capacité effective de ces scènes à contraindre, réorienter ou suspendre Système F se réduit, sauf crises majeures, à des ajustements marginaux.
|
||
|
||
### VI.3.4. Système F comme candidat central à l’*autarchicratie*
|
||
|
||
À ce point du cas pratique, l’hypothèse peut être formulée nettement : Système F est un candidat central au méta-régime d’*autarchicratie numérique*. Il agrège trois caractéristiques qui, prises ensemble, rendent ce régime particulièrement stable :
|
||
|
||
1. Une *cratialité profonde*, distribuée dans des architectures techniques puissantes, difficiles à reconfigurer une fois mises en place.
|
||
|
||
2. Une *arcalité pratique largement métrique*, qui tend à se suffire à elle-même : les bons chiffres deviennent la preuve de la bonne direction.
|
||
|
||
3. Des *archicrations fragmentées*, souvent fantomatiques, qui peinent à reconduire l’ensemble du dispositif sur une scène où ses fondements, ses effets sociaux et ses impacts écologiques pourraient être mis en procès.
|
||
|
||
Lorsque Système F est utilisé pour classer des dossiers sociaux, il est évalué sur la rapidité du traitement, le nombre de fraudes détectées, la diminution des coûts administratifs, la réduction des écarts de traitement mesurés par certains indicateurs. Lorsque Système F est utilisé dans la santé, il est évalué sur la pertinence prédictive, la réduction de certaines hospitalisations, l’amélioration d’indicateurs de performance hospitalière. Lorsqu’il est mobilisé sur les plateformes, on regarde la baisse de certains contenus jugés nocifs, la stabilité des usages, la croissance de l’engagement. Dans chacun de ces domaines, les métriques à partir desquelles on juge le système sont déjà produites à l’intérieur de l’écosystème qu’il reconfigure : elles ne sont pas “fausses”, mais elles jouent un rôle de miroir.
|
||
|
||
En parallèle, les coûts sociaux et écologiques mis en évidence par l’épreuve de co-viabilité – non-recours, humiliations silencieuses, invisibilisations, tensions hydriques, charges électriques, déchets – se retrouvent, lorsqu’ils se manifestent, retraduits en langage de risque : risques de réputation, risques de non-conformité, risques de contentieux, risques de conflit local autour d’un data center. Ils entrent alors, eux aussi, dans des matrices de gestion qui visent à les réduire à l’intérieur du dispositif sans en remettre en cause l’architecture générale.
|
||
|
||
Ce qui caractérise l’*autarchicratie numérique* n’est donc pas l’absence totale de réaction aux problèmes, mais la tendance forte à les traiter sans jamais sortir de l’univers des instruments. La scène où l’on pourrait demander : “Faut-il, oui ou non, utiliser Système F pour classer des familles, hiérarchiser des vies, prioriser des milieux ? À quelles conditions ? Avec quels renoncements explicites ?” reste largement introuvable.
|
||
|
||
### VI.3.5. Ce qui ne peut pas apparaître
|
||
|
||
L’*autarchicratie numérique* se mesure enfin à ce qui, dans la vie sociale et écologique, ne parvient pas à entrer dans les circuits de Système F autrement que comme bruit ou résidu. Les récits de personnes qui vivent des suspensions incompréhensibles, les expériences de médecins pris entre leur jugement clinique et une recommandation algorithmique, les inquiétudes d’habitants devant un projet de centre de données qui menacera leur ressource en eau, les fatigues d’ingénieurs qui savent, de l’intérieur, que certaines métriques ne disent pas tout : toutes ces expériences existent, mais elles peinent à trouver des scènes où elles pourraient, ensemble, reconfigurer les fondements et les instruments du dispositif.
|
||
|
||
Autrement dit, l’*autarchicratie numérique* ne se définit pas uniquement par la puissance de Système F ou par la sophistication de ses modèles ; elle se définit par la raréfaction des lieux où ceux qui vivent ses effets peuvent le faire apparaître, le faire répondre, le faire bouger. Tant que Système F continue à se perfectionner à partir de ses propres indicateurs, en ajustant sa *cratialité* et son empreinte au fil de ses audits internes, tandis que les scènes externes demeurent marginales ou ornementales, le régime qui s’installe ne sera pas seulement celui d’une “*gouvernance par les données*”, mais bien celui d’un pouvoir régulateur qui se gouverne lui-même.
|
||
|
||
C’est ce régime que la dernière section de ce cas pratique devra affronter plus directement, en traduisant en termes opératoires la politique des épreuves viables : non plus seulement diagnostiquer l’*autarchicratie numérique* de Système F, mais *proposer des conditions précises pour que des scènes d’archicration robustes puissent s’y inscrire, socialement et écologiquement, et rouvrir la possibilité d’un gouvernement qui accepte, à nouveau, d’être gouverné*.
|
||
|
||
## VI.4. Politique des épreuves viables pour l’IA
|
||
|
||
L’*épreuve de co-viabilité* ne se contente pas de constater les dégâts ou de dresser un inventaire des déficits scéniques ; elle appelle une politique. Si Système F est en train de devenir un opérateur central de la régulation sociale et écologique, *quelles épreuves viables doit-on instituer autour de lui pour que sa puissance n’équivaille pas à une sortie hors scène du politique ?* *Comment transformer la “gouvernance de l’IA”, souvent réduite à un mélange de conformité réglementaire et de bonnes pratiques éthiques, en une obligation forte de se laisser apparaître, d’accepter d’être mis en cause, ralenti, mis en pause, reconfiguré ?*
|
||
|
||
### VI.4.1. Redéfinir l’acte régulateur : décider, c’est aussi instituer la scène
|
||
|
||
Dans l’univers de Système F, la tentation est constante de définir l’acte régulateur par sa seule face instrumentale : choisir un modèle, fixer des paramètres, rédiger un cahier des charges, signer un contrat, déployer un module dans un *workflow* existant. *Tout se passe comme si la décision politique consistait à arbitrer entre solutions techniques, à déterminer un niveau d’ambition* (“plus de lutte contre la fraude”, “moins de non-recours”, “meilleure priorisation des soins”) *et à laisser ensuite les chaînes cratiales faire leur œuvre*.
|
||
|
||
La politique des épreuves viables renverse ce geste. Elle propose de dire qu’*il n’y a d’acte régulateur légitime qu’à la condition que soient instituées, en même temps, les scènes où cet acte pourra être mis en épreuve*. Décider d’introduire Système F dans un régime de prestations sociales, dans une architecture hospitalière, dans une justice pénale, dans une plateforme de contenus, ce n’est pas seulement choisir un outil ; c’est se lier à l’obligation d’ouvrir des lieux, des procédures, des temporalités où la configuration archicratique pourra être contestée par ceux qui en portent les effets.
|
||
|
||
Concrètement, cela signifie que l’on ne devrait plus pouvoir parler de “gouvernance de l’IA” en termes purement internes (cycles d’amélioration continue, matrices de risques, audits périodiques), mais comme d’un *engagement à multiplier les prises scéniques* : *droit au différé, possibilités de réexamen, dispositifs contradictoires, scènes écologiques, scènes de restitution publique*. Une IA sans scène devient un opérateur d’*autarchicratie*.
|
||
|
||
### VI.4.2. Scènes viables pour la co-viabilité sociale : différé, justification, contestation
|
||
|
||
Pour la *co-viabilité sociale*, trois types d’épreuves viables s’imposent. La première est celle du *droit au différé contradictoire*. Dans un régime où Système F contribue à suspendre des prestations, à déclencher des contrôles, à classer des personnes comme “à risque” ou “non prioritaires”, aucun résultat ne devrait être tenu pour définitivement opposable sans qu’ait été ouverte une fenêtre temporelle où la personne concernée peut demander : “Qui m’a classé ainsi ? Sur quels critères ? À partir de quelles données ? Avec quelle marge d’erreur ?”. Ce droit au différé n’est pas un luxe procédural : c’est la condition minimale pour que la régulation par IA ne se confonde pas avec un verdict sans visage.
|
||
|
||
La deuxième est celle du *journal de justification*. Tant que les décisions appuyées par Système F restent des enchaînements de scores et de seuils, on ne peut opposer au justiciable, au patient, à l’allocataire, au candidat qu’un résultat (“votre demande est refusée”, “vous êtes classé à haut risque”, “votre candidature n’a pas été retenue”). Un régime archicratique exige que chaque décision de ce type soit adossée à un dossier où l’on consigne, de manière intelligible, la contribution de Système F : quelles variables ont pesé, quels modèles ont été sollicités, quels paramètres ont été utilisés, quelles alternatives étaient possibles. Ce journal n’a de sens que s’il est accessible et contestable, directement ou par l’intermédiaire de soutiens (avocats, associations, syndicats, défenseurs des droits). Sans ce support écrit, la scène reste sans prises.
|
||
|
||
La troisième est celle de la *scène contradictoire élargie*. Il ne suffit pas que chaque personne puisse, isolément, contester “sa” décision. Les effets de Système F sont structurels : ils produisent des séries d’exclusions, de désavantages concentrés sur certains groupes, de priorisations systématiques. Des scènes viables exigent donc des dispositifs où l’on puisse porter collectivement ces problèmes : recours collectifs, instances de plainte capables d’agréger des cas similaires, audiences publiques où des associations de quartier, des collectifs de patients, des syndicats de salariés peuvent faire valoir que, pour certains profils, Système F n’est pas seulement “biaisé”, mais incompatible avec une vie digne. C’est à cette échelle, et pas seulement au niveau des dossiers individuels, que l’on peut reconfigurer les fonctions de coût, les proxies, les seuils – bref, la cratialité elle-même.
|
||
|
||
### VI.4.3. Scènes viables pour la *co-viabilité écologique* : territoire, traçabilité, refus
|
||
|
||
Sur le versant écologique, la politique des épreuves viables implique un déplacement comparable. Tant que l’empreinte de Système F est exprimée en indicateurs agrégés – quelques chiffres sur la consommation électrique totale ou la “neutralité carbone” projetée –, la scène de décision reste abstraite, intouchable. L’épreuve viable demande au contraire que chaque projet significatif d’extension de Système F soit rattaché à des territoires précis, à des réseaux, à des bassins versants, et que ces lieux deviennent parties prenantes de la décision.
|
||
|
||
Concrètement, cela suppose d’abord une *traçabilité écologique attachée au dispositif* : un hôpital, une caisse sociale, un ministère qui décideraient de recourir à Système F devraient être en mesure de présenter, non seulement le bilan attendu en termes de performances régulatrices, mais aussi une cartographie des centres de données mobilisés, du mix électrique, des besoins en eau, des renouvellements de matériel. Ce n’est qu’à cette condition qu’une collectivité locale, un parlement, une instance de régulation écologique peuvent évaluer si les bénéfices attendus justifient les coûts imposés aux milieux concernés.
|
||
|
||
Ensuite, la politique des épreuves viables exige des scènes territoriales dotées d’un véritable pouvoir de refus ou de renégociation. Une enquête publique où l’on collecte des observations sans obligation d’y répondre n’est pas une scène viable ; c’est un rituel. Ce qui est en jeu, c’est la possibilité pour des habitants, des agriculteurs, des communautés affectées de dire : “Dans cet état, ce projet n’est pas compatible avec notre co-viabilité. Il devra être réduit, déplacé, compensé autrement, ou renoncé.” Une telle capacité de refus conditionne, là encore, la *qualification archicratique du dispositif* : sans elle, la régulation par Système F prend appui sur des milieux assignés au sacrifice sans scène d’arbitrage.
|
||
|
||
Enfin, l’épreuve viable impose que les promesses écologiques de Système F – optimisation d’infrastructures, gains d’efficacité, réduction d’autres impacts – soient elles aussi rendues discutables. Il ne s’agit pas de les nier, mais de les faire passer par une scène où les mêmes territoires qui supportent les data centers, l’extraction, les déchets, puissent demander des preuves, exiger des comparaisons, refuser que des bénéfices lointains servent de justification indéfinie à des dommages au plus proche.
|
||
|
||
### VI.4.4. Du “gouvernement par l’IA” à l’obligation de comparution
|
||
|
||
Au total, la politique des épreuves viables appliquée à l’IA ne se réduit ni à une éthique des concepteurs, ni à un perfectionnement des audits, ni à un raffinement des indicateurs de performance. Elle consiste à déplacer le centre de gravité de la gouvernance : d’un gouvernement par l’IA – où les modèles et les métriques pilotent silencieusement des pans entiers de la *co-viabilité* – *vers un gouvernement de l’IA par des scènes instituées, ouvertes, opposables*.
|
||
|
||
Dans un tel régime, aucune extension majeure de Système F ne pourrait être décidée sans que soient explicitement définis :
|
||
|
||
- les scènes où les personnes affectées pourront contester les décisions et faire modifier les instruments ;
|
||
|
||
- les scènes où les impacts écologiques seront instruits avec ceux qui vivent dans les milieux concernés ;
|
||
|
||
- les conditions matérielles d’un droit au différé, à la justification, à la révision, dotées de moyens et de calendriers réalistes.
|
||
|
||
Ce renversement ne garantit pas que Système F deviendra spontanément juste, sobre, parfaitement co-viable. Il garantit quelque chose de plus modeste et de plus décisif : que Système F ne pourra plus se déclarer lui-même juste en se contentant de présenter de bons chiffres, de beaux rapports et des chartes généreuses. Il devra accepter de se tenir devant des scènes où ces chiffres, ces rapports, ces chartes sont eux-mêmes mis en question par celles et ceux qui vivent les effets du dispositif.
|
||
|
||
Autrement dit, une politique des épreuves viables pour l’IA ne promet pas la fin des conflits ; elle en promet la scène. C’est à cette condition, et à cette condition seulement, que la puissance régulatrice de Système F pourra cesser d’être le vecteur privilégié d’une *autarchicratie numérique* et devenir l’un des terrains où s’invente, peut-être, une réouverture archicratique à la hauteur des crises sociales et écologiques contemporaines.
|