142 lines
10 KiB
Plaintext
142 lines
10 KiB
Plaintext
---
|
||
title: "Annexe — Glossaire archicratique pour l’audit des systèmes d’IA"
|
||
edition: "cas-ia"
|
||
status: "application"
|
||
level: 1
|
||
version: "0.1.0"
|
||
concepts: []
|
||
links: []
|
||
order: 195
|
||
summary: ""
|
||
source:
|
||
kind: docx
|
||
path: "sources/docx/cas-ia/Cas_Pratique-Archicratie_et_gouvernance_des_systemes_IA-Annexe_Glossaire_Archicratique_Cas_IA.docx"
|
||
---
|
||
# Annexe – Glossaire archicratique pour l’audit des systèmes d’IA
|
||
|
||
Cette annexe propose un bref glossaire des notions archicratiques mobilisées dans l’audit de Système F. Elle n’a pas vocation à réexposer la théorie dans toute son ampleur, mais à fournir au lecteur du cas pratique quelques repères opératoires pour suivre le fil des analyses.
|
||
|
||
## Arcalité
|
||
|
||
On appelle *arcalité* la *dimension de tout ordre régulateur qui concerne ses fondements* : *ce qui l’autorise, ce qui le rend légitime, ce qui lui donne droit de décider*. L’*arcalité* est faite de *récits*, de *principes*, de *valeurs*, de *visées explicites ou implicites* : lutter contre la fraude, protéger l’État social, garantir la sécurité, promouvoir la santé, favoriser le “talent”, préserver la liberté d’expression, etc.
|
||
|
||
Dans Système F, on distingue :
|
||
|
||
- une *arcalité déclarée* : chartes d’“IA digne de confiance”, discours politiques sur la lutte contre la fraude, documents de marketing qui promettent d’“objectiver” le risque ou d’“optimiser” la sélection ;
|
||
|
||
- une *arcalité implicite* : choix de variables (coûts de santé comme proxy des besoins, nationalité comme indicateur de risque), arbitrages entre faux positifs et faux négatifs, composition des jeux de données, sélection de critères de “talent” ou de “dangerosité”.
|
||
|
||
L’enjeu archicratique n’est pas de moraliser *a posteriori* ces choix, mais de les *faire comparer sur scène* : *exposer les axiomes silencieux* (“nous considérons qu’il est plus grave de laisser passer un fraudeur que de punir un innocent”, etc.), *et permettre qu’ils soient discutés, contestés, révisés*.
|
||
|
||
## Cratialité
|
||
|
||
La *cratialité* désigne la dimension opératoire du pouvoir régulateur : la manière dont il s’applique concrètement, par quels instruments, quelles chaînes techniques, quelles procédures. C’est le “*par quoi*” et le “*comment*”.
|
||
|
||
Dans Système F, la *cratialité* se déploie dans :
|
||
|
||
- les *données mobilisées* (dossiers fiscaux, historiques de soins, casiers judiciaires, CV, contenus de plateformes) ;
|
||
|
||
- les *pipelines* qui transforment des situations complexes en vecteurs numériques ;
|
||
|
||
- les *modèles* eux-mêmes (architectures, paramètres, fonctions de coût, seuils de décision) ;
|
||
|
||
- les *interfaces* (tableaux de bord, scores de risque, codes couleur, messages d’alerte) ;
|
||
|
||
- les *procédures d’intégration* (règles internes qui imposent de suivre la recommandation ou d’en justifier tout écart).
|
||
|
||
*Cratialité* n’est pas synonyme de “technique” : elle inclut aussi les *règles organisationnelles*, les *consignes*, les *scripts de travail*. L’audit archicratique ne se contente pas de repérer les algorithmes ; il suit les chaînes cratiales jusqu’aux guichets, aux tribunaux, aux services hospitaliers, aux départements RH, aux plateformes.
|
||
|
||
## Archicration
|
||
|
||
L’*archicration* est le troisième terme du triptyque : elle désigne la *scène d’épreuve où arcalité et cratialité sont amenées en visibilité, confrontées, mises à l’épreuve et, si nécessaire, transformées*.
|
||
|
||
Sans *archicration*, les fondements restent fantômes, et le pouvoir opératoire devient autarcique.
|
||
|
||
Une *archicration* digne de ce nom réunit quatre conditions minimales :
|
||
|
||
1. *Public(s) concerné(s) effectivement représentés* (et pas seulement des experts parlant “en leur nom”) ;
|
||
|
||
2. *Accès aux prises* : connaissance minimale des arcalités à l’œuvre (valeurs, finalités, proxies, fonctions de coût) et des cratialités (chaînes techniques, procédures, interfaces) ;
|
||
|
||
3. *Capacité de contestation* : possibilité d’interpeller les choix, de demander des modifications, de suspendre un dispositif ;
|
||
|
||
4. *Effet réel* : ce qui se dit sur la scène peut produire des transformations sur le système, pas seulement un “avis” consultatif.
|
||
|
||
Dans Système F, la plupart des dispositifs existants – comités d’éthique, audits de biais, formulaires de recours – n’atteignent pas ce seuil : ce sont des *archicrations fantômes*, qui donnent l’allure de la scène sans en avoir la puissance.
|
||
|
||
## Hypotopie, hypertopie, atopie
|
||
|
||
Ces trois termes qualifient la topologie des scènes où la régulation IA apparaît (ou disparaît).
|
||
|
||
- Une *hypotopie* est une *scène pauvre en prises, faiblement outillée, où les gens peuvent parler mais sans pouvoir effectivement infléchir la régulation*. Par exemple : un usager qui discute avec un agent de caisse sociale d’une décision prise en réalité par Système F, sans accès ni aux paramètres ni aux logs ; un formulaire de recours tellement opaque et lourd qu’il décourage toute contestation.
|
||
|
||
- Une *hypertopie* est une *scène surdotée à huit-clos* : tout s’y joue – paramètres, seuils, choix de déploiement – mais entre un nombre très limité d’acteurs (directions, ingénieurs, juristes, consultants). *Les comités de pilotage où l’on décide d’intégrer ou non Système F dans la chaîne de décision, les réunions de design des modèles sont souvent des hypertopies*.
|
||
|
||
- Une *atopie* est une *scène fantomatique* : elle mime le dispositif d’épreuve, sans donner prise réelle. Consultations publiques en ligne sans impact, “boîtes à idées” numériques, mécanismes de *feedback* qui alimentent surtout des métriques internes (satisfaction, engagement) sans reconfigurer la régulation.
|
||
|
||
L’épreuve topologique, dans le cas IA, consiste à cartographier où se trouvent les *hypotopies, hypertopies, atopies*, et à inventer des scènes nouvelles qui rééquilibrent cette topologie.
|
||
|
||
## Autarchicratie
|
||
|
||
L’*autarchicratie* désigne un régime où la régulation devient son propre souverain : les dispositifs de mesure, de modélisation et de contrôle se gouvernent eux-mêmes à partir de leurs propres métriques, et ne reconnaissent plus que très marginalement des scènes externes d’épreuve.
|
||
|
||
Dans Système F, l’*autarchicratie* prend plusieurs formes :
|
||
|
||
- *modèles évalués principalement par leurs métriques internes* (perte, précision, indicateurs d’équité) ;
|
||
|
||
- *dispositifs d’auto-audit et de reporting automatisé* qui servent de preuve de “responsabilité” sans ouvrir réellement le système à la contestation ;
|
||
|
||
- *boucles de rétroaction fermées* où les décisions passées alimentent les données futures (ceux que le système considère comme “à risque” seront davantage contrôlés, et donc produiront plus de “preuves” de risque).
|
||
|
||
L’*autarchicratie* est l’exact négatif de l’*archicratie* : *là où l’archicratie multiplie les scènes d’épreuve, l’autarchicratie les marginalise ou les simule*.
|
||
|
||
## Co-viabilité
|
||
|
||
Par *co-viabilité*, on entend la *capacité d’un ordre régulateur à rendre simultanément vivables plusieurs dimensions de l’existence* : sociale, écologique, symbolique, parfois économique.
|
||
|
||
Dans le cas IA :
|
||
|
||
- la *co-viabilité sociale* renvoie à l’*accès aux droits*, à la *protection contre l’arbitraire*, à la *dignité des personnes* (ne pas être réduit à un profil de risque opaque, pouvoir contester une décision qui affecte des prestations, des peines, des soins, un emploi) ;
|
||
|
||
- la *co-viabilité écologique* concerne les *coûts matériels de l’infrastructure* (consommation énergétique, pressions sur les ressources, effets territoriaux des centres de données et des centres d’extraction) et la *possibilité de les mettre en scène* ;
|
||
|
||
- la *co-viabilité symbolique* touche aux *représentations de la justice, du mérite, du risque, de la vérité*, et à la manière dont Système F contribue à les figer ou à les rouvrir.
|
||
|
||
L’*épreuve de co-viabilité* ne se limite donc pas à mesurer des “impacts” ; elle demande : *quels types de scènes faut-il instituer pour que ces dimensions puissent être mises en balance, arbitrées et révisées ?*
|
||
|
||
## Politique des épreuves viables
|
||
|
||
La *politique des épreuves viables* est le nom donné à une *orientation normative minimale* : plutôt que de définir un modèle de justice idéal, elle consiste à organiser les épreuves auxquelles les dispositifs régulateurs doivent se soumettre pour rester archicratiques.
|
||
|
||
Appliquée à l’IA, elle se traduit par une *série de gestes concrets* :
|
||
|
||
- *droit au différé contradictoire* pour les décisions appuyées par un système ;
|
||
|
||
- *journaux de justification* documentant les choix de modèles, de métriques, de proxies, d’usages ;
|
||
|
||
- *visas d’affectation* qui autorisent ou interdisent certains usages de scores dans des décisions critiques ;
|
||
|
||
- *coupe-circuits citoyens* permettant de suspendre un système en cas de dégâts massifs ;
|
||
|
||
- *tribunaux de l’algorithme*, assemblées d’affectation, budgets scéniques pour financer le temps de la délibération et de la traduction ;
|
||
|
||
- *révisions archicratives périodiques* s’accompagnant d’une *cartographie des scènes manquantes*.
|
||
|
||
Dans le cas de Système F, ces gestes ne sont pas des ornements : ils définissent le seuil en deçà duquel il n’est plus raisonnable de parler de gouvernance archicratique de l’IA, mais d’*autarchicratie numérique*.
|
||
|
||
## Système F
|
||
|
||
Enfin, *Système F* n’est pas le nom d’un produit commercial, mais celui d’une figure composite : un modèle de fondation (LLM / modèle multimodal) accessible par API, intégré dans des flux de travail décisionnels de la protection sociale, de la santé, de la justice, des ressources humaines, des plateformes numériques.
|
||
|
||
Il condense des caractéristiques empiriquement attestées :
|
||
|
||
- *usage de systèmes de scoring* pour cibler des contrôles de fraude, évaluer des risques pénaux, gérer des programmes de soins, filtrer des candidatures, modérer des contenus ;
|
||
|
||
- *insertion de modules d’IA dans des logiciels métier existants* ;
|
||
|
||
- *dépendance à des fournisseurs privés de services cloud et de modèles* ;
|
||
|
||
- *adoption de chartes d’“IA responsable” et de procédures d’audit parfois plus symboliques qu’effectives*.
|
||
|
||
L’intérêt de Système F n’est donc pas de décrire un futur hypothétique, mais de donner un nom commun à une configuration déjà largement engagée, afin de lui appliquer, sans esquive, l’ensemble des épreuves archicratiques.
|