Quando la tecnologia rivoluziona le regole, la democrazia non può limitarsi a inseguirle: deve trovare il coraggio di trovare nuove fondamenta.
Novembre 1910. Sei uomini salgono su un vagone privato in un binario laterale del New Jersey usando solo i propri nomi di battesimo, per non farsi riconoscere dai domestici. La destinazione è Jekyll Island, Georgia: un club esclusivo frequentato da J.P. Morgan, i Rockefeller, i Vanderbilt. Per nove giorni scrivono, a porte chiuse, la legge bancaria americana. Tre anni dopo, con alcune modifiche alla struttura politica ma con l’impianto tecnico pressoché intatto, quel testo divenne il Federal Reserve Act. La riunione sarà negata per vent’anni.
Sarebbe sbagliato leggerla come corruzione. I partecipanti erano convinti di risolvere un problema reale, con la logica di chi si sente investito di una responsabilità tecnica che la politica non ha gli strumenti per assumere. Costruirono un’architettura istituzionale in cui gli interessi privati erano incorporati prima che il legislatore sapesse di dover intervenire: così, quando il Congresso arrivò a legiferare, trovò un testo già scritto, un vocabolario già definito, una struttura tecnica già installata. La discussione parlamentare riguarderà la forma; la sostanza era già decisa altrove.
Vale la pena tenere questo episodio a mente mentre si discute di intelligenza artificiale e potere, perché la struttura si ripete con una precisione che invita alla riflessione.
Anthropic, Google DeepMind e OpenAI siedono ai tavoli che scriveranno gli standard internazionali per governarli, e dettano il vocabolario della sicurezza (“allineamento”, “uso responsabile”, “AI etica”) prima che esista una definizione pubblica e democraticamente negoziata di quegli stessi termini. Le infrastrutture su cui viene addestrata la quasi totalità dei modelli AI di frontiera (chip specializzati, cloud computing, capacità di calcolo su larga scala) appartengono a tre o quattro attori privati: qualsiasi regolazione futura, ovunque venga scritta, dovrà necessariamente passare attraverso di esse.
La storia delle banche centrali offre, su questo punto, una mappa abbastanza precisa di quello che accade dopo: le riforme arrivano sempre a crisi avvenuta, trovano architetture già installate.
L’analogia regge sulla dinamica di cattura istituzionale, non sulla soluzione tecnica, dal momento che le banche governano un oggetto con definizione giuridica consolidata e grandezze misurabili, mentre l’AI non ha ancora un equivalente.

Tre risposte, nessuna soluzione
Di fronte alla stessa pressione, i principali blocchi geopolitici hanno scelto strade diverse, e nessuna delle tre affronta davvero il momento in cui il potere si installa.
Negli Stati Uniti di Trump il patto con i Big Tech è esplicito e dichiarato: deregulation e accesso diretto alle strutture dello Stato in cambio di sostegno politico. I principali laboratori AI siedono ai tavoli di standard-setting internazionale e definiscono il vocabolario della sicurezza prima che esista una definizione pubblica di quegli stessi termini, rendendo la partecipazione istituzionale indistinguibile dal conflitto di interessi. Rispetto al 1913 non c’è più nemmeno la finzione.
La Cina ha dimostrato, con le sanzioni miliardarie ad Alibaba, la riorganizzazione forzata di Tencent e i vincoli imposti a ByteDance, che contenere i grandi gruppi tech è tecnicamente possibile. Il caso cinese è però più complesso di un semplice trade-off libertà/controllo: quegli interventi rispondono simultaneamente a obiettivi di controllo politico interno, sicurezza nazionale e competizione geopolitica che non sono separabili tra loro. Il modello non è esportabile, a prescindere dai costi in termini di libertà che le democrazie liberali non possono e non vogliono replicare.
L’Unione Europea ha scelto la via della norma: l’ AI Act, gli obblighi di trasparenza sui dati di addestramento, le valutazioni di sicurezza per i modelli di grandi dimensioni. È la risposta più attenta al perimetro di diritto che intende tutelare, ed è anche strutturalmente tardiva: arriva quando le architetture sono già installate, i vocabolari già definiti, le dipendenze già consolidate. Occorre riconoscere che questo non è un difetto correggibile con più risorse o con infrastrutture sovrane costruite in alternativa ai fornitori americani (che pure sono spesso private): è un limite di metodo. Normare dall’esterno un oggetto che si trasforma più velocemente dei cicli legislativi significa disciplinare la versione precedente di qualcosa che è già altrove.

Il patto che si rompe
C’è un problema che aggrava ulteriormente il quadro, e che nessuno dei tre approcci considera.
Damiano Palano riprende un’analisi di Cullen Hendrix: l’AI rischia di riprodurre la logica dei petro-stati, in cui il governo, potendo finanziarsi attraverso i profitti dell’automazione invece che attraverso le tasse sul lavoro di milioni di persone, perde l’incentivo strutturale a negoziare con la società.
Chi paga le imposte pretende controllo su come vengono spese; se smette di pagarle, quella leva si assottiglia. È la rottura del patto fiscale che storicamente ha fondato la rappresentanza moderna (“No taxation without representation“).
La diagnosi è inquietante, ma con un limite: fondare la cittadinanza democratica sulla produttività economica significa accettare che le persone contino solo in quanto forza lavoro.
Nei petro-stati, almeno, la rendita è formalmente statale.
Nell’AI la concentrazione è privata: le infrastrutture computazionali, i modelli, i dati di addestramento appartengono a un numero ristrettissimo di soggetti che non rispondono ad alcun mandato democratico. È uno stadio ulteriore rispetto allo Stato rentier: è il potere rentier senza Stato.
Se la produttività non può essere il fondamento della cittadinanza, la legittimità democratica deve appoggiarsi su qualcosa di più stabile: la capacità di comprendere le condizioni in cui si vive e di partecipare alle decisioni che le riguardano.

Una quarta via: certificare invece che normare
Esiste una direzione che questi tre modelli hanno percorso solo in frammenti, senza mai farne il principio organizzatore.
L’AI Act fissa contenuti, vieta usi, definisce categorie di rischio. Sconta però un problema strutturale che non dipende dalle risorse impiegate né dalla qualità dei legislatori: un oggetto che si trasforma continuamente sfugge a qualsiasi tassonomia fissata per legge, e la politica arriva sempre a disciplinare l’iterazione precedente.
Stabilire per via normativa quali valori un sistema AI debba incorporare significa inseguire una forma che cambia più velocemente dei cicli parlamentari.
La nostra proposta parte da una distinzione diversa: tra fissare cosa è giusto in un sistema che muta, e verificare se ciò che un sistema dichiara è effettivamente controllabile dall’esterno. La seconda operazione è più robusta perché è agnostica rispetto al contenuto: si applica oggi come tra cinque anni, indipendentemente da dove sarà arrivata la frontiera tecnologica.
Lo Stato diventa validatore che certifica la metodologia.
Il criterio è la verificabilità del processo: come è stato costruito il sistema, quali scelte sono state compiute nell’addestramento, se quelle scelte sono ispezionabili da soggetti indipendenti, piuttosto che la conformità a valori predefiniti.
L’obiettivo è istituire un presidio permanente: competenze tecniche interne alle amministrazioni pubbliche che lavorano in modo continuo, aggiornando la valutazione in parallelo all’evoluzione dei sistemi. Esattamente come il training e il fine-tuning dei modelli AI non si fermano mai e senza pretendere una trasparenza totale che nessun sistema complesso può offrire, né elencare parametri tecnici destinati a diventare obsoleti nel giro di mesi.
La differenza rispetto al modello legislativo è sia di velocità che di natura: un’Istituzione che monitora e certifica in modo adattivo produce un orientamento aggiornato che informa le scelte pubbliche e private in tempo reale, invece di una legge ogni cinque anni.
La soglia di trasparenza verificabile produce due meccanismi distinti.
Per i cittadini come utenti di servizi consumer, apre la possibilità di una scelta informata: sapere come è stato costruito il sistema che si usa, quali valori dichiara, se quei valori sono stati verificati da terzi.
Per il livello istituzionale (sanità, giustizia, pubblica amministrazione, sicurezza), dove il cittadino non sceglie direttamente ma subisce le conseguenze delle scelte altrui, è lo Stato a comprare: e può orientare le proprie scelte di acquisto verso fornitori che rispettano i criteri di trasparenza certificata, con mandato democratico esplicito.
Il procurement pubblico diventa segnale ai mercati senza richiedere accordo internazionale sui valori, ma solo sulla metodologia di verifica.
Il modello regge però solo se entrambi i lati tengono: Istituzioni con competenza tecnica interna reale, capaci di rendere i propri orientamenti leggibili, e cittadini con gli strumenti per usarli.
L’alfabetizzazione digitale non è una misura di politica culturale accessoria: è la precondizione strutturale perché il meccanismo funzioni, da collocare nella stessa categoria dell’istruzione pubblica obbligatoria.
Lo Stato investe nella propria capacità di certificare e, parallelamente, nella capacità dei cittadini di leggere quella certificazione.

Rifondare il patto
A Jekyll Island la finestra si chiuse in nove giorni. I partecipanti negarono per vent’anni che la riunione fosse mai avvenuta.
Con l’intelligenza artificiale non c’è più nemmeno bisogno di negare: i meccanismi di cattura sono pubblici, dichiarati, e si presentano come governance responsabile. Il che è, analiticamente, più inquietante della segretezza.
Le Istituzioni democratiche possono trovare nella funzione di verifica una nuova fonte di legittimità: la credibilità viene da chi garantisce che le regole siano leggibili e controllabili da tutti, prima ancora che da chi le detta.
Il patto regge se entrambi i lati tengono: Istituzioni che rendono la trasparenza leggibile, cittadini che la usano come criterio di scelta e di pressione politica.
La legittimità democratica si fonda sulla capacità dei cittadini di capire, valutare e decidere: una base più stabile della produttività economica.
Questa competenza diffusa va ben oltre qualsiasi programma di formazione professionale: è la condizione minima perché la democrazia abbia ancora senso in un’epoca in cui le architetture del potere si scrivono in codice.


