Il Codice del Far West
Viviamo giorni in cui i ruoli del potere si sono invertiti.
La Casa Bianca ha dichiarato guerra all’Iran ignorando il Parlamento e comportandosi come un attore privato fuori controllo. Nello stesso momento, un’azienda privata decide da sola il perimetro della sicurezza digitale globale e impone al Pentagono regole etiche che nessun politico aveva mai votato.
Ecco il corto circuito della democrazia, dove la decisione – e dunque il potere – è diventata più veloce della legge. Sembra a tutti gli effetti un far west digitale: la legittimità non appartiene più a chi ha la stella dello sceriffo, ma a chi estrae per primo la pistola.
Chi decide oggi sulle questioni che contano?
E cosa si sta decidendo davvero, una guerra o un nuovo sistema di potere?

Decisioni veloci come farfalle
7 aprile 2026, Anthropic annuncia il Progetto Glasswing: un’intelligenza artificiale capace di scovare i punti deboli di quasi tutti i computer del pianeta. È una scoperta che mette a nudo la sicurezza delle nazioni e così, di fronte a un rischio strutturale, l’azienda ha deciso di condividere questa tecnologia con un consorzio di quaranta compagnie, tra cui anche suoi competitor, pur di fare in fretta. La finestra temporale tra “lo abbiamo noi” e “lo avrà qualcuno con meno scrupoli” si misura in settimane e dunque passare dal Congresso significa annullare questo vantaggio (mentre la politica sarebbe stata a discutere, i nemici avrebbero già trovato le stesse falle). Anthropic ha scelto di agire da sola per blindare i sistemi, prima che fosse troppo tardi. Anche se nessuno ha eletto Anthropic.
La cosa non è del tutto inedita. Già nel Settecento, la Compagnia delle Indie Orientali operava in un vuoto temporale: ci volevano mesi affinché una nave portasse un ordine da Londra a Calcutta. Quel ritardo costringeva l’azienda a decidere da sola della guerra e della pace, amministrando territori e trattati mentre il Parlamento britannico, lontano e lento, si limitava a ratificare il fatto compiuto. Invece che dalla distanza geografica, oggi il vuoto è creato dalla velocità tecnologica, e il territorio da amministrare è una rete invisibile che supera i confini e si infila nelle vite di ogni cittadino del mondo.
Una delle conseguenze, secondo diversi studiosi, è lo Stato-nazione in declino strutturale perché inadeguato rispetto alla velocità e alla scala dei fenomeni che dovrebbe governare. Così, mentre lo Stato rallenta, il potere si sposta.

Iran: il beta-test del nuovo potere
28 febbraio 2026: scatta l’Operation Epic Fury. In sole ventiquattro ore, Stati Uniti e Israele colpiscono oltre mille obiettivi in Iran, il Leader Supremo Ali Khamenei viene eliminato insieme a quasi tutti i vertici del regime, dai ministri ai generali dei Pasdaran. Una cosa mai vista prima, resa possibile da un’intelligenza artificiale che per mesi ha spiato e mappato ogni movimento dei capi iraniani. Sulla carta, la scomparsa improvvisa di una dittatura (peraltro così odiata al suo interno) avrebbe dovuto far crollare il Paese. Ma non è andata così: l’esordio dei droni autonomi LUCAS ha dimostrato che si può radere al suolo un potere senza avere idea di come sostituirlo. Dunque, la tecnologia ha funzionato, la politica no.
Ma perché un attacco simile, ignorando tutti, alleati europei, ONU, NATO, paesi Arabi e infine anche le obiezioni del Papa? Se lo leggiamo come una mossa diplomatica degli Stati Uniti, è un disastro: inflazione, crisi energetica oltre che diplomatica, una base politica interna MAGA allergica alle Forever Wars. Ma se cambiamo prospettiva, tutto torna: per chi sta dietro Trump, l’obiettivo non era il cambio di regime in Iran, ma il collaudo della tecnologia sul campo. L’Iran non era il nemico, era il laboratorio.
Il 24 marzo 2026, al Hill and Valley Forum di Washington, tutto questo è evidente. Il Forum è il luogo dove la Silicon Valley sussurra all’orecchio del Pentagono: co-fondato da Jacob Helberg, oggi sottosegretario di Stato ma fino a ieri uomo chiave di Palantir (la società di analisi dati e tecnologia militare fondata da Peter Thiel). Qui, Shyam Sankar di Palantir definisce l’intervento in Iran «l’esercitazione definitiva». La realtà usata come campo prove su un avversario asimmetrico e senza atomica, in attesa dello scontro che conta davvero: quello con la Cina.
Il sistema Maven di Palantir sceglie i bersagli e redige in automatico le giustificazioni legali per ogni esecuzione: così la guerra diventa più veloce e anche insindacabile.
Ricordiamoci del 1945.
Allora, chi possedeva l’arma atomica riscriveva le regole del mondo, solo che quel potere apparteneva a uno Stato. Oggi, l’arma assoluta è nelle mani di soggetti e aziende private.

Palantir contro Anthropic
E se in Iran non si decidesse quale nazione vincerà, ma quale potere privato comanderà il mondo?
Da un lato c’è la logica suprematista di Palantir e Anduril in cui la tecnologia è un’arma di dominio e la guerra è il suo acceleratore. Lo Stato, le elezioni, il Parlamento resta, ma le decisioni che contano vengono prese altrove, più velocemente e senza voto (quello che il filosofo Carl Schmitt nel ‘900 definiva “lo Stato d’eccezione”). Thiel ha scritto esplicitamente che libertà e democrazia sono incompatibili, la competizione uno spreco e il monopolio la forma naturale ed efficiente del potere. Nella sua visione, una élite tecnica è strutturalmente più adatta a prendere decisioni difficili di qualsiasi assemblea elettiva. Secondo questa logica, la guerra è dunque un mercato vantaggioso e al tempo stesso la prova che seleziona chi merita di comandare.
Dall’altro lato c’è la logica di Anthropic: il potere privato come responsabilità globale, esercitata con vincoli autoimposti. L’idea è quella di incorporare l’etica direttamente nel codice, prima dell’uso, perché a valle non c’è più tempo per nessuna supervisione reale. Se lo Stato non riesce a garantire questi vincoli, deve farlo chi scrive il software. Se le armi autonome si rivelano incontrollabili, è necessaria una governance multilaterale tra attori privati con capacità decisive, regole negoziate e meccanismi di accountability. Ma anche qui: chi decide quali vincoli incorporare nel codice? Anthropic lo ha fatto da sola, senza mandato. Probabilmente aveva ragione, ma il problema della legittimità resta aperto.
I due scenari sembrano opposti, tuttavia, come ha scritto uno dei principali think tank mondiali di politica internazionale, ‘le decisioni più importanti su come i sistemi di intelligenza artificiale possono e non possono essere utilizzati non vengono prese nei Parlamenti e nei forum internazionali, ma nelle negoziazioni contrattuali.’
In entrambi i modelli, chi decide è un soggetto privato non eletto. La differenza va però oltre le intenzioni: è una differenza di architettura. Da un lato un sistema che concentra il potere senza controllo esterno, dall’altro uno che prova a distribuirlo attraverso vincoli condivisi: imperfetti, lontani dalla democrazia classica, ma strutturalmente diversi dal monopolio. È una distinzione che conta, anche se nessuno dei due modelli passa dal voto.

Il rovesciamento di ruoli
Uno Stato che si comporta come attore privato e una azienda che si comporta eticamente.
28 febbraio 2026: lo scontro diventa concreto. Dario Amodei, CEO di Anthropic, si rifiuta di rimuovere i vincoli etici dal suo software Claude. Il Pentagono vuole usarlo senza limitazioni per operazioni letali autonome e sorveglianza di massa. Amodei dice no su entrambi i punti: la sorveglianza di massa è ‘incompatibile con i valori democratici’ e le armi autonome usano modelli ‘semplicemente non abbastanza affidabili’. Le vittime civili di Minab, quello stesso giorno, sono la prova tecnica che ha ragione.
La risposta del governo è paradossale. Il responsabile tecnologico del Dipartimento della Guerra accusa Anthropic: ‘Non si può permettere a una singola azienda di dettare nuove politiche al di là di quanto approvato dal Congresso. Questo non è democratico’. Ma a dirlo è quello stesso governo che ha dichiarato guerra all’Iran senza passare per il Congresso e che ha messo Anthropic in lista nera con un post su X, ordinando alle agenzie federali di smettere di usarla. Nessun voto, nessuna legge, nessun Congresso.
Da una parte, lo Stato che accusa un’azienda di bypassare la democrazia mentre la bypassa sistematicamente lui stesso, dall’altro un’azienda cerca di agire con la responsabilità di una Istituzione.
Glasswing racconta l’altra faccia della stessa contraddizione: un’azienda che agisce con una decisione responsabile ed etica, ma senza alcun mandato democratico o autorizzazione del Parlamento. In entrambi i casi, la velocità ha escluso la deliberazione.
Qualsiasi sistema di governo che richieda discussione tra più attori sembra, di fatto, incompatibile con la velocità a cui queste capacità si dispiegano.

Il terzo modello: dove il dilemma non esiste
C’è un caso in cui questa contraddizione non si pone: la Cina. La loro Civil-military fusion è un’architettura di incentivi che rende irrilevante la distinzione tra Stato e privato. In Cina, il conflitto tra etica aziendale e comando statale viene rimosso alla radice. Questo perché lo Stato ha costruito un sistema in cui la collaborazione con la difesa (sussidi, accesso a dati nazionali, benefici reputazionali) diventa la traiettoria naturale di ogni azienda di successo in un settore strategico.
I laboratori cinesi pubblicano i propri modelli in open source, così ogni azienda migliora il lavoro delle altre senza ripartire da zero. Inoltre, l’AI integrata nelle fabbriche genera dati industriali reali che rendono i modelli sempre più precisi. Ovviamente, tutto questo non significa assenza totale di conflitti interni (vedi il caso Jack Ma nel 2020), ma quei conflitti si risolvono senza produrre lo stallo pubblico e legale che ha paralizzato il rapporto tra Anthropic e il Pentagono.
Il problema della velocità, quell’incompatibilità tra decisione rapida e discussione democratica che vediamo in Usa, in Cina non esiste perché il sistema è costruito per decidere veloce, senza dover passare per nessuna Casa Bianca né Parlamento.
Dunque, la competizione è asimmetrica: Palantir e Anthropic devono negoziare in qualche modo la propria legittimità con una democrazia che rallenta. La Cina ha risolto il problema cancellando la negoziazione.

Nani sulle spalle dei giganti
“Entrambe le coste pensano di avere il controllo” ha detto pochi giorni fa Nand Mulchandani, ex responsabile tecnologico della CIA. “La Silicon Valley ora ha un potere paragonabile a quello di un governo. Quello a cui stiamo assistendo è la prima grande battaglia per chi comanda.”
Prima o poi, la guerra in Iran finirà, ma il potere che l’ha resa possibile, e che la sta usando come laboratorio, le sopravviverà.
Quello che si decide oggi è quale delle tre forme di potere – il monopolio suprematista, la governance tra privati o la fusione Stato-privato – diventerà il modello mondiale.
Tutte e tre hanno in comune una cosa: nessuna passa dal voto.
Le rivoluzioni tecnologiche hanno sempre preceduto le istituzioni politiche che le governano. La rivoluzione industriale ha impiegato un secolo a produrre il diritto del lavoro, la previdenza sociale, la regolazione dei monopoli. Nel frattempo, milioni di persone hanno vissuto in un vuoto di tutele. Prima o poi arriveranno istituzioni adeguate a governare l’AI, ma quanto tempo ci vorrà, e chi pagherà il prezzo del vuoto nel frattempo?
C’è un soggetto che potrebbe riempire quel vuoto, le democrazie liberali: uno spazio politico che ha ancora interesse a porre la domanda sulla legittimità democratica del potere tecnologico. Popoli e governi di latitudini diverse, accomunate da forti principi democratici, si stanno rendendo conto però che la velocità delle nuove tecnologie ha reso obsoleto il modello della regolamentazione a posteriori: le leggi arrivano sempre dopo i fatti, quando le strutture di potere si sono già consolidate.
La risposta non può essere rallentare la tecnologia (cosa comunque impossibile e probabilmente indesiderabile), ma spostare la domanda etica a monte, nel momento in cui i sistemi vengono progettati, prima che vengano dispiegati.
È quello che i filosofi chiamano ‘value-sensitive design‘: l’idea che i valori non si aggiungano ai sistemi tecnologici come optional, ma vi siano incorporati fin dall’architettura.
Di fatto è la soluzione di Anthropic. Solo che Amodei lo ha fatto da solo, con i propri valori, senza mandato. Affidare la scelta dei valori incorporati nel codice a soggetti privati significa lasciare che siano loro a decidere quale idea di bene comune verrà scritta nei sistemi che governeranno il mondo.
Le democrazie liberali possono invece agire in modo che quei valori vengano decisi collettivamente, con un mandato democratico, prima che la tecnologia li renda irreversibili.
Siamo nani sulle spalle dei giganti, diceva Bernardo di Chartres nel XII secolo: vediamo più lontano perché ci reggiamo sul sapere di chi ci ha preceduto.
Le democrazie liberali sono nane, oggi, rispetto ai giganti tecnologici che si contendono il futuro, e lo saranno ancora di più quando l’intelligenza artificiale raggiungerà capacità cognitive superiori alle nostre. Ma portano con sé secoli di elaborazione sul potere, sul consenso, sui limiti dell’autorità.
Un patrimonio che consente di porre la domanda: chi decide quali valori vengono scritti nei sistemi che governeranno il mondo? Chi ha il diritto di decidere per tutti?
Fonti
Progetto Glasswing / Mythos Preview
- Annuncio Tecnico Ufficiale (Anthropic): Mythos Preview – red.anthropic.com
- Pagina Principale Progetto: Glasswing – anthropic.com
- Analisi Thomas L. Friedman (NYT): Anthropic’s Restraint Is a Terrifying Warning Sign
Anthropic vs. Pentagono (Controversie e Designazioni)
- Designazione Supply Chain Risk: CBS News – Hegseth declares Anthropic risk
- Risposta di Dario Amodei: CNN – Pentagon-Anthropic supply chain dispute
- Analisi Giuridica (Prima azienda USA designata): CNBC – Anthropic court ruling
- Dichiarazioni Emil Michael (“Rubicone”): DefenseScoop – Pentagon CTO urges Anthropic to cross Rubicon
- Report Governance: Chatham House – Anthropic-Pentagon dispute limits
- Nand Mulchandani (Axios/HumanX): Silicon Valley power vs Washington
Operation Epic Fury (Conflitto in Iran e AI)
- Analisi Guerra Algoritmica: HSToday – Algorithmic warfare in Iran
- Dichiarazioni CENTCOM (Adm. Cooper): DefenseScoop – US military using AI against Iran
- Report Operativo Completo: MP-IDSA – Absolute Resolve and Epic Fury
Hill & Valley Forum 2026
- Annuncio Ufficiale e Speaker: PR Newswire – Hill & Valley Forum 2026
- Critica e Analisi Politica: Responsible Statecraft – Nick Cleveland-Stout
- Report Bloomberg: Silicon Valley’s DC Summit shadowed by AI concerns
- Lezioni Post-Evento: Inc. Magazine – Navigating chaos
Cina e Fusione Civile-Militare
- Report Strategico CSET: Georgetown CSET – Pulling Back the Curtain
- Intelligence e Supporto all’Iran: Washington Post – China AI military intelligence Iran war
- Monitoraggio Economico/Sicurezza: US-China Economic and Security Review Commission (USCC)
Crisi degli Stati nazionali
- Rana Dasgupta, La crisi degli stati nazionali – Oltre il ponte
- Parag Khanna, The End of the Nation-State?
Value-Sensitive Design

