SLOP o SHI Due futuri per l’Intelligenza Artificiale

In questi giorni il New York Times ha provato Sora, mentre in UK una presentatrice creata con l’AI ha condotto per la prima volta un intero programma.
La Cina intanto mette uno stop agli influencer senza titoli: chi tratta argomenti sensibili (medicina, diritto, finanza) deve certificare le proprie qualifiche.

 

SLOP o SHI
Due futuri per l’Intelligenza Artificiale

 

Stiamo per essere sepolti da una valanga di fake così profonda da creare un’intera realtà alternativa.

La verità sta annegando.
L’Occidente urla all’apocalisse. E’ la via dello SLOP.

SLOP letteralmente: “brodaglia”, “poltiglia”, “roba scadente buttata lì”. Nel contesto AI: contenuto generato dall’AI di bassa qualità che inquina l’ecosistema informativo.

La Cina chiede: “Quale apocalisse?”.
La via dello SHI è la propensione delle cose, la configurazione favorevole, l’arte di cavalcare il flusso invece di annegare.

勢 SHÌ – la propensione delle cose, la configurazione favorevole del momento, il potenziale latente di una situazione.

Laddove l’Occidente chiede “cos’è vero?”,
la Cina chiede: “cos’è efficace? Cosa genera trasformazione?”.

 

 

A cosa serve esattamente Sora Slop?

Bobbie Johnson sul New York Times ha provato Sora, l’ultima app di OpenAI che genera video fake con la stessa facilità con cui respiriamo. Feed infiniti di allucinazioni digitali: un capibara umanoide che gioca a calcio, un gatto spazzato via da un tornado, poi una mucca, dalla stessa veranda, nello stesso tornado… Martin Luther King che pronuncia frasi mai dette “I have a dream that they release the Epstein files”.

Sam Altman l’ha chiamata “il più potente motore di immaginazione mai costruito“.

Dovrebbe diventare un social vero e proprio, in cui scorri solo video prodotti da utenti grazie all’AI.

“Un martello pneumatico che demolisce la barriera tra reale e irreale” scrive Johnson. Sora è uno spettacolo di marionette spettrali, un luna park vuoto dove anche quando c’è interazione umana, è inquietante: il tuo avatar fake collabora con gli altri avatar fake.
Tutto è finzione, ogni pixel, ogni suono.
E il peggio?
Siamo solo all’inizio.

 

Stiamo per essere sepolti sotto una valanga di fake così profonda da creare un’intera realtà alternativa.

Il web è già sommerso di “slop”, contenuto generato dall’AI che inquina i motori di ricerca, erode la fiducia. ChatGPT ingurgita miliardi di parole e le rigurgita in forme che simulano perfettamente ogni cosa.
Ma Sora sembra andare oltre: video realistici creati digitando poche parole, video fake di proteste violente, attentati, politici che dicono cose mai pronunciate. Propagandisti e autoritari che manipolano la realtà semplicemente scrivendo istruzioni in una casella di testo.
OpenAI dice di aver messo “guardrail”, dei watermark visibili e controlli per bloccare contenuti offensivi. Ma nei primi giorni di Sora, i video di Hitler erano già ovunque, o meglio, approssimazioni create con prompt tipo “mostra Charlie Chaplin in uniforme militare tedesca”.
Gli strumenti per rimuovere i watermark esistono già. I video si diffondono su altre piattaforme senza attribuzione.

Certo, la storia è piena di copie e contraffazioni.
Le statue romane erano imitazioni delle originali greche, e tutti lo sapevano, lo accettavano.
Quando i libri di Mark Twain venivano piratati in tutta Europa nell’Ottocento, lui spinse per creare le prime leggi internazionali sul copyright.
Quando Napster minacciava di uccidere l’industria musicale con la pirateria digitale, Steve Jobs convinse le case discografiche che iTunes (musica legale a 99 cent) era meglio del caos.
Ogni volta, l’umanità ha trovato un equilibrio: leggi, convenzioni, mercati.

Ma questa volta?
L’alfabetizzazione mediatica fatica di fronte a cambiamenti così rapidi.
Il mercato è sedotto dalla promessa di profitti futuri tramite AI.
I governi oscillano tra corteggiare le Big Tech (Usa) e affogare l’innovazione in regolamenti (Europa).
Lo scopo di Sora, intenzionale o no, sembra essere realizzare l’incubo di molti: sommergere gli utenti di contenuti fake al punto che non avranno più scelta se non assumere che tutto sia falso.
Johnson conclude con un gesto.
Un pop-up gli chiede: “Come ha influito Sora sul tuo umore?”.
Pollice giù.
E cancella l’app dal telefono.

Apocalisse o rivoluzione?

Johnson ha ragione ad essere terrorizzato, ma sta guardando nella direzione sbagliata. Non è un’apocalisse, è qualcosa di molto più profondo: una maggiore complessità, una sovrapposizione di stati.
Tre logiche che ora devono coesistere: oralità (il flusso), scrittura (la verità), digitale (l’efficacia).

Pierre Lévy lo aveva capito oltre trent’anni fa. Il filosofo francese scrive Le tecnologie dell’intelligenza nel ’90, e annuncia il declino della verità, dell’oggettività e della critica. O almeno la fine di un particolare regime di verità.
E l’emergere di qualcosa che non avevamo mai smesso di essere. Perché la verità come “corrispondenza oggettiva” non è una condizione naturale della conoscenza umana. È un effetto della scrittura.
Dunque ci ritroviamo con tre poli, sempre compresenti, ma con intensità variabile:

  • Oralità primaria: la verità è ciò che può essere memorizzato, ripetuto, ritualizzato. La conoscenza vive nei corpi, nelle comunità, nei canti. Non esiste “fuori dal contesto”
  • Scrittura: la verità diventa corrispondenza, universalità, oggettività. Nasce la scienza moderna. Il diritto codificato. Il giornalismo come “cronaca dei fatti”. La conoscenza può essere disgiunta dall’identità delle persone. Esiste “fuori tempo e fuori luogo”
  • Informatica/digitale: la verità diventa efficacia, pertinenza, operatività

 

Più che trovarci di fronte al “collasso” della verità, stiamo assistendo allo spostamento del centro di gravità dalla “verità come contemplazione” all’ “efficacia come operazione”. Tuttavia, il regime della scrittura, vitale per la scienza e le istituzioni, non scompare, ma richiede nuovi presidi. Non una catastrofe quindi, ma un’occasione storica per riconoscere finalmente che quello che chiamavamo “verità oggettiva” era solo una configurazione particolare dell’ecologia cognitiva umana. Una tappa quindi, non il suo destino finale.

Il sapere che vuole funzionare

“Il sapere informatizzato cerca la velocità e la pertinenza dell’esecuzione, e più ancora la rapidità e l’adeguatezza del cambiamento operativo” – Pierre Lévy.

Trent’anni dopo, ChatGPT e Sora sono l’intensificazione estrema di quella mutazione antropologica già in corso. Sono il suo sintomo più visibile, non la causa.
Cosa fa un LLM quando gli chiedi di scrivere un contratto, una mail, un articolo?
Genera il testo più pertinente dato il contesto, il più efficace per l’operazione richiesta, non “cerca la verità”.
Non chiediamo “è vero?” Chiediamo: “Funziona? È utile? È abbastanza convincente?”.

E questo vale per i testi molto più che per i video.

Perché immagini e video hanno sempre avuto uno status referenziale ambiguo. Oscillano tra documento e simulazione. Sapevamo che le foto potevano essere messe in scena, i quadri manipolati, i film montati. Le immagini sono polisemiche per natura: puoi leggerle in modi diversi senza “errore”.

I testi invece? I testi hanno beneficiato di istituzioni (diritto, scienza, giornalismo) che ne hanno stabilizzato il legame con la verità. Il testo scritto era l’ultimo bastione, l’ultima trincea della “norma di verità”. Un testo tende a chiudere maggiormente il significato.
Quando è letterario/artistico, infatti, dobbiamo far entrare in gioco la sospensione dell’incredulità.
Ed è per questo che il collasso del testo è più drammatico, perché più tardivo. L’AI testuale non è “più pericolosa” dei deepfake. È più traumatica perché colpisce l’ultimo spazio in cui ancora credevamo alla verità-come-corrispondenza. I testi stavano ancora resistendo. E ora cedono.

La domanda sbagliata 

“Come fermiamo questo diluvio di fake?”.
È la domanda di chi vive ancora nel regime della scrittura. Di chi pensa che esista una “verità oggettiva” da proteggere contro l'”apocalisse della simulazione”.
Lévy ci direbbe: la domanda è sbagliata.
Non si tratta di fermare o proteggere, ma di riconoscere che i tre poli (oralità, scrittura, informatica/digitale) non sono ere che si susseguono linearmente, ma convivono. Sono configurazioni dell’ecologia cognitiva.
Il polo della scrittura non scompare, solo si ridimensiona; ed emergono nuove forme di sapere, nuove prassi, nuovi criteri.

La vera domanda dunque è politica, non riguarda la verità.

Come scrive Lévy:

“Una filosofia politica degna di questo nome non può accontentarsi di analizzare e sezionare una situazione senza assumersi il rischio di indicare una via di uscita adeguata” (L’intelligence collective)

Quindi, non “come distinguiamo il vero dal falso?”, ma “pertinente per chi?“.
Non “come proteggiamo la verità?”, ma “come organizziamo l’intelligenza collettiva in un regime dove la simulazione è ormai costitutiva?“.

Perché Trump non “usa” i video generati dall’AI.
Trump incarna il nuovo paradigma conoscitivo.

Verità e Rappresentazione oppure Dào e Shì?

C’è un altro modo di guardare a tutto questo. Un modo che non ha mai avuto bisogno di “collassare”.
François Jullien, filosofo e sinologo francese, ha passato decenni a decifrare lo scarto tra pensiero cinese e pensiero occidentale. E ha scoperto qualcosa di illuminante: la Cina non ha mai creduto alla verità come corrispondenza oggettiva.
Dove l’Occidente chiede “cos’è vero?”, la tradizione cinese chiede: “cosa funziona? Cosa genera trasformazione?”.

Non c’è una Realtà-sostanza da catturare con la rappresentazione corretta.
C’è un processo continuo (道, dào) in cui l’efficacia emerge dalla capacità di assecondare le propensioni delle cose (勢, shì), di cavalcare il flusso invece di opporvisi.

Il pensiero strategico cinese non cerca di “rappresentare correttamente il mondo” per poi agire. Cerca di intervenire nel processo per farlo evolvere nella direzione desiderata. Efficacia, prima che verità. Operazione, più che contemplazione: percepire il dào (cogliere il movimento del processo), individuare lo shì (trovare la propensione favorevole), assecondare (agire in sintonia, senza forzare).
Ovviamente non si tratta di essenze culturali immutabili, ma di configurazioni storicamente sedimentate e sempre in movimento.

A questo penso quando Levy descrive il regime di conoscenza dell’informatica.
La Cina non ha mai avuto bisogno di un “collasso del paradigma della verità” perché non ha mai abitato pienamente il regime della scrittura-verità occidentale.
Per secoli, mentre l’Occidente costruiva l’edificio della “verità oggettiva”, la Cina praticava già una forma di sapere orientata all’efficacia contestuale, alla pertinenza operativa.
Forse è per questo che la Cina sembra muoversi con meno traumi nell’era dell’AI. Non perché sia “più avanti”, ma perché non è mai stata dove noi pensavamo fosse il punto di arrivo.

Questo significa rinunciare alla verità? 

Invece che rinunciare alla verità, dovremmo smettere di pensarla al singolare.
La verità non è mai stata una. È sempre stata funzionalmente differenziata, ogni sistema sociale svilupperà criteri di pertinenza specifici per valutare le simulazioni.
Piuttosto che una sola Verità da difendere con watermark e guardrail, la soluzione ingenua di OpenAI, il cerotto su una ferita mal compresa, costruiamo meccanismi di tracciabilità certificata e consorzi indipendenti per la validazione. Da progettare politicamente, con consapevolezza e coraggio.

Lévy aveva già indicato la direzione: intelligenza collettiva come progetto consapevole, la cosmopedia come dispositivo per organizzare la fiducia epistemica, gli alberi della conoscenza come sistemi di validazione distribuita…
Decenni dopo, quelle intuizioni sono ancora più urgenti. E ancora ampiamente ignorate.

Verità, flusso, pratica, pertinenza ed efficacia contestuale

Johnson conclude cancellando Sora dal telefono.
Un gesto di impotenza mascherato da purezza.
“Ho risposto l’unica cosa sensata,” scrive.
Ma il punto è che non ha risposto nulla.
Cancellare l’app non salverà nessuno.
Il problema non è Sora. Non è ChatGPT. Non è l’AI.

Il problema è che continuiamo a cercare “la verità” in un regime epistemologico che l’ha già sostituita con “l’efficacia”.
E finché non affrontiamo questa mutazione come progetto politico collettivo, finché non ci assumiamo il rischio, come dice Lévy, di indicare una via d’uscita adeguata, continueremo a urlare all’apocalisse mentre il mondo cambia forma sotto i nostri piedi.

La verità non sta morendo, sta solo tornando a casa: nel flusso, nella pratica, nella pertinenza contestuale, dove è sempre stata prima che la scrittura ci convincesse,  per qualche secolo, che potesse esistere “fuori tempo e fuori luogo”.

La domanda finale, quella che conta è: quale intelligenza collettiva stiamo costruendo? E per chi è pertinente?

François Jullien ci ricorda

“Il pensiero cinese non pensa l’essere, pensa il processo. Non pensa la verità, pensa la trasformazione”.

 

SLOP o SHI.
Brodaglia o propensione.
Apocalisse o sovrapposizione.

Questa divisione, questo pensiero binario non va bene, non si tratta di scegliere, ma di tenere insieme.
Come in una sovrapposizione quantistica, oralità, scrittura, digitale coesistono, simultaneamente.

Ultimi articoli