La rivoluzione digitale sta ridefinendo anche la guerra, con implicazioni etiche, strategiche e geopolitiche di portata storica.
Stiamo delegando alla macchina la decisione di uccidere un essere umano, tanti esseri umani. Senza nemmeno saperlo, tanto meno deciderlo.
Droni e Tabù infranto
Quando la AI decide di uccidere
La Guerra come Laboratorio Tecnologico
Il conflitto ucraino è il più avanzato campo di sperimentazione di tecnologie di guerra digitali nella storia contemporanea: droni economici che neutralizzano equipaggiamenti militari convenzionali molto più costose; tecnologie commerciali per applicazioni militari; capacità belliche avanzate alla portata di attori non-statali; droni autonomi senza necessità di connessione continua.
Anche il senatore americano Mark Kelly (ex astronauta e ex Capitano della Marina Usa) in un recente post polemico contro Trump e a sostegno degli ucraini, ammette quanto queste innovazioni belliche sono considerate preziose per gli USA:
Ho incontrato piloti ucraini (…) stanno volando in difficili missioni di combattimento contro i russi, protetti da un considerevole sistema di difesa di guerra elettronica e missili terra-aria. Hanno imparato molto, stanno migliorando e riscuotendo sempre più successo (…) Ho visto da vicino l’innovazione e lo spirito combattivo degli ucraini (…) Ora hanno una base industriale di difesa che dovremmo invidiare e da cui possiamo imparare. Hanno un ciclo di innovazione misurato in giorni, mentre il nostro è di anni. Dovremmo imparare da esso, non rallentarlo.
L’Automazione dell’Uccidere: Il Tabù Infranto
Mentre discutiamo dell’etica degli algoritmi nelle decisioni quotidiane, c’è un passaggio epocale che sta avvenendo silenziosamente. L’integrazione tra AI e sistemi sensoriali avanzati rappresenta un salto qualitativo fondamentale, un cambio di paradigma decisionale nel campo delle armi autonome (LAWS), un punto di svolta nella storia dell’umanità.
Macchine progettate per uccidere senza intervento umano diretto.
Etica Ma la decisione di togliere una vita non dovrebbe essere intrinsecamente umana, richiedere un giudizio morale?
Affidarla a un algoritmo, deresponsabilizzare l’atto di uccidere, cosa fa di noi?
Responsabilità E chi risponderà per errori o crimini di guerra commessi da sistemi autonomi? Il programmatore, il comandante militare o il produttore?
DignitàUmana L’AI sarà in grado di valutare proporzionalità e discriminazione tra soldati e civili?
La morte determinata da un processo computazionale rappresenta una depersonalizzazione senza precedenti dell’atto di uccidere
Il principio del “controllo umano significativo”
Stiamo oltrepassando il tabù sulle armi completamente autonome in modo silenzioso e senza dibattito pubblico.
Quello su cui (nemmeno tanto) stanno discutendo nelle alte sfere è il principio del “meaningful human control” – il mantenimento di un controllo umano significativo sull’uso della forza. Una specie di linea di demarcazione tra l’uso di tecnologia come strumento e la completa delega decisionale. Un confine molto sottile. Sempre più sottile.
C’è un movimento Stop Killer Robots (oltre 180 ONG da 60 paesi) che lavora per prevenire lo sviluppo di armi completamente autonome. Propongono restrizioni significative, a cui Parlamento Europeo e Segretario Generale dell’ONU sono favorevoli.
Ma alcuni paesi non vogliono vincoli: lo sviluppo tecnologico procede più rapidamente del processo diplomatico, e pretendono di avere le mani libere. Anche per questo vogliono mani libere sulle guerre, fonti primarie di dati e sperimentazioni sul campo per l’evoluzione tecnologica, non solo militare.
Droni e Tabù infranto Quando la AI decide di uccidere
Ma è possibile che una cosa del genere resti fuori dal dibattito della società civile, dell’umanità intera? Davvero accettiamo di delegare tutto alle Nazioni? E che poi di fatto solo alcune, e pochi dei loro capi decidono?
La società umana deve scegliere se è pronta ad accettare che decisioni letali possano essere delegate a sistemi artificiali.
Se lasciamo che avvenga automaticamente, e senza nemmeno averlo deciso, cosa resta dell’essere umano?
La rivoluzione digitale militare non è solo tecnologica ma profondamente antropologica. La delega algoritmica di decisioni letali rappresenta forse la trasformazione più significativa e meno discussa della nostra epoca.
Alfabetizzare i cittadini sulla rivoluzione digitale significa anche questo: fornire strumenti per riflettere, ragionare e decidere collettivamente sul nostro futuro e su ciò che vogliamo essere come specie.
La società civile globale deve riappropriarsi di questo dibattito prima che venga definito esclusivamente dalle esigenze geopolitiche e militari delle potenze tecnologiche dominanti.
Il 22 dicembre 2023, 152 paesi hanno votato a favore della risoluzione dell’Assemblea generale sui pericoli dei sistemi di armi autonome letali, mentre quattro hanno votato contro e 11 si sono astenuti. Risoluzione dell’Assemblea generale 78/241
Contrari Bielorussia, India, Mali, Russia
Astenuti Cina, Corea del nord, Iran, Israele, Madagascar, Niger, Arabia Saudita, Sud Sudan, Siria, Turchia, Emirati arabi