“Artificial intelligence is poised to transform warfare, not by replacing humans, but by compressing decision time” Paul Scharre

L’evoluzione tecnologica ha sempre scandito i ritmi della storia militare, ma l’avvento dell’Intelligenza Artificiale (IA) sta segnando un cambiamento di paradigma che va oltre l’introduzione di una nuova arma. Non si tratta semplicemente di potenziare l’arsenale, bensì di ridefinire il modo stesso in cui si pianifica, si decide e si combatte.
Con la cosiddetta ‘algorithmic warfare’, la competizione strategica si sposta dalla forza d’urto alla velocità di elaborazione, dalla superiorità numerica al dominio dei dati. L’IA sta diventando il vero ‘sistema nervoso’ degli eserciti moderni, coordinando droni, intelligence e logistica in tempo reale e trasformando l’informazione in vantaggio operativo.
In questo articolo propongo un breve viaggio tra storia, tecnologia e geopolitica per comprendere come gli algoritmi stiano ridisegnando la gerarchia del potere globale e perché il futuro della sicurezza internazionale dipenda sempre più da una riga di codice.
Genesi storica: dalla crittoanalisi ai sistemi esperti
“Machines take me by surprise with great frequency” Alan Turing
L’intersezione tra calcolo automatico e difesa nasce da una necessità molto concreta: processare informazioni a una velocità superiore a quella umana. Già durante la Seconda guerra mondiale, la superiorità militare dipendeva sempre più dalla capacità di leggere, interpretare e anticipare i segnali dell’avversario. In questo contesto emerge una figura chiave, Alan Turing, e un luogo simbolo dell’intelligenza applicata alla guerra: Bletchley Park. La macchina Bombe, progettata per decifrare il codice Enigma utilizzato dalla Germania nazista, può essere considerata il primo vero antenato dell’IA militare. Non si trattava ancora di un sistema ‘intelligente’ nel senso moderno del termine, ma l’obiettivo era già chiaramente algoritmico: automatizzare la ricerca di configurazioni logiche possibili, riducendo drasticamente il tempo necessario per individuare la chiave corretta. Per la prima volta, una macchina non si limitava a eseguire calcoli aritmetici, ma esplorava sistematicamente uno spazio di possibilità per risolvere un problema strategico.
Con la Guerra Fredda, il legame tra informatica e difesa si fece strutturale. La minaccia di un attacco nucleare improvviso impose agli Stati Uniti di dotarsi di sistemi capaci di reagire in pochi minuti. Il progetto SAGE (Semi-Automatic Ground Environment) rappresentò un salto qualitativo: una rete di difesa aerea computerizzata in grado di integrare dati radar provenienti da diverse postazioni, elaborarli in tempo reale e suggerire intercettazioni ai piloti. Per la prima volta, il computer entrava stabilmente nel ciclo decisionale militare. Non decideva autonomamente, ma filtrava, organizzava e interpretava enormi quantità di dati, anticipando ciò che oggi i data scientist definirebbero sistemi di ‘pattern recognition’. L’idea che la macchina potesse riconoscere schemi — distinguere un bombardiere da un falso segnale radar, per esempio— segnava un passaggio cruciale: dall’automazione del calcolo all’automazione dell’interpretazione.
Negli anni Novanta, durante la Guerra del Golfo, l’IA fece un ulteriore passo avanti con l’introduzione dei cosiddetti ‘sistemi esperti’. Basati su regole del tipo ‘IF-THEN’, questi software erano progettati per replicare il ragionamento di specialisti umani in ambiti circoscritti. Furono utilizzati per ottimizzare la logistica, pianificare i rifornimenti e assistere nel puntamento di precisione. Pur essendo sistemi rigidi, incapaci di apprendere autonomamente dall’esperienza, dimostrarono quanto fosse strategico tradurre la conoscenza umana in codice. La guerra diventava sempre più una questione di gestione dell’informazione: chi riusciva a integrare dati, regole e capacità di calcolo otteneva un vantaggio operativo decisivo.
Lo stato dell’arte: machine learning e superiorità informativa
“War has entered the age of algorithmic rationality” Antoine Bousquet
Oggi il baricentro tecnologico si è spostato dai sistemi a regole fisse al Machine Learning e, in particolare, al Deep Learning. La differenza è sostanziale: non si tratta più di programmare in anticipo ogni possibile scenario attraverso regole “IF-THEN”, ma di addestrare algoritmi capaci di apprendere autonomamente da enormi quantità di dati. In ambito militare, questo passaggio segna una trasformazione radicale. La difesa moderna non persegue soltanto la superiorità di fuoco, bensì quella che gli strateghi definiscono ‘superiorità informativa’: la capacità di raccogliere, elaborare e sfruttare dati più rapidamente dell’avversario, comprimendo il tempo tra osservazione e decisione.
Uno degli ambiti più rilevanti è l’ISR (Intelligence, Surveillance and Reconnaissance). Attraverso tecniche di computer vision, gli algoritmi analizzano in modo automatico flussi video provenienti da satelliti e droni, identificando movimenti sospetti, mezzi militari o variazioni nel terreno che potrebbero sfuggire all’occhio umano. In un contesto in cui ogni giorno vengono prodotti petabyte di immagini, l’IA non è un’opzione ma una necessità operativa: senza filtraggio automatico, l’informazione resterebbe inutilizzabile.
Nella guerra elettronica, il Machine Learning — e in particolare il cosiddetto Reinforcement Learning — consente ai sistemi di adattarsi dinamicamente alle contromisure nemiche. Gli algoritmi possono modificare in tempo reale frequenze, segnali e modalità di disturbo radar, trasformando lo spettro elettromagnetico in un campo di battaglia invisibile ma decisivo. Qui la velocità di adattamento è tutto: chi reagisce per primo domina.
Anche la logistica, spesso considerata un ambito secondario, è diventata terreno privilegiato per l’IA. L’analisi predittiva permette di anticipare guasti meccanici, ottimizzare catene di approvvigionamento e ridurre i tempi di fermo dei mezzi. In un conflitto prolungato, la capacità di mantenere operativi sistemi complessi può rivelarsi più strategica dell’impiego diretto delle armi.
Infine, nel dominio cibernetico, algoritmi di ‘anomaly detection’ monitorano reti militari alla ricerca di intrusioni o comportamenti anomali, rilevando attacchi in millisecondi. In questo contesto, l’IA non è solo uno strumento di difesa, ma una componente essenziale della resilienza infrastrutturale. La guerra, sempre più ibrida, si combatte anche — e forse soprattutto — nei circuiti invisibili del cyberspazio.
In tutti questi ambiti emerge un filo conduttore: l’IA non sostituisce necessariamente il decisore umano, ma ne accelera e ne orienta le scelte. Il vantaggio strategico non risiede più solo nella quantità di mezzi dispiegati, bensì nella capacità di integrare dati, algoritmi e decisione in un ciclo sempre più rapido. È qui che si gioca la nuova gerarchia del potere militare globale.
La corsa agli armamenti digitali: USA, Cina e Russia
“The future of military power will not be decided by who has the biggest army, but by who can integrate data and algorithms most effectively” Eric Schmidt
Il baricentro della sicurezza globale si sta progressivamente spostando dalla produzione di testate nucleari alla capacità di calcolo. Se durante la Guerra Fredda la deterrenza era misurata in megatoni, oggi sempre più spesso è misurata in potenza di elaborazione, qualità degli algoritmi e controllo dei dati. La corsa agli armamenti non è scomparsa: si è digitalizzata.
Negli Stati Uniti, la strategia ruota attorno all’integrazione sistemica. Programmi come ‘Joint All-Domain Command and Control’ (JADC2) mirano a connettere ogni sensore — terrestre, navale, aereo, spaziale e cibernetico — in un’unica architettura informativa. L’obiettivo non è soltanto raccogliere dati, ma fonderli in tempo reale attraverso sistemi di IA capaci di fornire al decisore un quadro operativo unificato. Washington insiste inoltre su un principio politico-strategico: “mantenere l’uomo nel loop”. La supervisione umana resta formalmente centrale, sia per ragioni etiche sia per preservare la responsabilità della decisione letale. In questa visione, l’IA è un moltiplicatore di capacità, non un sostituto del comando umano.
La Cina persegue invece un approccio più sistemico e di lungo periodo. Con il piano nazionale per l’Intelligenza Artificiale annunciato nel 2017, Pechino ha dichiarato l’ambizione di diventare leader globale nel settore entro il 2030. La strategia si fonda sulla cosiddetta ‘fusione civile-militare’: le innovazioni sviluppate nel settore privato vengono rapidamente integrate nella difesa. La vasta disponibilità di dati generati dalla popolazione e dall’ecosistema digitale cinese costituisce un vantaggio competitivo nell’addestramento degli algoritmi. In ambito militare, questo si traduce nello sviluppo di sistemi di sorveglianza avanzata e nello studio di sciami di droni autonomi capaci di operare anche in ambienti con comunicazioni degradate o assenti. L’obiettivo non è solo la superiorità informativa, ma una vera e propria ‘sovranità algoritmica’: ridurre la dipendenza tecnologica dall’esterno e controllare l’intera filiera, dai semiconduttori ai modelli di IA.
La Russia, disponendo di risorse tecnologiche molto più limitate rispetto a Washington e Pechino, ha scelto una strategia asimmetrica. Mosca investe nell’automazione dei sistemi terrestri — come veicoli corazzati senza equipaggio — e soprattutto nell’impiego dell’IA nella guerra dell’informazione e nelle operazioni ibride. In questo contesto, l’autonomia delle macchine viene vista anche come uno strumento per compensare vincoli strutturali, inclusi quelli demografici, economici e ovviamente tecnologici/scientifici appunto. Più che competere sulla scala industriale, la Russia punta a sfruttare l’IA per amplificare effetti psicologici, destabilizzare avversari e ridurre i costi umani delle operazioni militari.
Nel confronto tra queste tre potenze emergono modelli diversi di integrazione tra tecnologia e potere politico. Gli Stati Uniti privilegiano l’interoperabilità e la governance etica; la Cina punta su centralizzazione e pianificazione strategica; la Russia su flessibilità e uso asimmetrico. La competizione non riguarda soltanto chi possiede gli algoritmi migliori, ma chi riesce a inserirli più efficacemente nella propria dottrina militare e nella propria struttura statale.
La nuova corsa agli armamenti digitali non produce necessariamente arsenali visibili, ma architetture invisibili: reti, dataset, modelli predittivi. E come in ogni competizione strategica, il vantaggio non sarà determinato da un singolo sistema rivoluzionario, bensì dalla capacità di integrare tecnologia, industria e visione geopolitica.
Case Study: la rivoluzione dei droni nei conflitti recenti
“The drone revolution is not about the weapon, it’s about the information” Peter W. Singer
I conflitti recenti, dall’Ucraina al Medio Oriente, hanno mostrato come l’IA stia ‘democratizzando’ l’efficacia tattica, rendendo strumenti un tempo riservati alle grandi potenze accessibili anche ad attori meno tradizionali. Uno dei casi più eclatanti è rappresentato dai cosiddetti ‘loitering munitions’, o droni kamikaze. Droni come lo ‘Switchblade’ o lo ‘Shahed’ utilizzano algoritmi avanzati di riconoscimento del bersaglio che consentono loro di completare missioni anche in presenza di contromisure elettroniche, come il cosiddetto ‘jamming radio’. L’IA permette al drone di identificare autonomamente un obiettivo, correggere la traiettoria e colpire con precisione chirurgica, riducendo drasticamente l’errore umano.
La risposta a questa nuova minaccia è arrivata con i cosiddetti sistemi ‘C-UAS’, progettati per neutralizzare i piccoli droni. Torrette automatiche, integrate con algoritmi di puntamento millimetrico, sono in grado di rilevare, tracciare e abbattere i droni nemici più velocemente di quanto un operatore umano sotto stress potrebbe fare. In questo scenario, il vantaggio non deriva più dalla superiorità numerica, ma dalla capacità di integrare sensori e algoritmi in un ciclo di decisione rapidissimo.
Un altro elemento cruciale è rappresentato dal software di aggregazione dei dati. Piattaforme basate su IA integrano informazioni provenienti da social media, satelliti commerciali e sensori sul campo, creando un quadro operativo quasi in tempo reale. La catena di comando, che tradizionalmente poteva richiedere ore per elaborare intelligence, è ora compressa in pochi secondi. Questo permette di anticipare le mosse dell’avversario, reagire a minacce emergenti e coordinare azioni complesse con una rapidità prima impensabile.
Questi esempi mostrano come l’IA stia trasformando profondamente la tattica sul campo. Non è più solo questione di armi più precise o di maggiore potenza di fuoco, ma di integrazione intelligente tra dati, sensori e capacità decisionale, un vero e proprio paradigma operativo che cambia il volto del conflitto moderno.
Il dilemma etico e le armi autonome (LAWS)
“Autonomous weapons systems will change warfare as profoundly as gunpowder did in its time. But the ethical questions are far more difficult” Paul Scharre
Il nodo più critico dei recenti sviluppi tecnologici riguarda i cosiddetti ‘Lethal Autonomous Weapons Systems’ (LAWS), ovvero macchine capaci di selezionare e colpire obiettivi senza intervento umano diretto. La prospettiva apre scenari inquietanti e dibattiti complessi, perché porta con sé domande che la tecnologia, da sola, non può risolvere.
Uno dei problemi principali è quello della responsabilità. Se un algoritmo compie un errore fatale o commette un crimine di guerra, chi ne risponde? È il programmatore che ha scritto il codice, il comandante che ha autorizzato l’impiego del sistema, oppure, chissà, la macchina stessa? Le convenzioni internazionali non sono ancora preparate a rispondere a questa sfida, e l’assenza di un quadro normativo chiaro potrebbe rendere l’uso dei LAWS politicamente e legalmente esplosivo.
Accanto alla responsabilità, emergono i rischi legati a bias (pregiudizi) e errori algoritmici. Un’intelligenza artificiale addestrata su dati incompleti o distorti potrebbe scambiare un gruppo di civili per un’unità combattente, generando conseguenze tragiche. Questi ‘errori di percezione’ — a volte chiamati come forse noto anche ‘allucinazioni algoritmiche’ — mostrano che, nonostante la promessa di precisione assoluta, le macchine non sono immuni da limiti e vulnerabilità.
Infine, il fattore velocità introduce nuove forme di rischio strategico. I sistemi IA operano in tempi talmente compressi da poter reagire l’uno all’altro prima che la politica o i comandanti umani abbiano modo di intervenire. In scenari estremi, questo potrebbe dare origine a conflitti ‘per errore’ o ‘flash wars’, in cui l’escalation si innesca autonomamente, amplificando la probabilità di incidenti incontrollabili.
In definitiva, l’adozione dei LAWS solleva questioni che vanno ben oltre la tecnica: la sfida principale non è solo sviluppare armi più efficaci, ma definire regole, principi e limiti morali in grado di governare una tecnologia che può decidere tra vita e morte in una frazione di secondo. La riflessione etica diventa così un elemento imprescindibile della sicurezza globale nell’era dell’IA.
Prospettive future: verso la ‘singolarità militare’?
“The greatest vulnerability of an AI is the data it learns from — if the data is poisoned, the system fails” Miles Brundage
Le prospettive future della guerra algoritmica lasciano intravedere scenari radicalmente diversi da quelli tradizionali. L’ascesa degli ‘sciami di droni autonomi’ (‘swarms’) rappresenta uno dei cambiamenti più significativi: centinaia di unità, coordinate tra loro attraverso algoritmi avanzati, saranno in grado di saturare le difese nemiche, adattarsi dinamicamente agli attacchi e completare missioni complesse senza supervisione costante. In questo contesto, il vantaggio non sarà più determinato unicamente dalla qualità dei singoli mezzi, ma dalla capacità di orchestrare sistemi complessi come un insieme organico.
Accanto alla complessità tattica, emerge una sfida ancora più sottile: la protezione dei dati che alimentano l’IA. Gli algoritmi imparano da enormi quantità di informazioni, ma se questi dati vengono compromessi — manipolati, falsificati o ‘avvelenati’ — le prestazioni del sistema possono deteriorarsi drasticamente, fino a produrre errori catastrofici. La sicurezza informatica, dunque, diventa il nuovo fronte della competizione militare. La vera vulnerabilità non è più solo la difesa fisica o il numero di mezzi, ma la capacità di proteggere e preservare l’integrità dell’informazione.
Questa combinazione di autonomia, interconnessione e dipendenza dai dati porta a un concetto spesso discusso nei circoli strategici: la ‘singolarità militare’. Non si tratta di fantascienza, ma di una trasformazione del conflitto in cui le decisioni critiche, la coordinazione e persino l’iniziativa tattica potrebbero diventare sempre più mediate dagli algoritmi. La velocità di reazione, la capacità di adattamento e la resilienza dei sistemi informativi determineranno chi detiene davvero il potere sul campo di battaglia.
Conclusioni
“Technology is a tool, not a master. How we govern it will determine whether it protects us or destroys us” Nick Bostrom
L’IA nella difesa rappresenta una rivoluzione storica paragonabile all’invenzione della polvere da sparo o del motore a scoppio: un cambio di paradigma capace di trasformare non solo le armi, ma l’intera logica della guerra. Se gestita con rigore etico e strategico, l’IA può migliorare la precisione, ridurre i danni collaterali e ampliare la capacità di protezione, trasformando i conflitti in operazioni più controllabili e meno distruttive.
Ma la stessa tecnologia, se inserita in una corsa agli armamenti senza regole e senza limiti morali, rischia di ridefinire il concetto stesso di guerra. Algoritmi che decidono in frazioni di secondo, sciami di droni autonomi e sistemi digitali interconnessi possono innescare conflitti più rapidi e meno prevedibili di quanto la politica o la diplomazia siano in grado di governare. La vera sfida non è solo sviluppare nuove armi, ma costruire istituzioni, norme e pratiche capaci di assicurare che l’innovazione serva alla sicurezza globale, e non alla sua destabilizzazione.
In ultima analisi, la rivoluzione algoritmica ci pone davanti a un bivio storico: l’IA può essere uno strumento di protezione, saggezza e cooperazione internazionale, oppure una forza che amplifica i conflitti e rende la guerra più rapida, autonoma e imprevedibile.
Il futuro della sicurezza globale dipenderà dalla capacità dell’umanità di decidere quale strada scegliere. Prima che la tecnologia decida da sé.
Bibliografia di riferimento
Rapporto di ricerca (IRIAD), “Lo stato dell’Intelligenza Artificiale in ambito militare e le prospettive di regolazione a livello nazionale, europeo e internazionale”, 2025 vedi https://www.archiviodisarmo.it/view/NmZ2VWRxeFFTcXJQUVFmVFVnaTBYUT09OjqWQzlLgG0mVcYiD8scviRV/rapporto-maeci-definitivo-2025.pdf
Storia e origini dell’IA militare
- Turing, A. M. “Computing Machinery and Intelligence”, Mind, 1950, vedi https://web.iitd.ac.in/~sumeet/Turing50.pdf
- Priuli, F., Violante C., “Sulla decifratura di Enigma — Come un reverendo del XVIII secolo contribuì alla sconfitta degli U-boot tedeschi durante la Seconda Guerra Mondiale”, vedi https://arxiv.org/abs/2008.03122
- Copeland, B. J. “Colossus: The Secrets of Bletchley Park’s Codebreaking Computers”, Oxford University Press, 2006.
- Edwards, P. N. “The Closed World: Computers and the Politics of Discourse in Cold War America”, MIT Press, 1996.
Difesa e tecnologie moderne
- Lin, P., Abney, K., & Bekey, G. “Robot Ethics: The Ethical and Social Implications of Robotics”, MIT Press, 2012, vedi https://kryten.mm.rpi.edu/Divine-Command_Roboethics_Bringsjord_Taylor.pdf
- Scharre, P. “Army of None: Autonomous Weapons and the Future of War”, W. W. Norton, 2018.
- Singer, P. W., Myers, J. J.“Wired for War: The Robotics Revolution and Conflict in the 21st Century”, Carnegie Council, 2009, vedi: https://media-1.carnegiecouncil.org/import/studio/PWSinger_WiredWar.pdf
IA, machine learning e applicazioni militari
- Horowitz, M. C. “The Ethics & Morality of Robotic Warfare: Assessing the Debate over Autonomous Weapons”, Daedalus, 2016, vedi: https://www.amacad.org/sites/default/files/publication/downloads/004_DAED_a_00409-pp025-036.pdf
- Cummings, M. L. “Artificial Intelligence and the Future of Warfare”, Chatham House Research Paper, 2017, vedi https://www.chathamhouse.org/sites/default/files/publications/research/2017-01-26-artificial-intelligence-future-warfare-cummings-final.pdf
Geopolitica e strategie delle grandi potenze
- Mahnken, T. G. “Technology and the American Way of War since 1945”, Columbia University Press, 2008.
- Work, R., & Brimley, S. “20YY: Preparing for War in the Robotic Age”, Center for a New American Security, 2014, vedi https://www.cnas.org/publications/reports/20yy-preparing-for-war-in-the-robotic-age
- Sardella F., “L’Età delle Armi: come USA, Cina e Russia stanno ridisegnando il mondo” IARI, 2025, https://iari.site/2025/11/08/leta-delle-armi-come-usa-cina-e-russia-stanno-ridisegnando-il-mondo-a-colpi-di-miliardi/
- Kania, E. B., “Chinese Military Innovation in Artificial Intelligence”, Center for a New American Security, 2019, vedi https://www.uscc.gov/sites/default/files/June%207%20Hearing_Panel%201_Elsa%20Kania_Chinese%20Military%20Innovation%20in%20Artificial%20Intelligence.pdf
Etica, governance e rischi dei sistemi autonomi
- Asaro, P. “On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making”, International Review of the Red Cross, 2013, vedi https://www.cambridge.org/core/journals/international-review-of-the-red-cross/article/on-banning-autonomous-weapon-systems-human-rights-automation-and-the-dehumanization-of-lethal-decisionmaking/992565190BF2912AFC5AC0657AFECF07
- UNIDIR (United Nations Institute for Disarmament Research), “The Weaponization of Increasingly Autonomous Technologies: Artificial Intelligence”, 2018, vedi https://unidir.org/files/publication/pdfs/the-weaponization-of-increasingly-autonomous-technologies-artificial-intelligence-en-700.pdf
- Taddeo M., “Codice di guerra. Etica dell’intelligenza artificiale nella difesa,” Raffaello Cortina Editore, 2025
Applicazioni recenti e casi studio
- Toppo M., S., “Drone Warfare in the Russia-Ukraine War”, International Journal of Humanities Social Science and Management, 2025, vedi https://ijhssm.org/issue_dcp/DRONE%20WARFARE%20IN%20THE%20RUSSIA%20UKRAINE%20WAR.pdf
- Brown H., “The Drone Revolution: Lessons from Ukraine”, Latvian Institute of International Affairs, 2025, vedi https://liia.lv/en/publications/the-drone-revolution-lessons-from-ukraine-1476?get_file=1
Paolo Agnoli (1955, www.paoloagnoli.it ) è un fisico nucleare di formazione, ora in pensione, con anche laurea magistrale in filosofia. Da giovane è risultato uno dei vincitori del premio ‘Enrico Persico’, bandito annualmente dalla Accademia Nazionale dei Lincei. Da anni è ormai appassionato di temi storici e filosofici relativi al dibattito scientifico e culturale in generale. Ha lavorato per molti anni in settori di R&D di aziende a livello nazionale, ed è infine stato cofondatore ed ha diretto per molti anni un’azienda (Pangea Formazione, riconosciuta come Istituto di Ricerca dal Ministero dell’Istruzione dell’Università e della Ricerca), composta in larga maggioranza di fisici e matematici, impegnata nella progettazione di algoritmi e modelli probabilistici di IA a supporto del processo decisionale industriale, manageriale e strategico. Pangea Formazione è stata acquisita nel 2020 dal colosso americano della consulenza Bain&Company. Agnoli è tra i finalisti del Premio Letterario internazionale Nabokov – 2025, nella sezione ‘Saggistica editi’, con l’opera ‘Hiroshima e il nostro senso morale’