L’intelligenza artificiale si afferma sempre più come protagonista nelle operazioni militari, imprimendo un’accelerazione senza precedenti ai tempi della guerra. I recenti attacchi contro l’Iran rappresentano, secondo diversi analisti, l’avvio di una nuova stagione dei conflitti: operazioni pianificate e autorizzate a una rapidità tale da avvicinarsi a quella del pensiero umano, con il rischio concreto di ridurre al minimo – se non di relegare ai margini – il ruolo decisionale delle persone.
Secondo quanto riportato dal The Guardian, il modello Claude sviluppato da Anthropic sarebbe stato impiegato dall’esercito degli Stati Uniti nella recente ondata di bombardamenti. L’obiettivo dichiarato è snellire la cosiddetta “kill chain”, il processo che va dall’individuazione del bersaglio alla verifica legale, fino all’autorizzazione finale all’attacco. Ridurre i passaggi significa comprimere i tempi e aumentare l’efficacia operativa.
In passato, Stati Uniti e Israele avevano già testato strumenti di IA per la selezione degli obiettivi nella Striscia di Gaza. Oggi, però, la dimensione dell’intervento appare molto più ampia: quasi 900 attacchi contro obiettivi iraniani nelle prime dodici ore dell’operazione. In quella fase iniziale, secondo alcune ricostruzioni, i raid israeliani avrebbero colpito anche la guida suprema iraniana, l’ayatollah Ali Khamenei.
Gli studiosi parlano di “compressione decisionale”. I nuovi sistemi sono in grado di elaborare in pochi secondi enormi quantità di informazioni: immagini provenienti da droni, intercettazioni, dati di intelligence raccolti sul campo. La piattaforma realizzata da Palantir Technologies insieme al Pentagono integra algoritmi di apprendimento automatico capaci di classificare e gerarchizzare i bersagli, suggerire l’armamento più adatto in base alle scorte e ai risultati precedenti e perfino valutare automaticamente la conformità legale di un’azione militare.
Craig Jones, docente di geografia politica all’Università di Newcastle e studioso delle kill chain, ha descritto così al Guardian questo salto di qualità: la macchina propone cosa colpire con una rapidità superiore a quella umana, combinando scala e velocità. Operazioni che un tempo avrebbero richiesto giorni o settimane oggi possono essere condotte in parallelo, neutralizzando in poche ore la capacità di risposta del nemico.
La questione, tuttavia, non è soltanto tecnica. Ha implicazioni psicologiche e politiche profonde. David Leslie, professore alla Queen Mary University of London, parla di possibile “scarico cognitivo”: quando è l’algoritmo a raccogliere, analizzare e formulare opzioni, chi deve autorizzare l’azione finale potrebbe percepire in modo attenuato il peso morale della decisione. La scelta rimane formalmente umana, ma il percorso che la precede è sempre più automatizzato.
Per Leslie, siamo di fronte alla prossima fase dell’evoluzione strategica e tecnologica in ambito militare. Il vantaggio competitivo si gioca sulla rapidità: trasformare processi che richiedevano settimane in decisioni prese in minuti o addirittura secondi. I sistemi offrono diverse opzioni ai decisori, ma il tempo per valutarle si restringe drasticamente.
Il quadro è reso ancora più complesso dal fatto che non è chiaro quali strumenti di IA l’Iran abbia integrato nei propri apparati. Teheran ha dichiarato nel 2025 di utilizzare tecnologie di intelligenza artificiale nei sistemi di puntamento missilistico, ma il suo sviluppo – anche a causa delle sanzioni internazionali – appare distante da quello delle principali potenze tecnologiche, come Stati Uniti e Cina.
Intanto, a Washington, il rapporto tra innovazione e politica resta teso. Nei giorni precedenti agli attacchi, l’amministrazione statunitense aveva annunciato l’intenzione di escludere Anthropic dai propri sistemi dopo il rifiuto dell’azienda di consentire l’impiego dei suoi modelli per armi completamente autonome o per la sorveglianza dei cittadini americani. L’intelligenza artificiale, però, continua a essere utilizzata fino alla graduale sostituzione. Nel frattempo, la concorrente OpenAI ha siglato un accordo con il Pentagono per l’uso dei propri modelli in ambito militare.
La domanda, ormai, non è più se l’intelligenza artificiale entrerà stabilmente nei conflitti armati. La realtà è che ne fa già parte.