Ultime notizie Donald TrumpFamiglia nel boscoGuido CrosettoIran
TECNOLOGIAArmiBombardamentiIntelligenza artificiale

Come l’IA sta trasformando la nostra visione sulla guerra

08 Marzo 2026 - 20:23 Ugo Milano
intelligenza artificiale guerra
intelligenza artificiale guerra
Gli esperti su Nature: «Saremo sempre più distanti. Con droni e sistemi automatici non percepiamo più come prima il contatto diretto con la violenza»

In un mondo in cui ci sono meno “boots on the ground” la guerra la percepiamo come un fenomeno sempre più distante. Nature approfondisce il fenomeno secondo cui droni e sistemi automatici stanno riducendo man mano il contatto diretto con la violenza. Incluso l’uso dell’intelligenza artificiale per colpire gli obiettivi.

«La potenziale proliferazione della guerra basata sull’IA sembra imminente»

«Il rapido sviluppo tecnologico sta superando la lentezza delle discussioni internazionali», afferma sul sito della rivista scientifica il politologo Michael Horowitz dell’Università della Pennsylvania a Philadelphia. Sempre su Nature l’esperto di tecnologie militari Craig Jones, dell’Università britannica di Newcastle, rileva che «l’attuale incapacità di regolamentare la guerra basata sull’intelligenza artificiale, o di sospenderne l’uso fino a quando non si raggiunga un accordo su un utilizzo legittimo, sembra suggerire che la potenziale proliferazione della guerra basata sull’intelligenza artificiale sia imminente». Secondo il Pentagono entro il 2035 circa il 70% della forza aerea statunitense potrebbe essere costituito da sistemi senza pilota, osserva il matematico Alfio Quarteroni, accademico dei Lincei. Per Qaternoni sono proprio strumenti come i droni che «contribuiscono anche ad aumentare la distanza psicologica dal campo di battaglia».

Cosa succede nella nostra mente quando siamo davanti a una guerra con impatto di IA

«L’uso crescente di droni e sistemi d’arma automatizzati riduce il contatto diretto con la violenza, attenuando l’impatto sensoriale e morale dell’uso della forza letale. Storicamente – ha sottolineato il matematico Quaternoni – i soldati hanno sempre dovuto superare una naturale avversione all’uccisione», ma «le nuove tecnologie rischiano di rendere questo passaggio sempre meno evidente. Il fenomeno è stato definito ‘scarico cognitivo‘». Non premere il grilletto ma solo un pulsante, senza nemmeno inquadrare l’obiettivo fa sentire l’uomo, in parole povere, meno responsabile dell’atto.

Il rischio di accorciare la kill chain

Quaternoni spiega come prima, senza l’aiuto delle macchine, il procedimento più lungo data una percezione differente. «Secondo alcune ricostruzioni – sostiene ancora il matematico – un altro rischio è che si accorci la cosiddetta kill chain, cioè la sequenza di passaggi che va dall’identificazione di un obiettivo fino all’autorizzazione e all’esecuzione dell’attacco». Una «compressione decisionale». Questo perché le «operazioni militari che in passato richiedevano giorni o settimane di pianificazione, oggi possono essere preparate in minuti o persino in secondi», con il mero rischio, non così lontano, che «i decisori umani possano finire per limitarsi a ratificare automaticamente raccomandazioni generate dalle macchine».

leggi anche