Il Pentagono ha usato Anthropic per attaccare l’Iran. La start up era stata bandita dal Pentagono dopo l’offerta «sui limiti etici» di Hegseth

Per l’attacco all’Iran sarebbe stato usato il modello Claude di Anthropic, uno strumento usa nonostante il divieto del capo del Pentagono Pete Hegseth sull’uso dell’intelligenza artificiale creata dalla startup. A riportare la notizia è il Wall Street Journal, citando alcune fonti. Anthropic sarebbe stata usata per le valutazioni di intelligence, l’identificazione dei target e per simulare scenari di battaglia.
Anthropic, la start up che ha detto no al Pentagono
Il caso di Anthropic ha tenuto banco nei media americani quando il 27 e 28 febbraio 2026, l’amministrazione Trump ha imposto un divieto federale all’uso delle tecnologie dell’azienda. Questo perché la start up del Ceo Dario Amodei si è rifiutata di rimuovere i limiti etici dal proprio modello di intelligenza artificiale, Claude. Una decisione che è valsa una messa al bando vera e propria con il Segretario della Difesa, Pete Hegseth, che aveva designato la società come «rischio per la catena di approvvigionamento» (supply chain risk), impedendo di fatto a qualsiasi appaltatore militare di fare affari con l’azienda.
Anthropic, il ceo: «Essere in disaccordo con il governo è la cosa più americana del mondo»
Recentemente alla Cbs Amodei ha definito la mossa del Pentagono «senza precedenti» e che era chiaro che «in alcune delle loro dichiarazioni, in alcune delle loro espressioni, si trattava di una ritorsione e di una punizione». Ma Amodei aveva ribadito, nel corso dell’intervista a Jo Ling Kent, che c’era bisogno di tracciare una linea rossa. E così è stato fatto. «Riteniamo che oltrepassare tale linea sia contrario ai valori americani e volevamo difendere i valori americani», ha ribadito Amodei. «Essere in disaccordo con il governo è la cosa più americana del mondo», ha affermato. «E noi siamo patrioti. In tutto ciò che abbiamo fatto qui, abbiamo difeso i valori di questo Paese».
