La Strategia 2026 del Ministero della Difesa a confronto con lo scontro Anthropic-Pentagono

Immaginate una stanza. Non sapete dove si trova. Probabilmente sotto terra, probabilmente negli Stati Uniti. Dentro c’è un uomo che ha costruito uno dei sistemi di intelligenza artificiale più potenti al mondo — quello che le agenzie di intelligence americane usano nelle reti più classificate che esistano. Fuori da quella stanza, il Segretario alla Difesa di Donald Trump gli ha appena consegnato un ultimatum: rimuovi i guardrail. Oppure, fine.

L’uomo si chiama Dario Amodei.

Ha fondato Anthropic dopo aver lasciato OpenAI proprio perché voleva costruire un’intelligenza artificiale sicura.

Sicura per chi?

Per tutti.

Anche per chi la usa.

Anche per i civili che potrebbero finire dall’altra parte del mirino di un sistema che decide da solo chi colpire.

Anche per i cittadini americani che potrebbero essere sorvegliati da un algoritmo capace di ricostruire ogni movimento, ogni relazione, ogni pensiero digitale.

Mercoledì 26 febbraio 2026, alle 17:01 della costa est, scade il termine.

Amodei dice no.

Pubblicamente.

Senza esitare.

Poche ore dopo, un aereo israeliano sorvola lo spazio aereo iraniano.

È l’inizio di quello che verrà chiamato Operation Epic Fury.

Ma prima che tutto questo accadesse — prima del ban presidenziale, prima degli aerei, prima del contratto da 200 milioni di dollari che OpenAI si sarebbe affrettata a raccogliere firmando esattamente le clausole che il Pentagono aveva rifiutato da Anthropic — dall’altra parte dell’oceano, il Ministero della Difesa italiano aveva messo nero su bianco una visione diversa del mondo.

Un documento che in pochi hanno letto ma che dice qualcosa di preciso: l’intelligenza artificiale può aiutarci a difenderci.

Ma l’uomo non può cedere la propria coscienza a una macchina.

Mai.

Sono due strade.

Divergono qui, adesso, in questo momento storico.

E la direzione che prenderemo — come singoli Paesi, come alleanze, come civiltà — deciderà chi risponde quando qualcuno muore per una decisione presa da un algoritmo.

La Strategia italiana: sovranità tecnologica con uomo al comando

Il documento del Ministero della Difesa italiano non è un catalogo di progetti tecnologici. È, come osservano i commentatori, “una presa di posizione politica”. L’intelligenza artificiale viene riconosciuta come “elemento determinante per la sicurezza nazionale”, ma l’integrazione — rapidissima nei tempi: un anno per le priorità a breve termine, tre per quelle strutturali — deve avvenire dentro una cornice che non è negoziabile.

Quattro assi operativi

La strategia declina l’impiego dell’IA in quattro ambiti: operativo (pianificazione, superiorità decisionale, protezione multi-dominio), organizzativo (produttività e decision making), formativo (cultura digitale, simulazione, cooperazione uomo-macchina) e industriale (ecosistema nazionale, PMI, startup). Il punto critico — riconosciuto dagli stessi estensori del documento — è il passaggio dalla visione alla scala applicativa.

Sovranità tecnologica e “controllo profondo”

Il concetto che attraversa l’intero documento è quello di autonomia strategica. La Difesa italiana afferma la necessità di mantenere un “controllo profondo” sui sistemi di intelligenza artificiale: controllare dati, algoritmi e potenza di calcolo significa, nel lessico della Strategia, controllare margini di autonomia politica. Non è un’affermazione tecnica, è geopolitica.

Di conseguenza, la Strategia prevede lo sviluppo di infrastrutture proprietarie di High Performance Computing, algoritmi trasparenti, dati in cloud integrati e reti a supporto della connettività. L’obiettivo dichiarato è non dipendere tecnologicamente da attori terzi — un posizionamento che assume significato amplificato alla luce di ciò che accade negli Stati Uniti.

La governance: UIA e LIAD

Per evitare iniziative scollegatissime, la Strategia ridisegna la governance interna. L’Ufficio per l’Intelligenza Artificiale (UIA) è concepito come cabina di regia: dà indirizzo, coordina e monitora, assicurando coerenza tra priorità operative, scelte tecnologiche e vincoli etici e normativi. Il Laboratorio di IA per la Difesa (LIAD) è invece il braccio tecnico: polo di eccellenza e AI delivery center, trasforma esigenze e casi d’uso in soluzioni adottabili. Su questa architettura si innestano quindici Direttrici strategiche e un Piano attuativo con responsabilità e KPI.

«Il mantenimento del controllo umano e la responsabilità permanente della catena di comando sono indicati come criteri fondamentali, insieme al rispetto del diritto internazionale e a requisiti di spiegabilità dei modelli.» — Strategia IA e Difesa, Edizione 2026

Il fattore umano come principio irrinunciabile

In un dibattito globale sempre più segnato dalle polemiche sulle armi autonome, la Strategia italiana compie una scelta netta: l’IA deve ridurre il carico cognitivo dell’operatore, non sostituire la sua coscienza. In scenari con crescente densità di dati, l’intelligenza artificiale filtra, supporta e velocizza la decisione, ma lascia alla linea di comando la responsabilità finale. Questa è esattamente la riserva di umanità applicata alla dottrina militare.

Il documento si colloca esplicitamente in allineamento con NATO e Unione Europea, richiedendo spiegabilità dei modelli e conformità al diritto internazionale. Un posizionamento che, come vedremo, contrasta con la direzione impressa dall’amministrazione Trump all’apparato militare americano.

Il caso americano: Claude, il Pentagono e la fine dei guardrail
Il contesto: Claude nelle reti classificate

Claude di Anthropic era, fino al 27 febbraio 2026, l’unico modello di intelligenza artificiale operativo nelle reti più classificate del Pentagono, considerate con le migliori performance nelle attività di intelligence più delicate. Il contratto valeva 200 milioni di dollari. Il rapporto sembrava solido — finché il Dipartimento della Difesa ha chiesto qualcosa che Anthropic non poteva concedere.

La richiesta: accesso illimitato

La richiesta del Pentagono era tecnicamente semplice: rimuovere le misure di sicurezza che limitano l’uso di Claude per “qualsiasi uso lecito”. Dietro questa formula, due applicazioni concrete: la sorveglianza di massa dei cittadini americani sul territorio nazionale e lo sviluppo di armi completamente autonome — sistemi capaci di selezionare e colpire bersagli senza alcun intervento umano.

Anthropic aveva già accettato un uso militare ampio, incluse le attività di intelligence e controspionaggio estero, la simulazione, le operazioni mission critical. Ma su quei due punti, il fondatore Dario Amodei ha detto no. E lo ha detto pubblicamente, motivandolo con argomenti che appartengono tanto all’etica quanto al diritto.

Le ragioni di Anthropic: etica e affidabilità tecnica

Sul fronte della sorveglianza di massa, la posizione di Amodei è limpida: l’intelligenza artificiale può aggregare dati dispersi e apparentemente innocui — spostamenti, navigazione web, associazioni personali — trasformandoli in profili estremamente dettagliati di individui. Quello che oggi è legale potrebbe domani mettere alla prova i principi democratici se non si definiscono limiti chiari. Nel saggio “The Adolescence of Technology”, il CEO di Anthropic aveva già avvertito che “dovremmo usare l’intelligenza artificiale per la difesa nazionale in tutti i modi tranne quelli che ci renderebbero più simili ai nostri avversari autoritari”, e aveva indicato la sorveglianza domestica di massa tra i possibili “crimini contro l’umanità”.

Sul fronte delle armi autonome, l’argomento è tecnico prima che etico: i sistemi di intelligenza artificiale attuali non sono “semplicemente abbastanza affidabili” per gestire la selezione e l’ingaggio di bersagli in autonomia. Fornire consapevolmente un prodotto che mette a rischio soldati e civili americani sarebbe irresponsabile. Anthropic aveva offerto di collaborare con il Pentagono per migliorare l’affidabilità di tali sistemi. L’offerta non è stata accettata.

«Non possiamo in coscienza cedere alla loro richiesta. Le minacce non cambiano la nostra posizione.» — Dario Amodei, CEO di Anthropic, 27 febbraio 2026

La reazione: dall’ultimatum al ban presidenziale

Il Segretario alla Difesa Pete Hegseth ha risposto designando Anthropic come “rischio per la supply chain della difesa” — una classificazione normalmente riservata ad aziende straniere considerate ostili. Trump ha ordinato a tutte le agenzie federali di cessare l’uso di Claude. Emil Michael, sottosegretario al Pentagono, ha attaccato personalmente Amodei su X, accusandolo di voler “controllare personalmente l’esercito americano”. Il Pentagono ha anche prospettato il ricorso al Defense Production Act, legge degli anni Cinquanta che consente al governo di obbligare aziende private a fornire i propri prodotti per esigenze di sicurezza nazionale.

OpenAI ha colto l’attimo: poche ore dopo l’esclusione di Anthropic, ha siglato un accordo con il Pentagono per l’uso dei propri sistemi nei contesti classificati militari. Paradossalmente, secondo le dichiarazioni di Sam Altman, l’accordo includerebbe le stesse tutele che Anthropic aveva chiesto — vietando esplicitamente la sorveglianza di massa e imponendo la responsabilità umana nell’uso della forza. Se confermato, ciò suggerisce che il Pentagono abbia ottenuto un capitolato equivalente semplicemente cambiando fornitore e usando la vicenda Anthropic come esempio dissuasivo.

⚖ Nota giuridica: Il Defense Production Act del 1950 (50 U.S.C. § 4501 ss.) consente al Presidente degli Stati Uniti di obbligare imprese private a soddisfare esigenze di sicurezza nazionale. La sua applicazione a un’azienda tecnologica americana — per costringerla a rimuovere tutele etiche dal proprio prodotto — costituisce un precedente giuridico senza precedenti nella storia del diritto americano.

La riserva di umanità: il vero campo di battaglia

Il concetto di “riserva di umanità” (in inglese meaningful human control) identifica il principio secondo cui le decisioni che producono effetti letali — o comunque significativi sulla vita e la libertà delle persone — devono restare sotto controllo umano effettivo, consapevole e responsabile. Non si tratta di un orpello etico: è il fondamento dell’imputabilità giuridica.

Nel diritto internazionale umanitario, questo principio trova espressione nei requisiti di proporzionalità, distinzione e precauzione sanciti dalla Convenzione di Ginevra e dai suoi Protocolli Aggiuntivi. Un’arma autonoma che seleziona e ingaggia bersagli senza intervento umano crea un vuoto di responsabilità: chi risponde delle violazioni del diritto internazionale? Il sistema? Il produttore? Il comandante? Attualmente, nessuna norma consuetudinaria o convenzionale offre risposta a questa domanda.

L’Italia recepisce il principio

La Strategia italiana assume la riserva di umanità come cardine dottrinale. Il controllo umano sulla decisione letale non è presentato come un limite tecnologico provvisorio, destinato a cadere quando l’IA sarà più affidabile: è un principio permanente di architettura dei sistemi. La spiegabilità dei modelli, la responsabilità permanente della catena di comando, l’allineamento con il diritto internazionale — tutti questi elementi convergono verso un’unica posizione: l’uomo non può delegare la propria coscienza a un algoritmo.

In questo senso, la Strategia italiana si allinea alla posizione prevalente in ambito NATO e UE, e si distingue positivamente da molti attori nel panorama internazionale. Essa recepisce implicitamente anche i principi che l’AI Act europeo stava progressivamente codificando per i sistemi ad alto rischio: trasparenza, sorveglianza umana, responsabilità dell’operatore.

Gli Stati Uniti smantellano il principio

La posizione americana, almeno quella espressa dall’amministrazione Trump e dal Pentagono, va nella direzione opposta. Chiedere di rimuovere i guardrail sulle armi autonome significa spostare la soglia del controllo umano, accettare che un sistema algoritmo possa autonomamente decidere “chi colpire” sulla base di parametri definiti ex ante. Questa non è solo una scelta tecnologica: è una scelta di sistema normativo. Significa accettare che la catena di comando si interrompa prima della decisione letale.

La vicenda Anthropic diventa allora un caso di studio per i giuristi: per la prima volta, un’azienda privata di intelligenza artificiale ha esercitato una sorta di veto etico verso il proprio governo sovrano, sostenendo che esistono usi della tecnologia incompatibili con i valori democratici — e che tale incompatibilità non è superabile nemmeno da un contratto o da una legge. È la tensione tra efficienza operativa e diritto che il Novecento aveva già conosciuto, ma mai in forma così algoritmica.

 

Il paradosso OpenAI e la notte del 28 febbraio: OpenAI firma ciò che Anthropic aveva chiesto di non trattare

La vicenda ha un epilogo che appartiene già alla storia del diritto e dell’etica tecnologica. Poche ore dopo il ban presidenziale di Anthropic, Sam Altman annunciava di aver raggiunto un accordo con il Dipartimento della Difesa — ribattezzato Department of War dall’amministrazione Trump — per dispiegare i modelli OpenAI nelle reti classificate del Pentagono. La notizia da sola avrebbe fatto scalpore. Ma il contenuto dell’accordo ha dell’inverosimile.

Altman dichiarava esplicitamente che i due principi di sicurezza cardine dell’accordo sono il divieto di sorveglianza di massa domestica e la responsabilità umana nell’uso della forza, inclusi i sistemi d’arma autonomi. Ha precisato che il Dipartimento della Difesa condivide questi principi, li riflette nella legge e nella politica, e li ha inseriti nel contratto. In una dichiarazione senza precedenti, ha aggiunto di chiedere al Pentagono di offrire questi stessi termini a tutte le aziende di IA — una presa di posizione letta da molti come critica velata alla gestione politica del caso Anthropic.

Il Pentagono ha accettato con OpenAI esattamente le clausole che aveva dichiarato incompatibili con i principi americani quando le aveva richieste Anthropic — e lo ha fatto il giorno stesso in cui aveva bandito Anthropic come rischio per la sicurezza nazionale.

L’esito è paradossale sul piano giuridico: le stesse restrizioni che erano state oggetto di scontro diventano, a distanza di ore, garanzie pattuite e riflesse nella legge. Non è chiaro cosa sia cambiato nella sostanza. Quello che è cambiato è il fornitore. Altman ha anche ottenuto che OpenAI mantenga il controllo tecnico sui modelli, possa decidere quali modelli dispiegare e dove, e che il governo non possa forzare l’esecuzione di un task che il modello rifiuta. Clausole che Anthropic aveva a lungo richiesto senza ottenerle. Secondo Fortune, l’accordo OpenAI includerebbe addirittura più guardrail di qualsiasi precedente contratto per dispiegamenti classificati.

Profilo giuridico: La designazione di Anthropic come supply chain risk — status normalmente riservato a Huawei e aziende con connessioni dirette ad avversari stranieri — è già oggetto di contestazione giudiziaria. Anthropic sostiene che il Pentagono non possa estendere la designazione a tutti i contrattisti commerciali che usino i suoi prodotti, ma solo ai contratti militari diretti. Un confronto che potrebbe durare anni, mentre ogni responsabile legale di ogni grande azienda con esposizione al Pentagono si chiede se usare Claude valga il rischio.

La notte in cui tutto si è connesso: l’attacco all’Iran

Il comunicato di Altman arriva pochi minuti prima che una notizia di tutt’altra portata irrompa sulle agenzie: nelle prime ore del 28 febbraio 2026, Stati Uniti e Israele hanno lanciato un’operazione militare congiunta su larga scala contro l’Iran. L’operazione, battezzata Epic Fury da Washington e Il Ruggito del Leone da Tel Aviv, ha colpito obiettivi militari, infrastrutture nucleari e vertici politici del regime. La Mezzaluna Rossa ha segnalato oltre 200 morti nelle prime ore. Tra le vittime, secondo fonti israeliane poi confermate dalla tv di Stato iraniana, Ali Khamenei, Guida Suprema della Repubblica Islamica.

La coincidenza temporale non è casuale. I due eventi — il ban di Anthropic e l’avvio delle ostilità contro l’Iran — si consumano nella stessa finestra di 24 ore. Il Pentagono aveva consegnato il suo last and final offer ad Anthropic mercoledì 26 febbraio. Amodei aveva risposto giovedì 27 con un no pubblico. Trump aveva firmato il ban la mattina del 27. Altman aveva annunciato l’accordo OpenAI la sera del 27. E nella notte tra il 27 e il 28, i primi aerei israeliani e americani entravano nello spazio aereo iraniano.

Il nesso non è direttamente provabile, ma è giuridicamente rilevante. Se l’IA doveva servire operazioni di attacco pianificate su questa scala, la disputa contrattuale sul controllo umano nella selezione dei bersagli acquista un peso specifico ben diverso da quello di un astratto dibattito etico. La domanda che il diritto dovrà rispondere è: nelle operazioni Epic Fury, quale sistema di intelligenza artificiale ha elaborato i dati di targeting? Con quale supervisione umana? Con quali guardrail? La risposta non è ancora pubblica.

⚖ Profilo di diritto internazionale: L’attacco del 28 febbraio — definito preventivo da Israele e giustificato da Washington con la minaccia nucleare — è già oggetto di dibattito tra i giuristi internazionali. L’uso della forza preventiva è ammissibile solo in presenza di un pericolo imminente, certo e non altrimenti evitabile. Molti analisti ritengono che l’operazione non soddisfi questi requisiti e configuri una violazione dell’art. 2(4) della Carta ONU. Il Consiglio di Sicurezza ONU è stato convocato in sessione straordinaria.

Confronto sistemico: Italia vs USA

 

CRITERIO ITALIA (Strategia 2026) USA (Amministrazione Trump)
Controllo umano Principio fondamentale, strutturale e permanente Requisito relativo, rimovibile per esigenze operative
Armi autonome Vietate senza supervisione della catena di comando Obiettivo operativo da abilitare
Sorveglianza di massa Non trattata (fuori perimetro), vincolata da GDPR e AI Act Richiesta esplicitamente al fornitore di IA
Sovranità tecnologica Infrastrutture proprietarie, autonomia strategica Affidata al mercato privato, poi requisita con DPA
Allineamento normativo NATO + UE + AI Act + DIU internazionale Primato nazionale, deregulation, uscita da framework etici
Ruolo dell’etica Vincolo giuridico integrato nel sistema di governance Ostacolo operativo da rimuovere
Governance interna UIA (cabina di regia) + LIAD (polo tecnico) Catena di comando militare, controllo civile ridotto
I profili giuridici: chi ha ragione?

Dal punto di vista del diritto internazionale, la posizione di Anthropic e quella della Strategia italiana condividono un presupposto comune: esistono usi dell’intelligenza artificiale che sono incompatibili con il diritto internazionale umanitario vigente, a prescindere dalla loro efficacia militare. I Principi di Martens — che integrano il diritto consuetudinario nelle lacune dei trattati — impongono che, in assenza di norme specifiche, i comportamenti bellici siano valutati alla luce dei “principi di umanità” e delle “esigenze della coscienza pubblica”. Un’arma che uccide senza supervisione umana viola entrambi.

Dal punto di vista del diritto americano, la questione è più sfumata. Il Defense Production Act è uno strumento legittimo ma concepito per la produzione materiale bellica, non per la modulazione del comportamento di un sistema cognitivo. Applicarlo per costringere un’azienda a rimuovere tutele etiche dal proprio software apre una finestra di responsabilità senza precedenti: se Claude venisse utilizzato per sorveglianza di massa e un tribunale ne accertasse la violazione delle libertà costituzionali, chi risponde? Il governo che ha ordinato la rimozione dei guardrail? Anthropic che, costretta, ha obbedito?

La risposta appartiene ancora al futuro del diritto. Ma la vicenda indica già oggi che le aziende di intelligenza artificiale stanno diventando, loro malgrado, attori normativi: i loro sistemi di valori codificati (costituzioni, guardrail, policy d’uso) producono effetti giuridicamente rilevanti che precedono o suppliscono la legislazione statale.

«Chi decide come viene usata l’intelligenza artificiale in ambito militare? Il Pentagono vuole accesso illimitato. Anthropic si oppone. Nessuna legge risolve ancora la questione.»

 

Conclusioni: la riserva di umanità come benchmark normativo

La Strategia italiana per l’IA nella Difesa e la vicenda Anthropic-Pentagono, pur geograficamente e giuridicamente distanti, parlano la stessa lingua: quella dei limiti. Dove tracciare il confine tra ciò che la tecnologia può fare e ciò che le istituzioni devono consentire?

L’Italia risponde con un documento che fa dell’uomo il centro irrinunciabile del processo decisionale letale, con spiegabilità dei sistemi, responsabilità permanente della catena di comando e allineamento al diritto internazionale. Questa non è debolezza tecnologica: è scelta giuridico-costituzionale.

Gli Stati Uniti — almeno nell’amministrazione attuale — sembrano rispondere diversamente: la tecnologia non può avere una coscienza propria, e se ce l’ha, è un ostacolo. Ma proprio la vicenda Anthropic dimostra che questa logica incontra un limite: ci sono aziende che rifiutano di produrre strumenti per armi autonome e sorveglianza di massa non perché siano deboli, ma perché credono che alcuni valori non siano cedibili nemmeno a 200 milioni di dollari.

Il diritto ancora non ha risposto alla domanda. Ma la riserva di umanità — il principio che nessun algoritmo possa sostituire la coscienza umana nelle decisioni che producono morte — è già il benchmark intorno a cui si costruisce il futuro del diritto internazionale umanitario nell’era dell’IA. L’Italia ha scelto da che parte stare.


SLIDE (clicca e scarica)

The_Lethal_AI_Divide


Fonti: Ministero della Difesa, «IA e Difesa – Strategia della Difesa in materia di Intelligenza Artificiale», Edizione 2026; Il Sole 24 Ore, 27-28 febbraio 2026; Ansa, Il Fatto Quotidiano, Avvenire, Focus America, 27-28 febbraio 2026; Xpert.Digital, marzo 2026; Formiche.net, The Watcher Post, OsservatorioAI4PA, febbraio-marzo 2026.