Contents
- 1 ESTRATTO
- 2 Riepilogo in linguaggio semplice per non esperti
- 3 Basi dottrinali e punti di riferimento di governance per l’intelligenza artificiale generativa nella pianificazione congiunta
- 4 Punti di inserimento nell’analisi e nella progettazione della missione: mappatura del pensiero divergente per modellare le capacità
- 5 Limiti di competenza, mitigazione dei pregiudizi e prove di collaborazione uomo-macchina
- 6 Forza lavoro, percorsi formativi e garanzia: dall’entusiasmo alla competenza
- 7 Dinamiche di piccoli gruppi e checkpoint obbligatori: forzare l’integrazione delle funzioni nel lavoro del personale
- 8 Un progetto di riprogettazione per i team di pianificazione operativa: ruoli, modelli, telemetria e controlli verificabili
- 9 Copyright di debugliesintel.comLa riproduzione anche parziale dei contenuti non è consentita senza previa autorizzazione – Riproduzione riservata
ESTRATTO
In tutta l’ industria della difesa degli Stati Uniti , le politiche, le dottrine e i quadri di rischio convergono ora sulla proposta che l’intelligenza artificiale generativa può accelerare il lavoro del personale solo se integrata in processi, pipeline della forza lavoro e meccanismi di governance riprogettati; tra i punti di riferimento autorevoli figurano la strategia di adozione di dati, analisi e intelligenza artificiale del Dipartimento della Difesa ( DoD ) , del 2 novembre 2023 , il toolkit di intelligenza artificiale generativa e l’operatività di “Linee guida e protezioni” del Chief Digital and Artificial Intelligence Office ( CDAO ) , dell’11 dicembre 2024 , il riepilogo esecutivo della task force CDAO Lima, dell’11 dicembre 2024 , e il NIST AI Risk Management Framework 1.0, del 26 gennaio 2023 con il suo profilo generativo, NIST AI 600-1, del 26 luglio 2024 .
Dal punto di vista dottrinale, l’ architettura di pianificazione congiunta codificata dai Capi di Stato Maggiore Congiunti in JP 5-0: Pianificazione Congiunta (portale dottrinale) e MCDP 5: Pianificazione del Corpo dei Marines (4 ottobre 2018) fornisce il flusso di lavoro di base (analisi della missione, sviluppo del corso d’azione, confronto e decisione) in cui i sistemi generativi devono essere strumentati. Studi empirici e analitici condotti dalla RAND Corporation nel periodo 2024-2025 rafforzano i prerequisiti organizzativi per un efficace lavoro di squadra uomo-macchina, ad esempio, Exploring AI to Mitigate Bias in IPB, 6 agosto 2024 , Improving Sense-Making with AI, 2025 , One Team, One Fight: Human-Machine Integration, 2025 e An AI Revolution in Military Affairs, 2025 , ciascuno dei quali conclude che i guadagni derivano dalla progettazione mirata di attività, dalla misurazione e dalla creazione di fiducia piuttosto che dal solo accesso agli strumenti.
Nell’ambito dell’istruzione per la difesa, la Marine Corps University ha articolato linee di trasformazione per l’anno accademico 2026-2029 che comprendono lo sviluppo del corpo docente e la modernizzazione dell’erogazione dell’istruzione militare professionale, come riportato nel Piano di Campagna EDCOM/MCU 2026-2029 del 20 maggio 2025 ; pur non essendo un manuale di intelligenza artificiale generativa , questo piano mette in primo piano meccanismi di adattamento e valutazione del curriculum che si allineano alle condizioni istituzionali necessarie per integrare nuovi strumenti analitici nella pedagogia della pianificazione. Il corpus dottrinale del Corpo dei Marines che inquadra i flussi di lavoro del personale – il Processo di Pianificazione del Corpo dei Marines MCWP 5-1/5-10 e la pagina di visualizzazione MCWP 5-10 – definisce l’analisi della missione come una fase di generazione di ipotesi e distingue la progettazione concettuale dalla sequenza procedurale, un allineamento che rende le fasi di pianificazione basate sul pensiero divergente i punti di inserimento più ricettivi per modelli linguistici di grandi dimensioni. Parallelamente, il Dipartimento della Difesa ha codificato le aspettative in materia di sicurezza informatica e di garanzia per le capacità dell’IA nella Guida alla personalizzazione della gestione dei rischi di sicurezza informatica dell’IA, del 14 luglio 2025 , chiarendo che l’implementazione deve essere abbinata a controlli verificabili, artefatti di test e governance tracciabile, requisiti che influiscono direttamente sul modo in cui i team di pianificazione operativa preparano, archiviano e verificano gli artefatti assistiti dal modello.
L’evidenza di diffusione a livello macroeconomico nell’economia più ampia fornisce una validità esterna per i modelli di adozione osservati nei contesti della difesa. Le indagini transnazionali dell’OCSE sulle imprese segnalano un’adozione disomogenea ma in accelerazione, con divari settoriali e dimensionali che riflettono lacune in termini di capacità e competenze; si veda OECD Digital Economy Outlook 2024, Volume 1, 14 maggio 2024 , Fostering an Inclusive Digital Transformation as AI Spreads Among Firms, 25 ottobre 2024 , e Emerging Divides in the Transition to Artificial Intelligence, 23 giugno 2025. Lo studio dell’OCSE, The Adoption of Artificial Intelligence in Firms, 2 maggio 2025 , con il relativo rapporto completo in PDF , documenta gli ostacoli manageriali – competenze, preparazione dei dati e gestione del cambiamento – in linea con la conclusione che l’adattamento istituzionale determina i rendimenti. Le implicazioni sulle competenze della forza lavoro quantificate dal Future of Jobs Report 2025 del World Economic Forum , del 7 gennaio 2025, corroborano la crescente domanda di “pensiero creativo” e di capacità di “intelligenza artificiale e big data “, che si ricollegano direttamente alle esigenze di analisi delle missioni nella pianificazione congiunta. Le linee guida sulla governance del rischio del NIST — la base AI RMF 1.0, del 26 gennaio 2023 e il profilo generativo NIST AI 600-1, del 26 luglio 2024 — specificano famiglie di controllo per validità, robustezza, trasparenza e gestione dei bias; queste possono essere rese operative come checkpoint espliciti delle celle di pianificazione per registrare i prompt del modello, conservare le motivazioni e sottoporre gli output a revisione avversaria.
Per le organizzazioni di linea, il collegamento pratico tra policy e pratica è stato chiarito dagli artefatti del CDAO , tra cui il Piano di Conformità del DoD per l’OMB M-24-10, del 19 settembre 2024 , e la Dichiarazione sulla Conformità del DoD, del 24 settembre 2024 , entrambi facenti riferimento a linee guida generative e infrastrutture di test adattabili alle cellule di pianificazione educativa e al personale operativo. La comunicazione pubblica del DoD “Il DoD pubblica la strategia di adozione dell’IA”, del 2 novembre 2023, e la relativa Scheda Informativa sulla Strategia, del 25 ottobre 2024, sottolineano una ” forza lavoro pronta per l’IA “, basi di dati e un’implementazione su larga scala: vettori organizzativi che si allineano alle realtà di pianificazione del personale, in cui più funzioni operative devono coordinarsi sotto pressione temporale. Nella pedagogia e nella ricerca militare, le analisi della Marine Corps University Press , ad esempio Automation and the Future of Command and Control (JAMS 11-1) , e i saggi sul design thinking e l’innovazione analizzano il modo in cui la struttura organizzativa e la dottrina mediano gli effetti della tecnologia, supportando l’affermazione che il valore dell’intelligenza artificiale generativa si basa sull’integrazione del flusso di lavoro, non sulla novità degli strumenti.
Da questo scenario verificato emergono quattro lezioni operative direttamente applicabili ai team di pianificazione congiunta.
- In primo luogo, le fasi di pensiero divergente come l’analisi della missione sono i punti di inserimento naturali per modelli linguistici di grandi dimensioni; ciò è in linea con l’enfasi sulla progettazione concettuale in MCDP 5 e con i risultati RAND secondo cui l’intelligenza artificiale può espandere gli spazi delle ipotesi e le cornici contestuali nella prima fase di creazione di senso ( Improving Sense-Making with AI, 2025 ).
- In secondo luogo, i maggiori guadagni marginali si verificano al di fuori della specializzazione principale di un pianificatore, in linea con le prove aziendali secondo cui l’adozione dell’IA avvantaggia in modo sproporzionato le organizzazioni con competenze complementari e preparazione dei dati ( OCSE, 2 maggio 2025 ) e con la ricerca sulla pianificazione relativa alla mitigazione dei pregiudizi nell’IPB ( RAND , 6 agosto 2024 ).
- In terzo luogo, l’entusiasmo non supportato da un onboarding strutturato solitamente si blocca; gli artefatti di implementazione del DoD pubblico stabiliscono pipeline di formazione, infrastrutture di test ( riferimenti JATIC ) e punti di controllo di governance come prerequisiti per l’implementazione ( hub di risorse CDAO ).
- In quarto luogo, le dinamiche dei piccoli gruppi possono sostituire l’uso degli strumenti a meno che la facilitazione non ne imponga l’incorporazione; le linee guida dottrinali e i profili di rischio del NIST giustificano insieme i punti di controllo obbligatori in cui i team devono confrontare l’analisi umana con i risultati del modello registrati con motivazioni tracciabili ( risorse NIST AI RMF ).
Le affermazioni relative a specifici tassi di utilizzo delle aule o alla telemetria proprietaria da parte di piloti didattici interni presso la Marine Corps University o il Marine Corps Command and Staff College non sono disponibili in documenti istituzionali pubblici e citabili al 14 ottobre 2025 ; laddove tali dati siano necessari a supporto di affermazioni numeriche, non è disponibile alcuna fonte pubblica verificata. Di conseguenza, questa analisi si limita a politiche, dottrine, governance e ricerche documentate pubblicamente che insieme delineano come l’intelligenza artificiale generativa dovrebbe essere integrata nel flusso di pianificazione JP 5-0 .
Il corpus verificato consente prescrizioni pratiche: designare un “analista di intelligenza artificiale” all’interno di ogni funzione di combattimento; pre-pubblicare modelli di prompt mappati ai paragrafi della dottrina; richiedere checkpoint di analisi della missione, sviluppo del COA e valutazione del rischio che registrino prompt, risposte e note del valutatore; adottare i controlli di validità, robustezza e trasparenza del NIST come criteri di accettazione per i prodotti del personale; strumentare programmi di formazione secondo il piano di campagna EDCOM/MCU per sequenziare la formazione da compiti prescrittivi ad attività adattive; e misurare l’adozione con artefatti espliciti (registri dei prompt, strumenti di indagine, confronti tra casi) collegati alla documentazione di governance sotto l’ egida del CDAO . Queste misure rendono operativo il messaggio coerente tra gli output di DoD , NIST , OCSE e RAND : i team di pianificazione devono modificare la propria struttura e i propri processi per convertire gli strumenti generativi in un vantaggio decisionale ripetibile.
Riepilogo in linguaggio semplice per non esperti
L’intelligenza artificiale generativa è uno strumento in grado di produrre testo, elenchi e opzioni quando riceve un chiaro prompt. I team di pianificazione militare possono utilizzarla per velocizzare alcune parti del loro lavoro. Devono anche controllare come e quando utilizzarla. Questo capitolo ne spiega le basi, mostra dove lo strumento è utile, dove fallisce ed elenca i controlli che lo mantengono sicuro e affidabile. Ogni affermazione riportata di seguito rimanda a una fonte ufficiale e pubblica.
In questo contesto, l’intelligenza artificiale generativa verrà abbreviata in IA . Un “team” di pianificazione indica un piccolo gruppo di ufficiali e personale che prepara le opzioni per un comandante. “Analisi della missione” indica la fase iniziale della pianificazione, quando un team definisce il problema ed elenca ciò che potrebbe funzionare.
L’ esercito degli Stati Uniti ha scritto delle regole per la pianificazione. Il regolamento congiunto è il JP 5-0: Joint Planning del Joint Chiefs of Staff . La versione del Corpo dei Marines è il MCDP 5: Planning . Questi manuali affermano che i team dovrebbero analizzare la missione, creare diverse linee d’azione, confrontarle e quindi scrivere gli ordini. Afferma inoltre che i team devono mettere in discussione i propri presupposti. Questi punti sono importanti, perché rispecchiano ciò che l’IA può fare bene quando i team richiedono molte opzioni all’inizio e poi le verificano in seguito.
Il National Institute of Standards and Technology pubblica linee guida pubbliche sui rischi dell’IA che qualsiasi organizzazione può utilizzare. La guida principale è il NIST AI Risk Management Framework 1.0 (gennaio 2023) . Indica ai team come governare , mappare , misurare e gestire i rischi. Esiste anche un profilo specifico per i sistemi generativi: NIST AI 600-1: Generative AI Profile (luglio 2024) . Tale profilo afferma che le organizzazioni dovrebbero registrare prompt e output, monitorare le versioni dei modelli, verificare eventuali modifiche nei dati o nel comportamento e garantire la trasparenza in modo che le persone possano verificare le azioni del sistema. Questi passaggi si adattano alla pianificazione militare, perché creano un record che può essere verificato.
Il Dipartimento della Difesa ha un toolkit pubblico per i sistemi generativi che spiega come rendere i progetti sicuri e verificabili. Il toolkit è pubblicato dal Chief Digital and Artificial Intelligence Office e si chiama Generative AI Version 1.0: Responsible AI Toolkit (dicembre 2024) . Il CDAO spiega anche il toolkit in una nota sul blog pubblico, “GenAI Toolkit operationalizes Guidelines & Guardrails memo”, dell’11 dicembre 2024. Il toolkit contiene semplici checklist: idoneità (l’attività è adatta allo strumento), fattibilità (i dati e la configurazione sono corretti) e opportunità (è accettabile utilizzare lo strumento in questo caso). Suggerisce inoltre come registrare l’utilizzo e come formare gli utenti.
Ricerche indipendenti supportano questi passaggi. La RAND Corporation ha studiato il modo in cui soldati e algoritmi collaborano. “One Team, One Fight: Volume I” (2 giugno 2025) spiega i problemi comuni quando i team aggiungono un compagno automatizzato. Tra gli esempi figurano ruoli poco chiari, troppa fiducia nell’automazione, troppa poca fiducia a causa di output poco chiari e confusione su chi detiene la responsabilità della decisione finale. Il rapporto raccomanda chiari confini di ruolo, brevi spiegazioni per gli output e routine definite per quando lo strumento può agire. Il PDF completo è disponibile anche qui: RAND RRA2764-1 PDF . Un altro studio RAND mostra come l’intelligenza artificiale possa aiutare gli analisti umani a evitare pregiudizi durante la preparazione dell’intelligence. Si tratta di ” Exploring AI Use to Mitigate Potential Human Bias Within US Army IPB” (6 agosto 2024) e il PDF è disponibile qui . Questo rapporto afferma che l’uso migliore è richiedere allo strumento di produrre visualizzazioni alternative che il team deve considerare. Il team umano decide comunque, ma il processo diventa più completo.
Queste fonti ufficiali e di ricerca indicano sei semplici lezioni.
Prima lezione: utilizzare lo strumento in anticipo per ampliare la riflessione, quindi verificarla. La fase iniziale della pianificazione si chiama analisi della missione. I team cercano di porre le domande giuste e di elencare molti percorsi possibili. A quel punto, lo strumento può generare rapidamente diverse versioni del problema, diverse serie di domande e diverse opzioni. La dottrina supporta questo tipo di riflessione ampia. Vedere JP 5-0 e MCDP 5. Ma il team non deve accettare questi output come un fatto. Deve rivederli e modificarli. Deve anche registrare ciò che è stato richiesto e ciò che è stato accettato. Il profilo NIST richiede di conservare tali registrazioni e di tenere traccia della versione e del contesto del sistema. Vedere NIST AI 600-1 .
Seconda lezione: non usare lo strumento per sostituire un giudizio tecnico approfondito. Le persone con molti anni di formazione in un ambito ristretto, come l’artiglieria o la pianificazione logistica, spesso scopriranno che lo strumento fornisce risposte che già conoscono o risposte non sufficientemente precise. Gli studi RAND mettono in guardia dal dipendere dallo strumento per le decisioni finali. Vedi ” One Team, One Fight” (2025) . Mostrano anche dove lo strumento aggiunge valore: quando il team ha bisogno di alternative per evitare distorsioni. Vedi “AI and Bias in IPB” (2024) .
Terza lezione: la formazione e le regole semplici contano più dell’entusiasmo. Il toolkit CDAO è pratico. Contiene domande a cui qualsiasi responsabile di progetto o membro del team può rispondere. Le checklist convertono le buone intenzioni in azioni. Vedi Generative AI Version 1.0: Responsible AI Toolkit (dicembre 2024) . Il framework NIST definisce il ciclo di base: governare, mappare, misurare, gestire. Vedi AI RMF 1.0 (gennaio 2023) . La conclusione è semplice: fornire agli utenti brevi moduli su come porre suggerimenti efficaci, come individuare errori comuni e come registrare le azioni svolte. Quindi, chiedere loro di utilizzare un piccolo set di moduli nei momenti chiave.
Quarta lezione: i piccoli gruppi hanno bisogno di punti di forza, altrimenti ignoreranno lo strumento. Nelle sale del personale reali, le persone si affidano ad abitudini note. Spesso sono le voci dei superiori a definire il piano. Se l’utilizzo dello strumento è facoltativo, il gruppo lo ignorerà per motivi di tempo. La soluzione consiste nell’aggiungere punti di controllo obbligatori al processo. Ad esempio, dopo la prima bozza dell’analisi della missione, il facilitatore interrompe la riunione e richiede che l’ output dell’IA venga visualizzato accanto alla bozza umana. Il gruppo deve quindi annotare “accetta”, “modifica” o “rifiuta”, e il motivo. Un secondo punto di controllo può essere utilizzato prima di finalizzare il rischio e le diramazioni. Un terzo punto di controllo può essere utilizzato prima di inviare gli ordini. Questi passaggi corrispondono a “governare” e “gestire” nel NIST AI RMF 1.0 e ai moduli pratici nel toolkit **CDAO** . Riducono anche i problemi di fiducia riscontrati nei team uomo-macchina, come mostrato in One Team, One Fight (2025) .
Quinta lezione: assegnare ruoli chiari in modo che il lavoro venga esaminato prima di entrare nei prodotti ufficiali. I team possono aggiungere quattro ruoli. Un analista di intelligenza artificiale scrive ed esegue i prompt. Un bibliotecario di prompt memorizza e aggiorna i prompt standard per le attività più comuni, con date e numeri di versione. Un critico di output controlla ogni risultato di intelligenza artificiale e lo rifiuta o contrassegna le parti che possono essere utilizzate, con una breve motivazione. Un custode della telemetria conserva i registri: prompt, output, modifiche, accettazioni o rifiuti e tempo impiegato. Si tratta di nomi semplici e compiti semplici. Rispecchiano le linee guida pubbliche che affermano che ruoli e audit trail riducono gli errori e migliorano l’affidabilità. Vedere NIST AI 600-1 , AI RMF 1.0 e il toolkit CDAO .
Sesta lezione: conservare i registri in modo che i revisori indipendenti possano verificare cosa è successo. Ogni volta che si utilizza lo strumento, il team dovrebbe salvare il prompt, l’output, la versione del modello, le modifiche e la scelta finale. Ciò consente audit, lezioni apprese e test. Gli scritti pubblici su test e valutazione in ambito di difesa mostrano perché questo è importante: collega l’uso alla responsabilità e al diritto dei conflitti armati. Vedi “The Practical Role of ‘Test and Evaluation’ in Military AI”, Lawfare, 7 ottobre 2025 .
La semplice regola che lega insieme queste lezioni è questa: usare l’intelligenza artificiale per proporre , chiedere alle persone di contestare e salvare una traccia di ciò che è stato fatto.
La parte successiva fornisce esempi concreti e non tecnici che corrispondono alla rendicontazione pubblica e alle fonti aperte.
Esempio 1: opzioni iniziali in una sala di pianificazione. Un team sta preparando opzioni per la difesa aerea e il supporto logistico. Il facilitatore chiede all’analista di intelligenza artificiale di eseguire un prompt standard per elencare tre diversi modi per suddividere l’operazione e cinque domande chiave per ogni percorso. L’ Output Critic rimuove quindi gli elementi che non corrispondono alle linee guida del teatro operativo da JP 5-0 , che stabilisce come pianificare le operazioni congiunte. Vedere JP 5-0 . Il team salva il prompt, l’output e le modifiche. Questo corrisponde alla richiesta del NIST di registrare e gestire i rischi. Vedere AI RMF 1.0 .
Esempio 2: controlli strutturati dei pregiudizi nella preparazione all’intelligence. Gli analisti spesso si basano sulla loro prima opinione. Il rapporto RAND sui pregiudizi nel processo di preparazione all’intelligence dell’esercito americano raccomanda che uno strumento generi opinioni alternative che mettano in discussione la prima. Vedere ” Exploring AI Use to Mitigate Potential Human Bias Within US Army IPB” (6 agosto 2024) e PDF . Una versione pratica è questa: l’ analista dell’intelligenza artificiale esegue un prompt che chiede cinque motivi per cui la prima valutazione potrebbe essere errata, raggruppati per logistica, tempistica, terreno, inganno o effetti sulle informazioni. Il critico dell’output contrassegna i punti plausibili e li invia al team per la verifica con altri dati. La registrazione viene salvata nei log. Questo è un passaggio a bassa tecnologia che rende il processo più completo.
Esempio 3: un conflitto reale mostra perché velocità e tracciabilità sono importanti. Fonti aperte mostrano che i velivoli senza equipaggio e le misure anti-droni sono centrali nella guerra in Ucraina . La NATO pubblica regolarmente materiale sul supporto all’Ucraina e sugli sforzi di difesa aerea e missilistica. Si veda il riassunto pubblico “Il supporto della NATO all’Ucraina” e il Rapporto Annuale del Segretario Generale 2024 (26 aprile 2025) . Per tendenze tecniche e tattiche, la comunità di esperti della NATO ha condiviso documenti aperti che descrivono l’uso diffuso di droni da ricognizione e da attacco da entrambe le parti. Un esempio è “Sviluppi tattici nel terzo anno della guerra russo-ucraina” (2025) . In questo tipo di contesto, i team di pianificazione traggono vantaggio da uno strumento in grado di elencare rapidamente percorsi alternativi e rischi. Ma devono anche conservare la prova del motivo per cui un’opzione è stata accettata o respinta. Tale prova supporta le revisioni successive e aiuta i leader a comprendere i compromessi. L’ articolo di Lawfare spiega perché test e valutazione collegano la tecnologia a un uso lecito e responsabile. Vedi Lawfare, 7 ottobre 2025 .
Esempio 4: come si presenta l’adozione al di fuori dell’ambito militare. Governi e aziende stanno adottando l’IA , ma il tasso è disomogeneo. L’ Organizzazione per la cooperazione e lo sviluppo economico ha pubblicato nuovi dati sull’utilizzo da parte delle aziende e del settore pubblico. Vedere “The Adoption of Artificial Intelligence in Firms” (2 maggio 2025) e il rapporto PDF . Un altro studio dell’OCSE mostra lacune nell’adozione e rileva che l’8,3% delle aziende negli Stati Uniti ha dichiarato di utilizzare l’IA per produrre beni o servizi nell’aprile 2025. Vedere “Emerging divides in the transition to artificial intelligence” (23 giugno 2025) . Viene monitorato anche l’utilizzo nel settore pubblico nei vari paesi. Vedere “Governing with Artificial Intelligence” (18 settembre 2025) . Questi risultati civili supportano la tesi secondo cui l’adozione richiede formazione, ruoli chiari e attenzione da parte del management, non solo l’accesso a uno strumento.
Tenendo presenti gli esempi, le parti finali di questo riepilogo elencano i passaggi pratici che qualsiasi team di pianificazione può intraprendere, scritti in termini semplici e adattati alle linee guida pubbliche.
Fase pratica 1: creare un breve elenco di prompt standard e assegnare a ciascuno un numero di versione. Memorizzare i prompt per le attività comuni: inquadrare il problema, elencare le ipotesi, sottoporre le ipotesi allo stress test, abbozzare le diramazioni e delineare i rischi. Il bibliotecario dei prompt pubblica l’elenco con una data. Quando un prompt cambia, aggiornare il numero di versione. Questo corrisponde alla richiesta del NIST di trasparenza e controllo delle versioni. Vedere NIST AI 600-1 .
Fase pratica 2: aggiungere i punti di controllo richiesti alla timeline. Dopo la prima bozza di analisi della missione, il team deve eseguire i prompt di framing e ipotesi, confrontare i risultati e annotare le azioni da accettare, modificare o rifiutare. Prima di finalizzare le linee d’azione, il team deve eseguire il prompt di stress test e annotare le modifiche. Prima che il registro dei rischi sia definitivo, il team deve eseguire il prompt di rischio. Senza queste registrazioni, il piano non può procedere. Questo corrisponde ai passaggi “govern” e “manage” in AI RMF 1.0 e ai moduli nel toolkit **CDAO** .
Fase pratica 3: mantenere la revisione umana responsabile, ogni volta. L’ Output Critic deve approvare qualsiasi testo di IA prima che entri in un prodotto ufficiale. Questo è in linea con le linee guida sul lavoro di squadra uomo-macchina contenute in ” One Team, One Fight” (2025) . È inoltre in linea con la regola CDAO secondo cui gli strumenti devono essere adatti, fattibili e consigliabili per il compito. Vedere Generative AI Versione 1.0 (dicembre 2024) .
Fase pratica 4: insegnare le basi a tutti gli utenti in brevi blocchi. La formazione dovrebbe includere suggerimenti sicuri, segnali di errore comuni (come risposte sicure ma sbagliate), come registrare il lavoro e quando interrompere l’utilizzo dello strumento e tornare alla redazione manuale. I materiali del CDAO includono checklist pratiche. Consultare l’indice del blog del CDAO (13 agosto 2025) e il PDF del toolkit .
Fase pratica 5: misurare ciò che conta. Il Custode della Telemetria dovrebbe segnalare quattro cose dopo ogni ciclo di pianificazione: quanti prompt sono stati utilizzati, quanta revisione umana è stata necessaria, con quale frequenza gli output sono stati accettati o rifiutati e quanto tempo è stato necessario per ottenere una bozza utilizzabile. Utilizzare questi numeri per aggiornare i prompt e la formazione. Questo è coerente con la “misurazione” in AI RMF 1.0 .
Fase pratica 6: prepararsi alla revisione. Salvare il prompt, l’output, le modifiche e il motivo della scelta finale. Se un esercizio o un’operazione viene revisionato in un secondo momento, questi record aiutano a spiegare il percorso decisionale. L’ articolo di Lawfare spiega come test e valutazione colleghino questi record a un uso responsabile. Vedi 7 ottobre 2025 .
L’ultima parte spiega perché questo è importante per il pubblico, per i funzionari eletti e per chi legge e condivide le notizie.
Perché è importante per il pubblico. Una buona pianificazione riduce gli errori nelle operazioni. Se l’IA viene utilizzata senza registrazioni, il pubblico non può sapere se ha aiutato o danneggiato. Se viene utilizzata con ruoli, punti di controllo e registri chiari, i leader possono dimostrare che le persone hanno mantenuto il controllo. Questo aumenta la fiducia.
Perché è importante per i funzionari eletti. Bilanci e leggi devono essere coerenti con il reale utilizzo dell’IA . I funzionari possono chiedere cose semplici: mostrare i prompt standard con i numeri di versione; mostrare i moduli di controllo; mostrare i registri degli ultimi tre cicli di pianificazione; e mostrare come la formazione ha modificato la qualità dei prompt nel tempo. Si tratta di richieste semplici che corrispondono alle linee guida pubbliche contenute nei materiali NIST AI RMF 1.0 , NIST AI 600-1 e CDAO .
Perché è importante per i lettori sui social media. Molti post o esaltano l’IA o la temono. La verità è più pratica. Lo strumento può aiutare un team a elencare rapidamente le opzioni. Non può sostituire il giudizio di un esperto. Deve essere utilizzato al momento giusto, esaminato da persone e registrato. Fonti pubbliche mostrano passi costanti verso un uso più sicuro: dottrina congiunta per la pianificazione, regole di rischio NIST per la registrazione e la revisione, checklist CDAO e ricerche su come evitare un eccesso o una carenza di fiducia. Vedere JP 5-0 , MCDP 5 , NIST AI RMF 1.0 , NIST AI 600-1 , toolkit CDAO , RAND One Team, One Fight (2025) e rapporto sui pregiudizi RAND IPB (2024) .
Due dati conclusivi illustrano il contesto più ampio. I rapporti pubblici dell’OCSE confermano che l’adozione al di fuori della difesa è reale, ma disomogenea tra settori e paesi. Si veda “L’adozione dell’intelligenza artificiale nelle imprese” (2 maggio 2025) e “Divari emergenti nella transizione all’intelligenza artificiale” (23 giugno 2025) . Gli attuali resoconti sui conflitti mostrano un uso sostenuto di droni e azioni anti-droni, il che aumenta la necessità di una pianificazione rapida ma verificabile. Si veda il sostegno della NATO all’Ucraina e il Rapporto annuale 2024 del Segretario Generale della NATO (26 aprile 2025) e il documento di insegnamento aperto “Sviluppi tattici nel terzo anno della guerra russo-ucraina” (2025) .
In parole povere, il registro pubblico supporta una visione semplice ed equilibrata. L’intelligenza artificiale può aiutare i team di pianificazione a pensare in modo ampio all’inizio, ma le persone devono mantenere il controllo alla fine. Un buon processo lo rende possibile: utilizzare lo strumento a orari prestabiliti, assegnare ruoli specifici alle persone, raccogliere brevi motivazioni scritte per l’accettazione o il rifiuto e salvare i registri. Le guide ufficiali del NIST , del CDAO e della dottrina congiunta mostrano come farlo. Una ricerca indipendente di RAND conferma cosa funziona all’interno dei team. Casi reali mostrano perché velocità e tracciabilità sono entrambe importanti. Quando questi elementi sono presenti, la pianificazione è più rapida, chiara e facilmente verificabile. Quando mancano, la pianificazione può essere più lenta, più parziale o più difficile da verificare. Il pubblico può valutare i progressi chiedendo le informazioni di base: prompt standard con numeri di versione, moduli di checkpoint compilati, registri dei cicli recenti e brevi piani di formazione collegati a tali prompt. Si tratta di elementi semplici che qualsiasi programma responsabile dovrebbe essere pronto a condividere, entro i limiti di sicurezza, oggi stesso.
Basi dottrinali e punti di riferimento di governance per l’intelligenza artificiale generativa nella pianificazione congiunta
L’ architettura della Pianificazione Congiunta degli Stati Uniti , ancorata al JP 5-0: Pianificazione Congiunta (versione attuale) e interpretata attraverso la dottrina dei servizi componenti, rimane l’impalcatura canonica su cui operano i team di pianificazione operativa (OPT ). Il ciclo di pianificazione si snoda sequenzialmente attraverso l’analisi della missione, lo sviluppo della linea d’azione (COA) , il confronto/wargame tra le COA, l’elaborazione degli ordini e la transizione all’esecuzione. La dottrina considera l’analisi della missione come una fase “orientata alla progettazione” in cui i pianificatori inquadrano il problema operativo, definiscono gli obiettivi, sviluppano ipotesi iniziali, identificano vincoli e ipotesi ed eseguono stime del rischio, motivazioni per i giudizi e criteri decisionali da parte del personale. Questo luogo di progettazione è dottrinalmente adatto a generare ipotesi e a definire spazi di soluzione.
All’interno del Dipartimento della Difesa , la Strategia per l’adozione di dati, analisi e intelligenza artificiale del 2023 , pubblicata il 2 novembre 2023, ha stabilito un impegno strategico per rimodellare i fattori abilitanti organizzativi in modo che dati, analisi e intelligenza artificiale possano offrire un vantaggio decisionale in ambito militare e aziendale. La strategia prescrive una ” Gerarchia dei bisogni dell’intelligenza artificiale ” a cascata che comprende dati di qualità, governance, analisi/metriche, garanzia e intelligenza artificiale responsabile. Inoltre, articola cinque risultati in termini di vantaggio decisionale: maggiore consapevolezza dello spazio di battaglia, pianificazione adattiva delle forze, kill chain rapide e resilienti, supporto resiliente ed efficienza delle operazioni aziendali. (Verificato tramite comunicato stampa del DoD e scheda informativa ufficiale) ( Dipartimento della Guerra degli Stati Uniti )
Tale strategia è resa operativa tramite il Chief Digital and Artificial Intelligence Office (CDAO) , che a sua volta esercita la supervisione tramite il Consiglio del CDAO , coordinando tutte le componenti del Dipartimento della Difesa e collegandosi agli organi di gestione del Vice Segretario, ai gruppi di coordinamento per l’innovazione e ai consigli del personale. (Verificato tramite il Dipartimento della Difesa e il commento sull’implementazione) ( govCDOiq.org )
Fondamentale per un’adozione affidabile, il National Institute of Standards and Technology (NIST) ha pubblicato AI Risk Management Framework 1.0 , formalizzando le funzioni principali (Govern, Map, Measure, Manage) e fornendo “profili” che consentono una personalizzazione specifica per dominio. (Verificato tramite NIST) ( nvlpubs.nist.gov ) Nel luglio 2024, il NIST ha rilasciato NIST AI 600-1 , un documento di accompagnamento al profilo di intelligenza artificiale generativa che amplia le considerazioni sul rischio applicabili a modelli linguistici di grandi dimensioni e sistemi generativi. (Verificato tramite NIST) ( nvlpubs.nist.gov )
Questi quadri strategici e di rischio forniscono delle barriere dottrinali: qualsiasi adozione dell’IA generativa nell’ambito della pianificazione congiunta deve essere in linea con le aspettative del Dipartimento della Difesa in materia di governance, dati e garanzia, e deve superare l’esame in base ai criteri di affidabilità del NIST (validità, robustezza, interpretabilità, privacy, equità, responsabilità). La cellula di pianificazione non è quindi libera di “aggiungere” un modello generativo; deve ereditare i vincoli di questa architettura di governance a più livelli.
Dal punto di vista operativo, la dottrina non prescrive ancora come integrare l’IA nelle fasi di pianificazione congiunta; l’IA generativa non è un attore dottrinale. Questa lacuna apre una responsabilità istituzionale: le organizzazioni di pianificazione devono interpretare come applicare i sistemi generativi nell’ambito dell’architettura esistente, soddisfacendo al contempo le esigenze di garanzia, verificabilità, tracciabilità e catena di custodia per gli artefatti di IA. Pertanto, la cellula di pianificazione diventa un nodo in una topologia di governance e conformità più ampia.
Per garantire la conformità, ogni cella di pianificazione assistita dall’intelligenza artificiale deve integrare almeno quattro sovrapposizioni strutturali.
- Innanzitutto, i registri dei prompt, il controllo delle versioni e il tracciamento delle motivazioni devono essere mantenuti in un ambiente collaborativo controllato, conforme alle politiche di sicurezza, auditing e classificazione dei dati del DoD. Ogni percorso prompt → risposta → revisione utente deve essere tracciato per soddisfare la responsabilità.
- In secondo luogo, i flussi di lavoro della cellula devono essere allineati al modello “adottare-acquistare-creare” del Dipartimento della Difesa, che la Strategia 2023 utilizza per determinare se riutilizzare le capacità esistenti condivise basate sull’intelligenza artificiale, acquisire servizi di intelligenza artificiale commerciali o svilupparne di nuovi internamente, nel rispetto dei diritti sui dati, della comunanza e dei vincoli di governance. ( Crowell & Moring – Home )
- In terzo luogo, le cellule devono incorporare checkpoint di gestione del rischio mappati sulle quattro funzioni del NIST. Ad esempio, prima di accettare qualsiasi COA alternativo generato dall’IA, la cellula deve eseguire Map (identificare i rischi, modellare le ipotesi), Measure (valutare i limiti di confidenza o le metriche di convalida dell’output del modello) e Manage (applicare mitigazioni, revisione avversaria, ricorso al giudizio umano).
- In quarto luogo, la dirigenza deve integrare una funzione di governo nella governance della pianificazione, ovvero i ruoli di supervisione o i consigli devono avere visibilità su quando, perché e come un’intelligenza artificiale generativa è stata utilizzata nella derivazione del piano, consentendo una revisione ex post o un red-teaming se necessario.
In questo contesto, l’adozione della cellula di pianificazione deve anche rispettare i mandati del Dipartimento della Difesa in materia di interoperabilità e infrastrutture federate. La Strategia 2023 enfatizza architetture di dati federate, servizi di dati condivisi e interoperabilità analitica comune, progettati per ridurre i silos. ( Dipartimento della Guerra degli Stati Uniti ) Gli artefatti di pianificazione, i risultati dei modelli di intelligenza artificiale, le conoscenze intermedie e i log delle motivazioni devono essere archiviati, condivisi e sottoposti a versioning in un’infrastruttura federata ma sicura, accessibile simultaneamente a tutti i livelli dello stato maggiore congiunto, ma conforme ai vincoli di classificazione e compartimentazione.
Inoltre, la progettazione delle celle di pianificazione deve rispettare le aspettative del Dipartimento della Difesa in termini di apprendimento continuo e cicli di feedback. La Strategia 2023 enfatizza lo sviluppo agile e l’implementazione iterativa, in base ai quali le capacità dell’IA vengono maturate attraverso cicli di implementazione, feedback e perfezionamento. ( Dipartimento della Guerra degli Stati Uniti ) Ciò implica che qualsiasi cella di pianificazione abilitata dall’IA non deve trattare il modello come statico; al contrario, le celle dovrebbero pianificare revisioni retrospettive dell’efficacia dei prompt, delle modalità di errore e della modifica dei modelli di prompt durante i cicli di pianificazione.
In assenza di documentazione pubblica e verificata che citi i tassi di successo interni o le percentuali di utilizzo derivanti da esperimenti del Marine Corps Command and Staff College o da specifici progetti pilota di celle di pianificazione, non esiste un riferimento numerico convalidato su quante celle di pianificazione utilizzino attualmente l’IA generativa o sul loro delta prestazionale. Non è disponibile alcuna fonte pubblica verificata .
Dal punto di vista dottrinale, l’adozione dell’intelligenza artificiale generativa nella pianificazione deve anche confrontarsi con i principi etici e di responsabilità già approvati dal Dipartimento della Difesa , ad esempio i Principi etici per l’intelligenza artificiale del Dipartimento della Difesa (responsabile, equo, tracciabile, affidabile, governabile), originariamente promulgati nel 2020, che rimangono dei limiti rilevanti. (Verificato tramite il comunicato etico del Dipartimento della Difesa sull’intelligenza artificiale) ( WIRED ) Questi principi impongono dei vincoli: gli output generativi devono essere tracciabili e verificabili, i pregiudizi ridotti al minimo, la supervisione umana mantenuta e l’affidabilità garantita, il che suggerisce che la cellula di pianificazione deve trattare gli output dell’intelligenza artificiale come artefatti consultivi, non come prescrizioni autorevoli.
Oltre alla dottrina e alla governance, la ricerca accademica e politica rafforza l’idea che l’adattabilità organizzativa debba precedere i miglioramenti delle prestazioni. Il portfolio di RAND in ambito IA e militare sottolinea che le istituzioni devono adattare la struttura, le metriche e la cultura della forza lavoro prima di aspettarsi risultati sostanziali derivati dall’IA. (Verificato tramite RAND works) ( C4ISRNet ) Nello specifico, nel dominio della pianificazione, il progetto “Improving Sense-Making with AI” di RAND esamina come l’IA possa supportare l’inquadramento in operazioni multi-dominio contese. (Verificato tramite il rapporto RAND) ( Dipartimento della Guerra degli Stati Uniti ) Tale ricerca sottolinea che la cellula di pianificazione deve evolvere le proprie norme epistemiche, i cicli di feedback e la tolleranza agli errori per ottenere il massimo dalle prestazioni.
Punti di inserimento nell’analisi e nella progettazione della missione: mappatura del pensiero divergente per modellare le capacità
Durante l’analisi della missione, i pianificatori cercano di definire i problemi in modo ampio, generare ipotesi multiple, mettere in discussione le ipotesi e mappare l’ambiente operativo: funzioni che si allineano con il pensiero divergente più che con il giudizio convergente. La dottrina congiunta, secondo JP 5-0: Pianificazione congiunta (dicembre 2020), capitolo 4, inquadra la progettazione operativa come l’attività a monte che definisce la definizione del problema, le linee operative e gli approcci concettuali prima dell’inizio della pianificazione dettagliata. ( Programma Risorse di Intelligence ) In particolare, JP 5-0 riconosce che la progettazione operativa e la pianificazione sono complementari: la progettazione inizia prima della pianificazione procedurale e si ripete durante la pianificazione per guidare l’intento e il flusso logico. ( NDU Press ) Un modello generativo, opportunamente strutturato, può assistere un team di pianificazione nelle fasi in cui la generazione di ipotesi, la definizione dell’ambiente e l’articolazione del percorso di pensiero prevalgono sul rigoroso filtraggio dello spazio commerciale.
L’allineamento cognitivo tra le attività di analisi della missione e i punti di forza del modello generativo è supportato dalla ricerca di dominio sulla creazione di senso. Lo studio RAND Improving Sense-Making with Artificial Intelligence (2025 ) sostiene che gli analisti che si confrontano con contesti complessi e ambigui richiedono inquadramenti laterali, espansione delle ipotesi e iterazione di narrazioni alternative, aree in cui i sistemi di intelligenza artificiale possono proporre inquadramenti concettuali alternativi, far emergere ipotesi nascoste e testare cambiamenti parametrici “what-if” . ( RAND Corporation ) In questo studio, i ricercatori mappano le sfide della creazione di senso attraverso l’orchestrazione delle raccolte, la fusione dei dati, la gestione dei modelli e la formazione/competenza. Concludono che i sistemi artificiali sono adatti per la generazione di ipotesi, la ricombinazione di scenari e l’inferenza analogica, attività che rispecchiano il pensiero divergente nell’analisi della missione. ( RAND Corporation ) Di conseguenza, un modello generativo ben posizionato dovrebbe contribuire ad almeno tre capacità funzionali nell’analisi della missione: estensione delle ipotesi , stress test delle ipotesi e supporto analogico contestuale .
Estensione delle ipotesi e generazione di concetti. Quando i team di pianificazione si trovano ad affrontare problemi mal strutturati, i modelli possono proporre approcci operativi alternativi, entro limiti di dominio, che gli esseri umani potrebbero non considerare spontaneamente. Il modello potrebbe far emergere varianti concettualmente coerenti – ad esempio centri di gravità alternativi, linee di sforzo, obiettivi intermedi o modelli di schedulazione delle campagne – estraendo dati da corpora dottrinali, casi analoghi storici o logica derivata dalla simulazione. Poiché i modelli generativi eccellono nel completamento di pattern e nella mappatura associativa oltre il contesto locale immediato, possono ampliare i confini dello spazio delle opzioni creative oltre le euristiche o i modelli mentali del personale.
Per rendere operativo questo approccio, i modelli di prompt devono inquadrare le variabili della missione (fini, mezzi, vincoli, rischio) e richiedere schizzi di varianti classificate. I prompt dovrebbero includere istruzioni esplicite come “generare tre approcci concettuali alternativi in base a cambiamenti nell’asse di rischio X o nella risposta dell’avversario Y”. Gli schizzi generati dall’intelligenza artificiale diventano quindi contrappunti che il personale può analizzare, criticare e adattare.
Stress test delle ipotesi. Un fallimento frequente nella pianificazione è rappresentato dalle ipotesi non esaminate. I sistemi generativi possono essere incaricati di ” mettere in discussione ” le ipotesi fondamentali interrogando le condizioni al contorno, gli spazi di risposta dell’avversario, le variazioni ambientali o le pressioni di escalation. Ad esempio, un prompt potrebbe chiedere: “Elenca cinque plausibili sfide alla mia ipotesi secondo cui la mobilità logistica dell’avversario è degradata dalla stagionalità Z”. Il ruolo del modello è quello di produrre controipotesi strutturate e narrazioni di casi limite, che lo staff può quindi esaminare tramite intelligence, war-gaming o revisione del red-team.
Supporto contestuale analogico e storico. I modelli generativi possono tracciare analogie tra campagne storiche, dottrine alleate e casi di studio regionali quando sollecitati da caratteristiche contestuali (terreno, motivazioni degli attori, vincoli politici). Ad esempio, dato un insieme di obiettivi e una disposizione dell’avversario, il modello può proporre precedenti storici o dottrinali analoghi (ad esempio, operazioni in territorio arcipelagico, litorali contesi, ambienti urbani frammentati). Pur non essendo autorevoli, queste analogie stimolano il pensiero contrastivo e arricchiscono il modello mentale del team. La chiave è impiegare vincoli moderati (ad esempio, “i più simili negli ultimi 20 anni che coinvolgono concorrenti simili”) e richiedere avvertenze esplicite (“differenze rispetto al caso storico”).
Mappando queste capacità del modello su distinte sottoattività di analisi della missione si ottengono punti di inserimento concreti:
- Definizione delle domande operative chiave. All’inizio dell’analisi della missione, il team di pianificazione definisce le domande essenziali (ad esempio, “Come si sposterà l’avversario A contro l’asse B?”, “Quali effetti di secondo e terzo ordine si verificheranno nello scenario C?”) . Un modello generativo può proporre un insieme raffinato di 8-12 domande critiche che spaziano tra dimensioni politiche, informative, militari, economiche e di sicurezza. La cellula di pianificazione può quindi selezionare, riordinare e adottare elementi da tale elenco.
- Espansione dei fattori ambientali. Man mano che il personale costruisce una matrice delle linee di sforzo o del centro di gravità, il modello può suggerire ulteriori fattori ambientali, relazioni e indicatori tratti da enciclopedie dottrinali, set di dati interagenzia o casi di studio. Ad esempio, in un contesto costiero indo-pacifico, il modello potrebbe evidenziare sfide in termini di consapevolezza del dominio marittimo, punti critici infrastrutturali o rischi per la postura informativa che il team non ha considerato.
- Generazione di bundle di ipotesi. Dopo aver inquadrato il problema, il team spesso elabora ipotesi di soluzione iniziali, ad esempio “attrito-prima”, “manovra-prima”, “economia di forza con modellamento”. Al modello può essere chiesto di produrre bundle di ipotesi varianti (ad esempio, combinando accelerazione, modellamento, inviluppo), inclusi i flussi logici associati e le ipotesi principali. Il team quindi confronta, scarta o unisce.
- Audit delle ipotesi e narrazioni alternative. Una volta definite le ipotesi chiave, è necessario pianificare un rapido scambio: il modello ha il compito di generare contro-narrazioni o casi di violazione delle ipotesi. Queste narrazioni diventano la materia prima per le matrici di rischio o i criteri decisionali.
- Schizzi di ramificazione, sequenziamento e fasi. Il modello può aiutare a generare strutture di ramificazione o fasi candidate (ad esempio, modellazione della Fase 0, ingresso nella Fase 1, consolidamento della Fase 2, transizione della Fase 3) e abbozzare le transizioni logiche. I team possono quindi sovrapporle alle proprie tempistiche e ai vincoli di risorse.
- Loop logici di conflitto. Per i loop di interazione avversaria (scelte nemiche, reazioni amichevoli, dinamiche di secondo ordine), un modello può proporre plausibili trigger di ramificazione, euristiche di risposta e loop di attrito. Questo aiuta il team a evitare errori di modello lineare anticipando accoppiamenti tra domini, gradienti di coercizione o trigger di escalation.
Nota: il valore degli output del modello in queste fasi è valido solo in base alla qualità del prompt, ai vincoli di dominio e allo scetticismo del revisore umano. Il team di pianificazione deve trattare gli artefatti dell’IA come spunti per ipotesi, non come affermazioni definitive.
Casi empirici sul campo di precedenti strumenti di pianificazione basati sull’intelligenza artificiale, ad esempio il sistema JADE (Joint Assistant for Development and Execution), illustrano il potenziale e i limiti del supporto automatizzato durante la pianificazione iniziale. JADE ha combinato la conoscenza della pianificazione basata sui casi e il dialogo con l’utente per accelerare la generazione di dati TPFDD (time-phased force deployment data) nella pianificazione delle azioni di crisi. ( Wikipedia ) Sebbene più rigida dei moderni sistemi generativi, la logica strutturata di JADE offre una base per l’impalcatura dei modelli attuali.
Inoltre, la letteratura sul ragionamento avversariale (ad esempio Toward a Research Agenda in Adversarial Reasoning di Kott e Ownby ) sottolinea che gli strumenti di pianificazione devono prevedere che modelli e avversari coevolvano. ( arXiv ) Pertanto, l’inserimento di modelli generativi nell’analisi della missione deve includere cicli di feedback in cui gli output vengono ripresentati attraverso i cicli modello-umano.
Il programma di inserimento è importante. Per massimizzare l’influenza, i pianificatori dovrebbero invocare l’assistenza generativa in tre momenti strategici:
- Fase iniziale di definizione , subito dopo la ricezione della missione e l’assimilazione delle linee guida, per l’espansione del set di domande e la mappatura dei problemi.
- Giunzione del fascio di ipotesi , dopo il brainstorming interno del personale ma prima del blocco delle ipotesi, per ampliare il pensiero e prevenire la fissazione del gruppo.
- Fase di stress test narrativo , subito prima di finalizzare le ipotesi e la logica di diramazione, per provocare contromodelli e stress da rischio.
Tra queste fasi, i team devono preservare dei buffer temporali per la revisione umana, il red teaming, il collegamento con l’intelligence e la verifica interdisciplinare. Senza questo buffer, i risultati generativi rischiano di essere accettati acriticamente.
Per prevenire il predominio cognitivo del modello, è opportuno designare all’interno dello staff un ruolo di critico del modello , ovvero una figura il cui compito esplicito sia quello di mettere in discussione gli output generativi utilizzando la conoscenza del dominio, i precedenti storici o le euristiche del red-teaming. Questo ruolo interno garantisce che gli output siano interrogati e contestualizzati.
Con l’evoluzione dei modelli, la calibrazione adattiva è essenziale. Nel corso di più cicli di pianificazione, i modelli di prompt dovrebbero evolversi in base al feedback: registri di efficacia dei prompt, contro-narrazioni false positive, tassi di modifica degli utenti e reazioni del team rosso. Una libreria di prompt costantemente aggiornata e allineata alla dottrina congiunta, ai concetti di guerra alleata e ai modelli regionali diventa una risorsa istituzionale condivisa.
Le unità che scelgono l’integrazione generativa dovrebbero pianificare un percorso di onboarding: iniziare con prompt generici (ad esempio schizzi concettuali) e testare gradualmente prompt più complessi (logica di fase, schemi di ramificazione) man mano che aumentano la fiducia e la supervisione.
Monitoraggio e misurazione sono di fondamentale importanza. Il team di pianificazione dovrebbe analizzare i registri dei prompt, i tassi di utilizzo, le distanze di modifica degli utenti, le revisioni del red team e i differenziali derivati in termini di qualità decisionale (nella misura in cui ciò sia fattibile). Nel tempo, studi di casi comparativi potranno verificare se le analisi di missione assistite da modelli producano piani più solidi e flessibili o una maggiore soddisfazione del personale.
Nei domini contesi o classificati, l’inserimento generativo deve rispettare i vincoli di sicurezza: i modelli di prompt devono evitare la perdita di dati sensibili, gli output devono essere filtrati o ripuliti e le regole di timbratura della classificazione devono essere inserite prima che gli artefatti lascino le enclave sicure.
Con l’evoluzione delle interfacce dei modelli, gli input multimodali interattivi (mappe, sovrapposizioni geospaziali, feed dei sensori) potrebbero ulteriormente rafforzare l’allineamento: un prompt potrebbe fare riferimento a un modello digitale del terreno e chiedere al sistema di suggerire linee di avanzamento o varianti di postura di osservazione. Sebbene non sia ancora diffusa, tale integrazione dovrebbe essere concettualizzata in tempi brevi.
In sintesi, l’analisi della missione è il luogo ideale in cui i modelli generativi possono ampliare i quadri concettuali, mettere in discussione le ipotesi e generare ipotesi alternative. Per rendere efficace tale inserimento, i team di pianificazione devono pianificare i momenti cruciali, assegnare ruoli critici, strumentare cicli di feedback e sviluppare progressivamente strutture di prompt radicate nella dottrina. Se implementata con attenzione, l’IA generativa diventa un acceleratore intellettuale nella fase iniziale e più incerta della pianificazione, innalzando il limite di ciò che il personale può immaginare.
Limiti di competenza, mitigazione dei pregiudizi e prove di collaborazione uomo-macchina
Stabilire i confini delle competenze richiede di riconoscere dove i sistemi generativi forniscono un guadagno netto rispetto alla ridondanza. In ambiti in cui il personale possiede già una profonda conoscenza tacita – targeting, sfumature dottrinali, tecniche crittografiche – i risultati dell’IA possono duplicare, entrare in conflitto o degradare i giudizi umani. Le revisioni accademiche sul supporto decisionale dell’IA in ambito militare sottolineano che l’aumento è più efficace quando si colmano lacune di conoscenza o punti deboli nella cognizione del personale, piuttosto che quando si sostituisce la competenza di dominio. Ad esempio, la Review of AI in Military Decision Support Systems (2024) sottolinea che le tensioni nell’interazione uomo-macchina emergono più fortemente quando gli esseri umani avvertono che il sistema sta invadendo l’autorità del dominio principale. ( ResearchGate )
La ricerca sulla mitigazione dei pregiudizi cognitivi nei flussi di lavoro dell’intelligence militare fornisce un supporto esplicito ai sistemi di intelligenza artificiale intesi come correttori piuttosto che come propagatori. Il rapporto RAND “Exploring Artificial Intelligence Use to Mitigate Potential Human Bias Within US Army Intelligence Preparation of the Battlefield (IPB)” (2024) sostiene che l’intelligenza artificiale generativa potrebbe fungere da barriera contro i pregiudizi di conferma, di disponibilità o di ancoraggio degli analisti, proponendo stime di minaccia alternative, opzioni divergenti o modelli di dati trascurati. ( RAND Corporation ) Il rapporto sottolinea che l’intelligenza artificiale deve essere integrata con i processi umani, non sostituirli, e dovrebbe includere una traccia di controllo in modo che il personale possa criticare i risultati algoritmici anziché differirli ciecamente. ( RAND Corporation )
Il rapporto del Center for Security and Emerging Technology intitolato Reducing the Risks of Artificial Intelligence for Military Decision Advantage avverte che i sistemi di intelligenza artificiale con scarsa robustezza, vulnerabilità avversaria o applicazione errata a compiti inappropriati possono iniettare falsa fiducia o inferenze errate nei processi decisionali. ( cset.georgetown.edu ) Nel contesto della pianificazione operativa, ciò significa che il personale deve trattare i risultati dell’intelligenza artificiale non come definitivi, ma come spunti di ipotesi soggetti a verifica e red-teaming.
Gli studi sul lavoro di squadra uomo-macchina sottolineano che la combinazione di giudizio umano e coerenza algoritmica può essere più efficace di entrambe le soluzioni, a condizione che la fiducia sia calibrata e la trasparenza mantenuta. Un documento di lavoro su arXiv, Advancing Human-Machine Teaming: Concepts (2025), sottolinea che fiducia e affidabilità, spiegabilità e robustezza avversaria sono i pilastri di un lavoro di squadra efficace. ( arXiv ) Lo stesso documento sottolinea che la progettazione del team deve gestire esplicitamente il modo in cui i pregiudizi umani e quelli dell’IA interagiscono, piuttosto che presupporre l’indipendenza. ( arXiv )
Dal volume delle National Academies “Human-AI Teaming: State-of-the-Art and Research Needs” (2022), il capitolo 10 (Identificazione e mitigazione dei bias nei team Human-AI) avverte che sia i sistemi umani che quelli di intelligenza artificiale sono portatori di bias: le euristiche umane possono influenzare gli output presi in considerazione; gli stessi sistemi di intelligenza artificiale possono riflettere distorsioni nei dataset, errori di etichettatura o artefatti del modello. Sottolinea la necessità di una consapevolezza bidirezionale : gli umani devono notare i bias dell’intelligenza artificiale; i sistemi di intelligenza artificiale (o filtri) devono rilevare i punti ciechi umani. ( nap.nationalacademies.org )
L’intelligenza artificiale spiegabile (xAI) svolge un ruolo centrale nel colmare il divario epistemico . Il lavoro The Utility of Explainable AI in Ad Hoc Human–Machine Teaming (Paleja et al., 2022) mostra attraverso esperimenti che l’xAI migliora la consapevolezza situazionale per gli utenti inesperti, ma può sovraccaricare gli esperti, degradando le prestazioni quando il sovraccarico di spiegazione compete con il giudizio di dominio. ( arXiv ) Nei team di pianificazione con competenze miste, ciò suggerisce la necessità di modalità di spiegazione selettive: riassunti approssimativi per gli esperti di dominio, maggiore trasparenza per i principianti o gli analisti.
Il principio del Controllo Umano Significativo (MHC) nei sistemi di difesa è stato avanzato nell’articolo ” Designing for Meaningful Human Control in Military Human-Machine Teams” (van Diggelen et al., 2023). Gli autori propongono che il controllo umano non sia un ripensamento, ma un obiettivo di progettazione che abbraccia l’architettura del sistema, l’interfaccia, il flusso di lavoro e la responsabilità. Nei contesti di pianificazione, il MHC implica che il personale mantenga sempre l’autorità di rifiutare o riconfigurare l’output dell’IA e che la progettazione del sistema rafforzi, non indebolisca, la prerogativa decisionale ultima dell’uomo. ( arXiv )
I sistemi ibridi uomo-macchina nello spazio e nei domini interdisciplinari rivelano spunti di riflessione sul vantaggio comparato. Il documento di discussione della US Space Force ” Hybrid Human-AI Teams Represents Defense Technology Future” (maggio 2024) afferma che gli esseri umani eccellono nel giudizio contestuale, nei compromessi di valore e nel riconoscimento degli inganni, mentre le macchine eccellono nella fusione di dati ad alta velocità, nel rilevamento di pattern e nella coerenza. Il documento sollecita la suddivisione dei ruoli in modo che ogni agente si concentri sui propri punti di forza. ( spacecom.mil )
Applicando questo concetto ai team di pianificazione: l’IA generativa dovrebbe essere incaricata del ragionamento volumetrico, della generazione analogica e della correlazione interdominio, mentre gli esseri umani dovrebbero gestire giudizi normativi, punti di interruzione nella logica e compromessi sui rischi della missione. Il confine – quando le offerte di IA sono affidabili o ignorate – deve essere chiaro e pre-dichiarato, non ad hoc.
Le valutazioni del bias di automazione rafforzano il rischio. L’analisi CSET “AI Safety and Automation Bias” identifica casi nell’aviazione e nella difesa in cui gli operatori hanno erroneamente accettato output automatizzati, contrariamente a prove indipendenti. Il documento propone un quadro di mitigazione a tre livelli: formazione degli utenti, progettazione dell’interfaccia (ad esempio, “punteggi di confidenza”, spiegazioni controfattuali) e supervisione organizzativa. ( cset.georgetown.edu ) All’interno di una cellula di pianificazione, ciò implica che gli output dell’IA siano accompagnati da metriche di confidenza, richieste di controanalisi e critiche obbligatorie prima dell’adozione.
Il documento di lavoro RAND “An AI Revolution in Military Affairs?” (2025) esplora come l’adozione dell’IA in ambito bellico richiederà un adattamento istituzionale. Avverte che un eccessivo affidamento all’IA nei cicli decisionali senza supervisione umana può erodere il giudizio adattivo in situazioni di novità o sorpresa. ( RAND Corporation ) Questa intuizione sottolinea ulteriormente che l’architettura di collaborazione uomo-macchina deve deliberatamente preservare la flessibilità umana, la capacità di revisione e la capacità di diagnosi degli errori.
Uno studio di caso sull’apprendimento automatico per il processo decisionale operativo pubblicato da RAND ( Machine Learning for Operational Decisionmaking in Competition , RRA-815-1) esplora come i modelli che assistono le decisioni in fase di competizione debbano gestire il rischio che gli avversari possano sfruttare la prevedibilità del modello o il suo overfitting rispetto ai pattern. ( RAND Corporation ) Tale rischio sottolinea la necessità di una supervisione umana degli output del modello, soprattutto quando un avversario potrebbe effettuare il reverse engineering o anticipare pattern logici assistiti dall’intelligenza artificiale.
Combinando questi filoni, ricaviamo cinque best practice per conciliare i confini delle competenze, la mitigazione dei pregiudizi e la funzione del team nella pianificazione:
- Demarcazione esplicita dei ruoli : assegnare ruoli di Model Analyst distinti da quelli di Domain Specialist , ciascuno con chiari limiti di autorizzazione. Gli Model Analyst esaminano le proposte di output di IA; gli Domain Specialist applicano criteri dottrinali, di missione e di rischio.
- Impalcatura rapida con euristica di distorsione : i modelli di prompt dovrebbero includere direttive per “considerare frame alternativi”, “segnalare ipotesi” o “evidenziare limiti di confidenza”. Ciò modella il comportamento del modello per evitare di riecheggiare la distorsione del personale.
- Metriche di incertezza obbligatorie e livelli di spiegazione : richiedono intervalli di confidenza, salienza a livello di token o alternative controfattuali come parte degli output dell’IA per forzare la riflessione del personale piuttosto che l’accettazione cieca.
- Revisione a doppio flusso con critica riduttiva e costruttiva : presentare flussi accoppiati (il miglior output dell’IA e l’alternativa del modello) che devono essere esaminati in modo incrociato dal personale con una checklist di controllo dei pregiudizi (ad esempio ancoraggio, omissione, conferma, disponibilità).
- Registrazione di feedback e calibrazione adattiva : è necessario tenere traccia dei registri di modifica dei prompt, dei tassi di accettazione del personale, delle correzioni degli errori e delle sovrascritture del red team in modo che la cellula possa ricalibrare i modelli di prompt, filtrare le euristiche e le soglie decisionali nel tempo.
I dati empirici sui tassi di adozione o sull’incidenza degli errori in ambienti di pianificazione militare reali non sono resi pubblici. Non è disponibile alcuna fonte pubblica verificata per le statistiche sugli errori di pianificazione potenziati dall’intelligenza artificiale o sui tassi di accettazione delle celle di pianificazione.
In sintesi, i limiti delle competenze richiedono che l’IA supporti, non sostituisca, l’autorità umana nel dominio. La mitigazione dei pregiudizi deve essere integrata nella progettazione rapida, nella progettazione dell’interfaccia, nella ripartizione dei ruoli e nelle procedure di revisione. Il successo del team uomo-macchina dipende da fiducia calibrata, spiegabilità, autorità segmentata e valutazione continua, non dalla mera implementazione.
Forza lavoro, percorsi formativi e garanzia: dall’entusiasmo alla competenza
La transizione dall’esplorazione guidata dalla curiosità alla competenza sostenibile nell’intelligenza artificiale generativa richiede un’architettura ponderata dello sviluppo della forza lavoro, della stratificazione dei ruoli, dei percorsi di formazione e dei meccanismi di garanzia. Nelle organizzazioni della difesa, questo processo deve allinearsi con i sistemi di acquisizione, gestione del personale e governance, e deve soddisfare vincoli dottrinali, etici e di rischio.
Un primo passo necessario è formalizzare le tassonomie dei ruoli lavorativi dell’IA all’interno del Dipartimento della Difesa. Il DoD Responsible Artificial Intelligence Implementation Pathway (giugno 2024) prevede che “tutti i membri della forza lavoro del DoD che si occupano di IA abbiano un’adeguata comprensione della tecnologia, del suo processo di sviluppo e dei metodi operativi applicabili all’implementazione dell’IA, commisurati ai loro compiti nell’ambito dei ruoli archetipici delineati nella Strategia di Formazione sull’IA del DoD del 2020 ” ( media.defense.gov ). Ciò significa che le cellule di pianificazione devono mappare ogni posizione del personale (ad esempio, operazioni, intelligence, logistica) su un archetipo di ruolo abilitato dall’IA e adattare la formazione di conseguenza.
Storicamente, il Dipartimento della Difesa ha avuto difficoltà a identificare e codificare la propria forza lavoro in ambito AI. Il Government Accountability Office (GAO) nel documento GAO-24-105645 ha osservato che, sebbene il Dipartimento della Difesa abbia sviluppato ruoli lavorativi in ambito AI, non aveva assegnato responsabilità o tempistiche chiare per definire e integrare pienamente tali ruoli nei sistemi di gestione del personale. ( gao.gov ) Questa deriva impedisce la progettazione di una pipeline di formazione scalabile. La riforma a livello di servizio, pertanto, deve iniziare con la codifica dei ruoli, la classificazione degli incarichi e l’integrazione nei sistemi di gestione dei talenti.
La letteratura accademica e di difesa propone una stratificazione della forza lavoro a più livelli. L’ articolo “An AI-Ready Military Workforce” (Cruickshank et al., 2023) pubblicato su Joint Force Quarterly delinea un modello a cinque livelli: Utenti, Leader e Acquisizioni, Tecnici, Funzionari ed Esperti, con durate didattiche e livelli di responsabilità distinti. Ad esempio, la formazione a livello di Utente dura da settimane a mesi per coltivare la competenza in materia di IA, mentre i ruoli a livello di Esperto richiedono anni di profonda formazione ed esperienza tecnica. ( ndupress.ndu.edu ) Per rendere operativa l’adozione da parte dei team di pianificazione, i pianificatori organizzativi devono mappare il personale in questi livelli e dare priorità ai ruoli di medio livello ad alto impatto (Tecnico/Funzionario) per un rapido sviluppo delle capacità.
Parallelamente, il programma Carnegie Mellon-Army AI Technicians offre un modello convalidato di rapido aggiornamento delle competenze. Il programma ha coinvolto una coorte mista accademica e di servizio per sviluppare tecniche di pipeline per la formazione di tecnici di intelligenza artificiale militari in mesi anziché anni. L’utilizzo di apprendimento incrementale, scaffolding e aggiornamento curriculare continuo ha permesso la formazione di 59 tecnici di intelligenza artificiale nelle prime coorti. (Verificato tramite AI Technicians: Developing Rapid Occupational Training Methods , gennaio 2025) ( arxiv.org ) Questo modello dimostra che i sistemi di addestramento per la difesa possono comprimere i cicli di preparazione senza diluire eccessivamente la qualità, ma solo se fortemente integrati con i contesti di missione e i cicli di iterazione.
L’ iniziativa CDAO Digital Workforce risponde esplicitamente a queste esigenze. Il portale del Dipartimento della Difesa descrive obiettivi come la codifica del 50% della Forza Totale per ruoli dati/IA entro l’anno solare 2025 , l’ampliamento dell’accesso ai percorsi di apprendimento e l’allineamento delle competenze alle esigenze della missione. ( ai.mil ) La sua funzionalità “Workforce Training” descrive una visione per l’autovalutazione, un curriculum condiviso tramite Digital University e una serie di corsi di aggiornamento per dirigenti. ( ai.mil ) Per il personale addetto alla pianificazione, ciò si traduce nell’utilizzo della formazione aziendale e nella personalizzazione dei corsi a livello di team per un utilizzo generativo nella pianificazione operativa.
Per passare dall’offerta formativa alla competenza effettiva, è essenziale un’impalcatura di onboarding graduale:
- Alfabetizzazione di base : corsi brevi (da settimane a mesi) sui principi dell’intelligenza artificiale, progettazione dei prompt, modalità di errore, garanzia, etica e sicurezza, pensati appositamente per pianificatori e personale. Questi corsi rispecchiano i livelli “Utente” e “Leader/Acquisizione” del modello JFQ.
- Moduli pratici : laboratori pratici ed esercizi basati su scenari integrati in ambienti di formazione sulla pianificazione (ad esempio, college del personale, giochi di guerra) per garantire che i partecipanti sperimentino modelli generativi in condizioni controllate.
- Coaching guidato e revisione tra pari : inserimento di mentori o “campioni dell’intelligenza artificiale” all’interno delle unità che forniscono feedback, gestiscono librerie di prompt e agiscono come moltiplicatori di forza.
- Autonomia progressiva : dopo le fasi di coaching, il personale può passare all’impiego operativo con un graduale allentamento delle impalcature, pur mantenendo la supervisione.
- Ricertificazione periodica e cicli di feedback : valutazione continua dei registri dei prompt, dei tassi di errore, delle correzioni del red-team, della sensibilità alla deriva del modello e del feedback dei partecipanti per adattare il curriculum.
In ambito educativo, ad esempio, gli istituti di formazione militare professionale dell’esercito statunitense stanno sperimentando un curriculum integrato con l’intelligenza artificiale. L’articolo “Enhancing Professional Military Education with AI” (Army University Press, aprile 2025) descrive le linee guida del TRADOC e le preoccupazioni relative alla terminologia, alle insidie etiche e alle migliori pratiche per integrare la capacità generativa nella formazione professionale professionale senza violare la dottrina o i vincoli di sicurezza. ( armyupress.army.mil ) Per l’addestramento alla pianificazione operativa, un’integrazione simile garantisce che gli strumenti di intelligenza artificiale diventino artefatti normalizzati nella formazione del personale, non esperimenti esotici.
Garanzia e fiducia devono evolvere parallelamente. Uno strumento generativo gestito in modo errato o non controllato può produrre output compromessi, distorti o insicuri. Per evitare ciò, le pipeline di pianificazione devono includere una garanzia basata su claim, coerente con framework emergenti come A Framework for the Assurance of AI-Enabled Systems (Kapusta et al., 2025). Tale documento presenta un approccio strutturato mediante il quale i progettisti di sistemi definiscono claim (ad esempio, “l’output del modello è resiliente alle perturbazioni di input X”), mappano tali claim alle prove e li convalidano continuamente in condizioni di stress. (Verificato tramite arXiv) ( arxiv.org ) Le organizzazioni di pianificazione devono adottare tali sistemi di garanzia per i loro moduli generativi, incorporando test harness, red teaming, banche di input avversarie, fuzzing rapido e convalida di scenari sospesi.
Nell’ambito delle politiche del Dipartimento della Difesa, la strategia e il percorso di implementazione dell’IA responsabile del Dipartimento della Difesa collegano le competenze della forza lavoro e la garanzia: la formazione deve includere tracciabilità, verificabilità, familiarità con i metodi operativi e consapevolezza della governance. ( media.defense.gov ) Questo unisce le pratiche di garanzia tecnica con i requisiti di formazione del personale. Il personale deve comprendere non solo come utilizzare lo strumento, ma anche come interpretare i log, rilevare comportamenti anomali, individuare potenziali degradi del modello e mantenere la conformità alla governance.
L’allineamento degli incentivi di carriera è un altro aspetto fondamentale. Il rapporto del CSET “The DoD’s Hidden Artificial Intelligence Workforce” raccomanda di collegare performance, promozioni, fidelizzazione e riconoscimento alle competenze in ambito AI: ad esempio, retribuzioni speciali, crediti di valutazione per l’innovazione in ambito AI, assegnazioni a rotazione in ruoli AI e parametri di performance legati ai contributi in ambito AI. ( cset.georgetown.edu ) Senza incentivi, il personale tornerà a comportamenti obsoleti.
Inoltre, l’armonizzazione interservizio delle politiche di gestione dell’IA è essenziale per evitare disomogeneità. Il briefing del CSET sollecita il riutilizzo di codici funzione a due cifre obsoleti per designare archetipi di IA tra i servizi e la sincronizzazione delle esperienze dei piloti tra i componenti. ( cset.georgetown.edu ) Per le celle di pianificazione negli staff congiunti, questa armonizzazione garantisce che il personale formato in IA rimanga interoperabile e trasferibile tra i livelli di comando.
I framework di garanzia devono inoltre integrarsi con i cicli di acquisizione. I moduli di intelligenza artificiale generativa utilizzati dai team di pianificazione devono rispettare le procedure di ingegneria di sistema e di supervisione delle acquisizioni del Dipartimento della Difesa. Gli strumenti potrebbero essere inclusi come elementi di supporto software nell’ambito di contratti con obblighi di garanzia incorporati, logging e percorsi di aggiornamento delle capacità. La cellula di pianificazione non deve trattare un modello generativo come un plug-in ad hoc; deve essere integrato come un modulo software soggetto a gestione del ciclo di vita, patching, sicurezza, convalida e controllo della configurazione.
Come esempio pilota, nel giugno 2024 l’Esercito degli Stati Uniti ha lanciato un progetto pilota per esplorare l’intelligenza artificiale generativa all’interno della propria forza lavoro addetta all’acquisizione e alla contrattualizzazione, producendo insegnamenti parallelamente agli ambienti del personale. Il progetto pilota intende testare i guadagni di efficienza e i limiti per un’adozione sicura. (Verificato tramite C4ISRNet) ( c4isrnet.com ) Le informazioni derivanti da tale esperienza dovrebbero alimentare la progettazione della pipeline delle celle di pianificazione, in particolare per quanto riguarda l’impalcatura dei prompt, le metriche di supervisione e le curve di accettazione del personale.
È presente anche un allineamento strategico della forza lavoro a livello di Difesa. La Cyber Workforce Strategy del Dipartimento della Difesa (marzo 2023) evidenzia gli obiettivi per le valutazioni, l’allineamento dei talenti ai programmi di sviluppo e i percorsi di formazione per i ruoli. ( dodcio.defense.gov ) Sebbene focalizzata sulla sicurezza informatica, i suoi principi di formazione basata sulle capacità e di allineamento dei ruoli sono direttamente traducibili nello sviluppo della forza lavoro basata sull’intelligenza artificiale.
Per evitare la fossilizzazione della formazione, le pipeline devono integrare un adattamento continuo . Con l’evoluzione dei modelli, i moduli di formazione devono essere aggiornati; tattiche tempestive, vulnerabilità avversarie e cambiamenti architetturali devono aggiornare l’istruzione. Il programma AI Technicians sta già evolvendo il suo curriculum tra le diverse coorti. (Verificato tramite arXiv) ( arxiv.org ) Le organizzazioni di pianificazione devono trattare la propria libreria di formazione sull’IA generativa come un artefatto vivente.
Misurazione e valutazione sono fondamentali. Le metriche dovrebbero includere la frequenza di utilizzo immediato, i tassi di revisione del personale (distanza di modifica), il conteggio delle correzioni del red team, il tempo necessario per ottenere un output soddisfacente, i sondaggi sulla fiducia degli utenti, i tempi del ciclo di pianificazione e i confronti approfonditi dell’analisi della missione tra team di intelligenza artificiale e non. Solo risultati misurati empiricamente possono convalidare la maturazione delle competenze e guidare l’adattamento.
In contesti contesi o classificati, la formazione deve includere la creazione di team per lo sfruttamento del modello avversario, il filtraggio di sicurezza basato su scenari, tecniche di sanificazione tempestiva e protocolli di timbratura della classificazione. Il personale dovrebbe addestrarsi in ambienti “sterili” tempestivi e simulare il rischio di perdite prima dell’accesso completo.
Infine, le partnership ecosistemiche con il mondo accademico e l’industria rafforzano la capacità. La Difesa dovrebbe collaborare con università, centri di ricerca, coding bootcamp e aziende di intelligenza artificiale per sfruttare contenuti all’avanguardia, librerie condivise e flussi di talenti. Il National Security Innovation Network (NSIN) è uno di questi nessi, che promuove l’innovazione del capitale umano e la formazione intersettoriale. (Verificato tramite wiki) ( wikipedia.org ) L’allineamento della formazione delle celle di pianificazione agli hub di innovazione esterni rafforza la resilienza della pipeline.
In sintesi, per spostare le celle di pianificazione dall’entusiasmo alla competenza è necessaria un’architettura codificata dei ruoli dell’IA, pipeline di formazione compresse e ricche di contesto, framework di garanzia integrati nella formazione, percorsi di carriera allineati agli incentivi, sistemi di misurazione, adattamento continuo del curriculum, allineamento interdisciplinare e convalida operativa delle competenze del personale. Solo allora l’IA generativa passerà dalla novità periferica alla capacità di pianificazione integrata.
Dinamiche di piccoli gruppi e checkpoint obbligatori: forzare l’integrazione delle funzioni nel lavoro del personale
Nei team di pianificazione operativa, la gerarchia sociale, il predominio conversazionale, l’asimmetria del carico di lavoro e la pressione temporale reprimono sistematicamente l’uso disciplinato dei sistemi generativi, a meno che le procedure non ne impongano l’inclusione in momenti definiti. La spina dorsale dottrinale per la progettazione di tali procedure rimane il JP 5-0: Pianificazione Congiunta , che descrive l’analisi della missione, lo sviluppo del corso d’azione e il confronto come attività sequenziali ma iterative che devono resistere a una verifica strutturata prima dell’approvazione delle decisioni; l’attuale portale del Joint Chiefs of Staff per il JP 5-0 codifica queste aspettative ed è il riferimento autorevole per la progettazione del flusso di lavoro del personale . Joint Chiefs of Staff, JP 5-0: Pianificazione Congiunta . A complemento di questa base di riferimento congiunta, il MCDP 5: Pianificazione del Corpo dei Marines enfatizza la progettazione guidata dal comandante, l’indagine critica e l’emersione deliberata di ipotesi come abitudini fondamentali nella pratica del personale; queste enfasi creano punti di ancoraggio naturali per l’interazione obbligatoria uomo-macchina durante la fase iniziale di definizione e il successivo red-teaming MCDP 5: Pianificazione (4 ottobre 2018) .
Un’architettura con funzione di forzatura deve inoltre soddisfare i requisiti di garanzia e tracciabilità stabiliti dal National Institute of Standards and Technology . L’ AI Risk Management Framework 1.0 (26 gennaio 2023) stabilisce il ciclo Govern-Map-Measure-Manage come struttura universale per la progettazione consapevole del rischio, e il suo profilo generativo complementare NIST AI 600-1 (26 luglio 2024) traduce tali funzioni in modelli linguistici di grandi dimensioni prescrivendo la registrazione della provenienza, il monitoraggio degli spostamenti di distribuzione, i controlli di robustezza e gli artefatti di trasparenza NIST AI RMF 1.0 e NIST AI 600-1 . Per gli utenti della difesa, il Chief Digital and Artificial Intelligence Office ha reso operativa la politica attraverso il suo Generative AI Toolkit (11 dicembre 2024) , che include checklist di idoneità-fattibilità-opportunità, questionari sui rischi e linee guida per l’occupazione che possono essere integrate come gate obbligatori nei flussi di lavoro del personale Blog CDAO: GenAI Toolkit rende operative le linee guida e le protezioni promemoria (11 dicembre 2024) e il PDF corrispondente, Generative AI versione 1.0 RAI Toolkit (dicembre 2024) .
In questo ambiente di governance verificato, il comportamento di gruppo nelle sale del personale è il principale ostacolo all’utilizzo affidabile degli strumenti, non l’accesso all’interfaccia. Il rapporto One Team, One Fight: Insights on Human–Machine Teaming (2 giugno 2025) di RAND Corporation documenta i punti di attrito nell’abbinamento di soldati ad algoritmi in compiti di guerra: ambiguità sui confini dell’autorità, eccessiva fiducia nell’automazione, scarsa fiducia dovuta all’opacità e assenza di modelli mentali condivisi. Il rapporto raccomanda contrappesi procedurali – ripartizione esplicita dei ruoli, spiegazione graduale e comportamenti di squadra collaudati – per prevenire il predominio umano o algoritmico. RAND RRA2764-1 (2 giugno 2025) e rapporto completo in PDF . Parallelamente, l’articolo di RAND ” Exploring Artificial Intelligence Use to Mitigate Potential Human Bias Within US Army IPB” (6 agosto 2024) mostra come l’inserimento strutturato possa correggere gli effetti di ancoraggio, disponibilità e conferma, obbligando lo staff a consultare ipotesi alternative generate dalla macchina durante le fasi di preparazione dell’intelligence; il valore deriva dal contrasto forzato, non dalla sostituzione degli analisti RAND RRA2763-1 (6 agosto 2024) e PDF . Insieme, questi risultati giustificano una progettazione dello staff in cui il coinvolgimento uomo-macchina è richiesto in punti precisi, verificato dopo ogni evoluzione e mai lasciato all’entusiasmo discrezionale.
La progettazione di questi punti inizia con una fase allineata alla dottrina. Durante l’analisi della missione – progettazione concettuale in termini MCDP 5 – i team dovrebbero attivare un gate iniziale di “IA framing” dopo la guida del comandante e prima che le definizioni dei problemi siano finalizzate. Il gate obbliga il ruolo di AI Analyst a generare più inquadramenti dei problemi e set di domande basati sulle variabili della missione in JP 5-0 , mentre l’ Output Critic annota le divergenze rispetto alla baseline del team. Gli artefatti vengono immediatamente registrati nelle funzioni ” Map ” e ” Measure ” del NIST AI RMF : prompt, output, note di motivazione e indicatori di confidenza vengono sottoposti a versioning e archiviati per un successivo audit NIST AI RMF 1.0 . Questo gate impedisce la convergenza prematura, la classica patologia dei piccoli gruppi in cui le narrazioni iniziali si consolidano in certezze che sembrano dottrinali.
Un secondo gate si colloca tra la generazione di opzioni divergenti e il confronto convergente delle linee d’azione. In questo caso, il Generative AI Toolkit fornisce fogli di lavoro preformattati di idoneità-fattibilità-opportunità; il personale è tenuto a eseguire varianti COA assistite da modello attraverso tale modello e a documentare qualsiasi suggerimento automatico accettato, modificato o rifiutato. La provenienza del foglio di lavoro e la versione prompt diventano parte del record del piano CDAO RAI Toolkit (dicembre 2024) . Questo gate trasforma l’IA da una “curiosità” a un partecipante governato con contributi verificabili, in linea con gli elementi “Govern” e “Manage” del NIST .
Un terzo gate precede i registri dei rischi e la logica di diramazione/sequel. Prima che il personale finalizzi le narrative dei rischi e i punti decisionali, l’ analista di intelligenza artificiale deve sollecitare contro-narrative e fattori di stress per casi limite, mentre il critico di output incrocia tali elementi con le categorie di rischio dottrinali e i vincoli specifici del teatro documentati in JP 5-0 . Qualsiasi divergenza non banale innesca un red-teaming obbligatorio e un’esplicita valutazione scritta. La registrazione di tale valutazione diventa un caso di addestramento per iterazioni future, favorendo la memoria transattiva – la consapevolezza condivisa di chi sa cosa nel team – in modo che le cellule successive comprendano dove il modello tendeva a mancare o a eccedere in contesti simili JP 5-0 e MCDP 5 .
Poiché i piccoli gruppi spesso si affidano alla risoluzione interpersonale piuttosto che alla disciplina degli strumenti, la logica della funzione di forzatura deve essere supportata da ruoli strutturali e da una facilitazione a rotazione. Un elenco riprogettato aggiunge quattro posizioni ai tradizionali ruoli operativi, di intelligence, logistici, antincendio e di comunicazione: Analista di intelligenza artificiale (costruisce i prompt; esegue le iterazioni), Bibliotecario dei prompt (cura, revisiona e mappa i modelli di dottrina), Critico degli output (contesta formalmente e contestualizza gli output) e Custode della telemetria (cattura le metriche di utilizzo, le distanze di modifica, i conteggi di accettazione/rifiuto, gli override del red team e il tempo necessario per la bozza utilizzabile). Le autorità e i limiti di ciascun ruolo sono definiti nell’ordine di pianificazione in modo che nessun individuo possa inserire output non revisionati nei prodotti dello staff. Queste assegnazioni sono in linea con la raccomandazione di RAND sul teaming uomo-macchina per suddividere le responsabilità ed evitare confini di autorità ambigui (RAND RRA2764-1, 2 giugno 2025) .
L’affidabilità di questo progetto dipende da prove verificabili. Grazie alle proprietà di ” tracciabilità ” e ” trasparenza ” del NIST , ogni catena prompt-output-revisione viene preservata, con tag di versione del modello e note giustificative. L’archiviazione può essere implementata con repository standard controllati dalla configurazione, oltre a un hashing crittografico per rendere visibili eventuali manomissioni. Il Telemetry Custodian genera dashboard dopo ogni evoluzione: conteggi dei prompt per fase, distanza mediana di modifica dall’output del modello al testo accettato, percentuale di suggerimenti adottati o scartati e latenza tra il prompt e la bozza pronta per il personale. Si tratta di strumenti manageriali, non di metriche di vanità, utilizzati per rivedere i modelli, adattare le rotazioni dei ruoli e segnalare i processi a rischio di ri-emarginare l’IA NIST AI RMF 1.0 e NIST AI 600-1 .
I checkpoint obbligatori mitigano anche i doppi rischi di bias di automazione e opacità documentati in contesti militari. Lo studio IPB di RAND mostra che richiedere alternative generate dalle macchine riduce la tendenza degli analisti a favorire le prime ipotesi, preservando al contempo il giudizio umano come autorità giudicante (RAND RRA2763-1, 6 agosto 2024) . Il volume di RAND sul lavoro di squadra uomo-macchina evidenzia che l’opacità incontrollata corrode la fiducia o, paradossalmente, invita a un eccessivo affidamento: entrambe modalità di fallimento che i gate procedurali smorzano richiedendo spiegabilità e critica umana esplicita (RAND RRA2764-1, 2 giugno 2025) . I questionari di valutazione del toolkit CDAO , quando incorporati come moduli “da non utilizzare se non completati”, formalizzano tale critica anziché lasciarla a una discussione informale (CDAO Blog, 11 dicembre 2024) .
Per evitare il predominio di rango o personalità, la facilitazione ruota a ogni gate. Il facilitatore a rotazione applica una presentazione a doppio binario e con limiti di tempo: l’ analista di intelligenza artificiale fornisce prima un briefing sugli output; il critico degli output presenta quindi un contro-riassunto costruito da un essere umano con chiari punti di riferimento dottrinali; il team discute con la regola secondo cui qualsiasi accettazione deve includere una breve motivazione scritta e una nota sui rischi. La componente scritta rallenta il consenso prematuro costringendo i singoli a spiegare le ragioni, migliorando così la successiva verifica. Questa procedura riflette l’insistenza dell’MCDP 5 sul fatto che la pianificazione sia un dialogo di intenti, critica e adattamento piuttosto che di checklist statiche. MCDP 5: Pianificazione .
Un progetto di funzione di forzatura credibile deve tenere conto dei vincoli di sicurezza e di gestione dei dati. I materiali CDAO richiedono una provenienza dei dati controllata e linee guida esplicite per l’impiego; i prompt non possono divulgare contenuti classificati al di fuori di enclave accreditate e le versioni del modello devono essere certificate per il livello di dati in questione (RAI Toolkit, dicembre 2024) . Il record del piano deve quindi includere gli input ripuliti per la classificazione, il testo del prompt ripulito e un riferimento incrociato all’analisi classificata originale conservata altrove. Questa biforcazione preserva le tracce di controllo senza violare le regole di gestione ed è coerente con le linee guida sulla governance dei dati del profilo NIST (NIST AI 600-1) .
Poiché il comportamento dei piccoli gruppi si adatta agli incentivi, i leader senior dovrebbero collegare la conformità ai checkpoint alla valutazione e alla revisione post-azione. La direttiva di pianificazione specifica che nessun prodotto passa al wargame o alla stesura degli ordini senza la prova del completamento dei gate. La conformità viene verificata durante le revisioni post-operazione e i seminari di formazione militare professionale; le unità che dimostrano un utilizzo disciplinato ricevono credito nelle narrazioni delle prestazioni, rafforzando le abitudini rispetto all’affidamento ad hoc. Ciò è in linea con la raccomandazione organizzativa di RAND di abbinare il cambiamento di processo alla misurazione e alla segnalazione della leadership per stabilizzare i nuovi comportamenti uomo-macchina ( RAND RRA2764-1, 2 giugno 2025) .
Le procedure del red-team dovrebbero essere aggiornate per includere cicli di sfida al modello. Una cellula del red-team ha il compito di rigenerare i prompt in modo indipendente utilizzando lo stesso contesto ripulito, per testare la sensibilità alla formulazione e per evidenziare output fragili. I risultati divergenti vengono registrati come indicatori di robustezza e attivano un follow-up mirato: un restringimento del modello o un ulteriore lavoro analitico umano. Questa pratica soddisfa i passaggi “Misura” e “Gestisci” del NIST sondando attivamente la varianza e la suscettibilità allo stress NIST AI RMF 1.0 .
Per evitare che le dinamiche dei piccoli gruppi tornino ad essere abitudinarie, è necessario coltivare la memoria transattiva del team sul modello. Il Custode della Telemetria pubblica un “briefing sul comportamento dell’IA” di una pagina dopo ogni ciclo: domini in cui il modello ha aggiunto valore, schemi di allucinazioni ricorrenti, formati di prompt che hanno avuto prestazioni inferiori alle aspettative ed esempi di modifiche ad alto impatto da parte dell’Output Critic . Nel tempo, questo briefing diventa una dottrina locale viva per l’impiego del modello, incastonata nella filosofia di pianificazione adattiva di MCDP 5 e nel requisito di apprendimento continuo di JP 5-0 all’interno delle serie di pianificazione MCDP 5 e JP 5-0 .
Il processo riprogettato deve inoltre integrarsi con la governance aziendale. Il CDAO ha delineato un percorso a livello di Dipartimento della Difesa per la preparazione all’IA che include l’aggiornamento delle competenze della forza lavoro, la condivisione degli strumenti e la supervisione del portfolio; le unità di pianificazione dovrebbero registrare le proprie librerie di prompt e gli schemi di telemetria nella knowledge base aziendale, in modo che le pratiche possano essere confrontate tra i vari comandi e migliorate centralmente . Indice del blog CDAO (13 agosto 2025) . Nel frattempo, gli artefatti di conformità (moduli di completamento dei gate, registri dei prompt e note di motivazione) dovrebbero essere formattati in modo da poter alimentare i repository di test e valutazione e le revisioni di supervisione dell’IA responsabile, mantenendo la continuità dalle procedure del personale alla garanzia aziendale . Toolkit RAI (dicembre 2024) .
Infine, il team deve essere protetto da un’eccessiva centralizzazione delle competenze in materia di IA. La rotazione degli incarichi di Analista di IA e Critico di Output garantisce che le competenze si propaghino e che nessuna singola personalità diventi di fatto il custode, un importante controllo contro le micro-gerarchie che spesso emergono nei piccoli gruppi. Questa rotazione, combinata con espliciti limiti di autorità e decisioni scritte, istituzionalizza l’equità procedurale che RAND evidenzia come fondamentale per sostenere la fiducia nelle coppie uomo-macchina (RAND RRA2764-1, 2 giugno 2025) .
L’effetto cumulativo di queste misure è quello di convertire l’energia sociale della sala professori – dalla ricerca di coesione che scarta silenziosamente i contributi delle macchine – in una collaborazione disciplinata in cui gli algoritmi sono obbligati a proporre, gli esseri umani sono obbligati a interrogare e ogni scambio lascia una traccia verificabile. I riferimenti dottrinali in JP 5-0 e MCDP 5 , l’impalcatura del rischio di AI RMF e AI 600-1 del NIST e le linee guida specifiche per la difesa nel CDAO Generative AI Toolkit convalidano insieme il principio architetturale: solo checkpoint obbligatori, ruoli con personale dotato di autorità di revisione, telemetria che misura la qualità dell’adozione e record verificati possono superare in modo affidabile l’inerzia dei piccoli gruppi e garantire un vantaggio decisionale ripetibile negli ambienti di pianificazione moderni JP 5-0 , MCDP 5 , NIST AI RMF 1.0 , NIST AI 600-1 e CDAO GenAI Toolkit .
Un progetto di riprogettazione per i team di pianificazione operativa: ruoli, modelli, telemetria e controlli verificabili
Quando i team di pianificazione vengono ricostruiti attorno all’IA generativa come strumento cognitivo fondamentale, anziché come una novità marginale, è necessaria una riprogettazione olistica di ruoli, modelli di prompt, sistemi di telemetria e architetture di controllo verificabili. Questo progetto prescrive quattro dimensioni interconnesse – architettura dei ruoli, modelli di scaffold di prompt modulari, strumentazione di telemetria e cicli di controllo di governance/audit – per integrare l’IA generativa come partner di pianificazione affidabile e monitorato.
Architettura dei ruoli e limiti di autorità
Una cellula di pianificazione organizzata attorno all’IA deve riformulare la propria architettura dei ruoli interna, andando oltre le funzioni classiche (operazioni, intelligence, logistica). I nuovi ruoli chiave includono: Analista di IA , Bibliotecario dei prompt , Critico degli output e Custode della telemetria . L’ Analista di IA progetta e perfeziona i prompt, esegue iterazioni e presenta le opzioni principali derivate dall’IA; il Bibliotecario dei prompt cura modelli di prompt stabili, mappa l’evoluzione dei prompt e garantisce l’allineamento dottrinale; il Critico degli output ha la responsabilità di contestualizzare, contestualizzare e annotare gli output dell’IA utilizzando il giudizio di dominio; e il Custode della telemetria gestisce i log dei prompt, le metriche di utilizzo, gli interventi del red team e i riepiloghi statistici per la revisione post-azione.
I confini dell’autorità devono essere espliciti. Ad esempio, l’analista di intelligenza artificiale non può integrare direttamente gli output nei prodotti dello staff senza la revisione del critico; il critico deve annotare ogni output accettato o rifiutato con una motivazione. Nel tempo, con l’aumentare della fiducia, i confini potrebbero allentarsi, ma le prime progettazioni devono imporre controlli rigidi. La rotazione di questi ruoli garantisce che nessun individuo monopolizzi l’influenza dell’intelligenza artificiale o diventi un collo di bottiglia.
Ogni funzione deve avere una presenza definita in tutte le fasi di pianificazione: analisi della missione, sviluppo del COA, war gaming, stima del rischio e stesura degli ordini. L’analista di intelligenza artificiale dovrebbe essere attivo fin dalle prime fasi (fasi di pensiero divergente), ridurre gradualmente il suo ruolo durante le fasi convergenti e reinserirlo durante il rilevamento delle anomalie. Il critico deve rimanere presente dalla verifica iniziale dell’output fino al consolidamento finale del piano.
Moduli di modelli di prompt e strategia di versioning
La progettazione dei prompt non può essere ad hoc; deve essere modulare, versionata e basata sulla dottrina. La libreria di modelli di prompt di base dovrebbe modularizzarsi in base alla fase di pianificazione, alla funzione di dominio e alla posizione di rischio. Ad esempio:
- Modello di inquadramento della fase 0 : “Data la dichiarazione di intenti M, la posizione dell’avversario A, i vincoli C, generare tre approcci concettuali, ciascuno con presupposti chiave, rischi e linee operative alternative”.
- Modello di verifica delle ipotesi : “Elenca dieci possibili sfide all’ipotesi X, raggruppate per categoria (logistica, informazioni, terreno, adattamento all’avversario).”
- Modello di schizzo di diramazione : “Proponi trigger logici di diramazione, con criteri di smistamento associati e opzioni di fallback in caso di errore della diramazione”.
I modelli devono contenere metadati: riferimento dottrinale (ad esempio, clausola JP 5-0), identificativo della versione, autore, data e modalità di errore note. Quando un’iterazione dello staff rifiuta o modifica pesantemente un output di intelligenza artificiale, tale iterazione dovrebbe contribuire al perfezionamento dei modelli di prompt.
Il versioning rapido deve essere allineato con i sistemi di telemetria, in modo che i registri di utilizzo possano tracciare quale versione del template ha generato un determinato output. Nel tempo, le celle creano una cronologia condivisa delle versioni dei prompt, adattata al loro set di missioni, al dominio con personale, ai teatri regionali e alla tolleranza al rischio.
Strumentazione di telemetria e metriche di utilizzo
Per monitorare la fedeltà dell’integrazione dell’IA, i team di pianificazione devono integrare sistemi di telemetria a livelli granulari. I livelli di telemetria dovrebbero includere:
- Conteggio delle chiamate ai prompt : quanti prompt vengono attivati, per fase, per cella funzionale.
- Metriche della distanza di modifica : misurazione di quanto le modifiche umane si discostano dall’output dell’IA.
- Percentuali di accettazione : frequenza con cui il personale adotta alla lettera i suggerimenti dell’IA, con modifiche o li rifiuta del tutto.
- Conteggi di override del team rosso : casi in cui gli output hanno superato la verifica interna ma non quella esterna o avversaria.
- Tempo per l’output utilizzabile : intervallo tra l’emissione immediata e la bozza pronta per il personale.
- Modelli di utilizzo dei prompt : quali versioni dei modelli di prompt hanno avuto successo o sono fallite, raggruppate in base al contesto o al tipo di missione.
- Segnalazioni di anomalia : monitoraggio degli output che hanno attivato rifiuti a sorpresa, divergenze anomale o marcatori di allucinazione.
Un responsabile della telemetria dovrebbe aggregare e gestire queste metriche dopo ogni ciclo di pianificazione, consentendo un’analisi longitudinale della maturità dell’integrazione dell’intelligenza artificiale. Il benchmarking comparativo tra celle o scenari può far emergere best practice o individuare insidie. Se più team di pianificazione adottano uno schema di telemetria comune, l’apprendimento tra i team accelera.
Cicli di controllo verificabili e architettura di governance
L’intelligenza artificiale generativa nella pianificazione deve essere governata da verificabilità, tracciabilità e conformità. Per raggiungere questo obiettivo, la cellula di pianificazione deve integrare flussi di lavoro verificabili:
- Prompt → Output → Catena di revisione
Ogni prompt, il suo output, le modifiche umane e il testo finale accettato devono essere concatenati in un registro a prova di manomissione (ad esempio tramite hashing crittografico o controllo delle versioni). Questo registro è accessibile alle celle di audit interno o agli organi di supervisione. - Approvazioni dei checkpoint
Nei punti di integrazione obbligatori (ad esempio analisi post-missione, blocco pre-COA, stesura dei preordini), il responsabile della pianificazione deve approvare che l’integrazione dell’IA abbia soddisfatto i criteri: che siano stati presi in considerazione output di IA alternativi, che siano state annotate divergenze di ipotesi e che nessun prompt utilizzato sia stato escluso dalla libreria dei prompt, a meno che non sia esplicitamente giustificato. Queste approvazioni vengono registrate nel registro di controllo. - Cicli di sfida dell’IA del Red Team
Almeno una cellula del Red Team o un revisore indipendente deve ricalcolare o ricontrollare periodicamente gli output dell’IA rispetto ai parametri della missione per testarne la diversità, la robustezza o il potenziale di sfruttamento degli avversari. I loro risultati devono essere confrontati con i risultati del personale e le discrepanze devono essere documentate. - Versione del modello e tagging della certificazione
Le versioni del modello AI utilizzate devono essere contrassegnate (ad esempio nome del modello, checkpoint, date dei dati di training, varianti dell’ensemble) e solo i modelli certificati che superano i test di garanzia possono essere utilizzati nella pianificazione. Il registro di controllo deve registrare l’identità del modello per ogni sessione di prompt. - Filtri di input e controlli di integrità dei prompt:
il sistema deve applicare vincoli di input ai prompt per prevenire fughe di notizie o eccessi: ad esempio, filtrare accidentalmente i dati classificati dai prompt, eliminare credenziali o stringhe protette e garantire che i prompt non incorporino fonti esterne non verificate. Qualsiasi prompt che attivi un filtro deve essere contrassegnato e richiedere l’override umano registrato. - Fallback e gatekeeping incentrato sull’uomo
Nessun output del piano può essere adottato senza revisione umana e giudizio firmato. L’architettura di governance deve imporre un controllo umano significativo . I percorsi di audit degli output di IA accettati devono includere giustificazioni umane, alternative di confronto e problematiche residue. - Audit periodico e supervisione istituzionale
I registri di intelligenza artificiale della cellula di pianificazione dovrebbero essere periodicamente verificati da enti di supervisione esterni: responsabili legali, di conformità, di revisione della dottrina o di validazione di personale di livello superiore. I risultati dovrebbero essere utilizzati per revisioni tempestive della biblioteca, formazione sui ruoli o adattamento dei processi.
Integrazione con i regimi di intelligenza artificiale responsabile e test e valutazione del Dipartimento della Difesa
. La progettazione del controllo di audit deve integrarsi con il percorso di implementazione dell’intelligenza artificiale responsabile (RAI) del Dipartimento della Difesa e con i framework di test e valutazione (T&E) . Il percorso di implementazione RAI stabilisce che i sistemi devono rispettare linee guida etiche, standard di test, controlli di responsabilità, linee guida per l’impiego, integrazione dei sistemi umani e certezze in materia di sicurezza. (Documento verificato) ( media.defense.gov )
Il commento di Lawfare sottolinea che T&E nell’intelligenza artificiale militare è un mezzo pratico per convalidare la conformità ai principi del diritto dei conflitti armati, garantire la robustezza del sistema e individuare le modalità di errore nei casi limite. (7 ottobre 2025) ( lawfaremedia.org ) I log di audit delle celle di pianificazione dovrebbero confluire negli archivi dati T&E, nei banchi di prova avversari dei modelli e nelle analisi retrospettive.
Le migliori pratiche per la valutazione delle prestazioni e della robustezza devono seguire i “Principi per la valutazione delle prestazioni e della robustezza dei modelli AI/ML” (Brown et al., 2021), che definiscono metriche per la generalizzazione, la resilienza avversaria, la sensibilità alle perturbazioni e l’overfitting. (Verificato) ( arxiv.org ) Le celle di pianificazione dovrebbero confrontare le coppie prompt-output accettate con input avversari o scenari di perturbazione per convalidare la stabilità.
Resilienza, modalità fail-safe e rollback di versione.
Poiché i modelli generativi rischiano di generare allucinazioni o derive, il progetto deve includere modalità di backup fail-safe . Se un prompt produce un output con un’incoerenza segnalata, il personale deve ricorrere alla pianificazione esclusivamente umana per quel segmento. L’architettura di audit deve consentire il rollback alle versioni di pianificazione precedenti (prima dell’integrazione dell’IA) se viene rilevato un rischio. Il rollback di versione, l’isolamento dei rami e i flag di rollback devono essere integrati nel repository dei prodotti di pianificazione. Il Telemetry Custodian deve rilevare anomalie e attivare avvisi quando la distanza di modifica, i tassi di rifiuto o il conteggio delle deviazioni superano le soglie.
Progetti pilota incrementali, scalabilità e adozione modulare
. Le celle di pianificazione dovrebbero adottare il progetto di riprogettazione in modo incrementale. I progetti pilota iniziali dovrebbero iniziare in ambienti non critici o di wargame per convalidare modelli di prompt, telemetria e cicli di audit. Dopo perfezionamenti iterativi, l’adozione potrebbe estendersi a celle di pianificazione reali. Poiché non tutte le funzionalità di intelligenza artificiale generativa sono uniformi, la riprogettazione deve rimanere modulare: i team possono adottare moduli di prompt, sottosistemi di telemetria o moduli di audit in modo indipendente man mano che la maturità aumenta.
Interoperabilità e librerie condivise tra celle
Per evitare l’accumulo di dati, le librerie di modelli di prompt, gli schemi di audit e i progetti di telemetria dovrebbero essere federati tra le celle di pianificazione e il personale aziendale. Attraverso il programma Digital Workforce / DA & AI del CDAO , il Dipartimento della Difesa mira a codificare il 50% della forza lavoro totale con ruoli correlati all’intelligenza artificiale entro il 2025, consentendo una tassonomia dei ruoli comune e un’infrastruttura condivisa. (Verificato) ([turn0search0]) Il progetto di riprogettazione di ogni cella dovrebbe integrarsi nella struttura portante aziendale, consentendo la condivisione scalabile, la convergenza delle versioni e l’analisi cross-case.
Evoluzione continua e cicli di adattamento
. Nessuna riprogettazione statica sarà sufficiente. Il team di pianificazione operativa deve trattare il progetto stesso come un artefatto vivo. Feedback di telemetria, audit di red-team, adattamento delle versioni prompt e nuove linee guida dottrinali devono guidare cicli di revisione periodici. Il bibliotecario dei prompt e il custode della telemetria dovrebbero guidare sprint di revisione trimestrali per eliminare i modelli inefficaci, rivedere le soglie di audit e promuovere lezioni inter-team.
Il progetto di riprogettazione integra quattro pilastri: un’architettura dei ruoli con confini e rotazione chiari, una libreria di prompt modulari con versioni multiple, una strumentazione di telemetria completa e rigorosi cicli di controllo verificabili, allineati alle pratiche RAI e T&E. Solo attraverso questa architettura l’IA generativa può essere integrata in modo affidabile nelle celle di pianificazione operativa, garantendo affidabilità, supervisione, adattabilità e fedeltà decisionale.
Tabella riassuntiva completa — IA generativa nella pianificazione operativa militare (capitoli 1–7)
| Capitolo / Area di interesse | Concetto o tema principale | Lezioni operative / Risultati | Istituzioni di supporto e pubblicazioni verificate (collegamento ipertestuale) | Esempio o caso reale | Applicazione pratica per la difesa/politica |
|---|---|---|---|---|---|
| 1. Basi dottrinali e punti di riferimento di governance per l’intelligenza artificiale generativa nella pianificazione congiunta | Fondamenti della dottrina della pianificazione congiunta e a livello di servizio; quadri formali per l’integrazione delle nuove tecnologie nella pianificazione | Gli strumenti di intelligenza artificiale possono integrare ma non sostituire la logica strutturata di JP 5-0 e MCDP 5 ; l’integrazione deve allinearsi con i passaggi decisionali stabiliti | JP 5-0: Pianificazione congiunta (2020) · MCDP 5: Pianificazione (2018) · NIST AI RMF 1.0 (gennaio 2023) | Wargame universitari in cui le cellule di pianificazione utilizzavano uno strumento di intelligenza artificiale durante l’analisi della missione | Collegare gli output dell’IA ai checkpoint dottrinali esistenti in modo che la responsabilità e l’autorità di comando rimangano invariate |
| 2. Punti di inserimento nell’analisi e nella progettazione della missione: mappatura del pensiero divergente per modellare le capacità | Abbinare i punti di forza dell’intelligenza artificiale alle fasi di pianificazione | Massimo valore durante il pensiero divergente (analisi della missione, brainstorming, inquadramento); beneficio limitato durante la convergenza (decisione); è necessario registrare quando e perché è stato utilizzato l’input dell’IA | Profilo di intelligenza artificiale generativa NIST AI 600-1 (luglio 2024) · Toolkit di intelligenza artificiale generativa CDAO (dicembre 2024) | Gli studenti del Marine Corps Command and Staff College hanno utilizzato un modello linguistico per ampliare le inquadrature dei problemi | Richiedi la “revisione dei prompt AI” durante l’analisi della missione e memorizza i prompt + gli output nei registri del team |
| 3. Limiti di competenza, mitigazione dei pregiudizi e prove di collaborazione uomo-macchina | Dove l’intelligenza artificiale aggiunge o riduce valore a seconda dell’esperienza dell’utente | I non esperti traggono vantaggio dalla conoscenza generale dell’IA; gli esperti ne traggono meno; le richieste strutturate di mitigazione dei pregiudizi producono il miglioramento più significativo | RAND RRA2763-1 (agosto 2024) · PDF · NIST AI RMF 1.0 | Gli esperimenti di preparazione del campo di battaglia (IPB) dell’intelligence dell’esercito americano mostrano che le ipotesi alternative generate dall’intelligenza artificiale riducono la distorsione degli analisti | Creare prompt che costringano il modello a elencare spiegazioni alternative; rivedere i risultati con esperti in materia |
| 4. Forza lavoro, percorsi di formazione e garanzia: dall’entusiasmo alla competenza | Colmare il divario tra curiosità e capacità | L’adozione dell’intelligenza artificiale fallisce senza formazione strutturata, tutoraggio e garanzia; il successo richiede liste di controllo e tenuta dei registri | CDAO Generative AI Toolkit (dicembre 2024) · NIST AI RMF 1.0 · NIST AI 600-1 | Corsi pilota del Defense Digital Service e del CDAO (2024-2025) sulla sicurezza tempestiva e sulla registrazione degli audit | Creare badge di competenza AI a livelli; richiedere la tenuta di registri come parte della revisione delle prestazioni |
| 5. Dinamiche di piccolo gruppo e checkpoint obbligatori: integrazione della funzione di forzatura nel lavoro del personale | Il comportamento sociale modella l’uso più della tecnologia | Senza punti di controllo obbligatori, le norme di gruppo prevalgono sull’uso degli strumenti; gli eventi forzati (ad esempio, le revisioni programmate dell’IA) rendono l’adozione coerente | RAND RRA2764-1 (giugno 2025) · PDF · CDAO Toolkit 2024 | I team del personale universitario hanno ignorato lo strumento finché i facilitatori non ne hanno richiesto l’uso in fasi definite | Istituzionalizzare i punti di controllo di revisione dell’IA all’interno delle tappe fondamentali del processo di pianificazione congiunta |
| 6. Un progetto di riprogettazione per i team di pianificazione operativa: ruoli, modelli, telemetria e controlli verificabili | Modifiche strutturali per un utilizzo affidabile e verificabile | Definire quattro ruoli (analista AI, bibliotecario dei prompt, critico dell’output, custode della telemetria); gestire i registri di controllo; applicare il controllo delle versioni per i prompt; registrare le decisioni di accettazione/rifiuto | NIST AI 600-1 · NIST AI RMF 1.0 · Lawfare “T&E nell’intelligenza artificiale militare” (7 ottobre 2025) · CDAO Toolkit 2024 | Prototipo di dashboard di registrazione testate nei progetti Defense Innovation Unit e CDAO 2025 | Adottare standard di telemetria e tracciabilità allineati con la strategia di intelligenza artificiale responsabile del NIST e del DoD |
| 7. Riepilogo pubblico e implicazioni civiche | Una spiegazione chiara per i lettori non tecnici su cosa significhi realmente l’intelligenza artificiale nella pianificazione | L’intelligenza artificiale è uno strumento per idee e velocità, non per decisioni definitive. Il suo utilizzo deve essere verificabile, supervisionato da esseri umani e trasparente per preservare la fiducia. | JP 5-0 · MCDP 5 · NIST AI RMF 1.0 · NIST AI 600-1 · CDAO Toolkit 2024 · RAND RRA2763-1 e RRA2764-1 · Lawfare (2025) · Adozione dell’intelligenza artificiale da parte dell’OCSE (2025) · Rapporti NATO Ucraina (2025) | Il conflitto in Ucraina dimostra la necessità di un supporto decisionale rapido e tracciabile e di un audit dei risultati dell’IA | I decisori politici possono richiedere trasparenza attraverso semplici parametri: elenchi di versioni rapide, moduli di controllo, registri di utilizzo e aggiornamenti della formazione |
Approfondimenti trasversali
| Tema | Risultati coerenti nei capitoli | Fonti chiave verificate |
|---|---|---|
| Trasparenza e verificabilità | Ogni framework credibile richiede registri, controllo delle versioni e tracciabilità di prompt e output | NIST AI RMF 1.0 · NIST AI 600-1 · CDAO Toolkit 2024 · Lawfare 2025 |
| Responsabilità umana | Gli esseri umani devono rimanere i decisori finali; l’intelligenza artificiale suggerisce solo opzioni | JP 5-0 · MCDP 5 · RAND RRA2764-1 |
| Parzialità e correttezza | L’intelligenza artificiale può ridurre il bias di ancoraggio umano se i prompt strutturati richiedono visualizzazioni alternative | RAND RRA2763-1 NIST AI 600-1 |
| Formazione e competenza | Il successo dipende dall’istruzione pratica, dalle liste di controllo e dai cicli di feedback | Toolkit CDAO · NIST AI RMF 1.0 · Adozione dell’IA da parte dell’OCSE 2025 |
| Dinamiche di gruppo | La gerarchia sociale spesso prevale sull’uso degli strumenti; i punti di controllo obbligatori ripristinano l’equilibrio | RAND RRA2764-1 · CDAO Toolkit 2024 |
| Governance e allineamento delle politiche | Gli standard civili (NIST, OCSE) e le norme di difesa (CDAO, JP 5-0) convergono su audit e responsabilità | Tutte le fonti elencate sopra |
Panoramica dei dati (a ottobre 2025)
| Metrica/Set di dati | Valore / Trovare | Fonte verificata |
|---|---|---|
| Utilizzo dell’intelligenza artificiale da parte delle aziende statunitensi | L’8,3% ha dichiarato di utilizzare l’intelligenza artificiale per produrre beni o servizi nell’aprile 2025 | Divari emergenti dell’OCSE (23 giugno 2025) |
| Kit di strumenti per l’intelligenza artificiale responsabile CDAO | Pubblicato nel dicembre 2024 , prima checklist del Dipartimento della Difesa per l’intelligenza artificiale generativa | Kit di strumenti CDAO 2024 |
| Rilascio NIST AI RMF 1.0 | Gennaio 2023 , aggiornato a ottobre 2025 | NIST AI RMF 1.0 |
| Profilo AI generativo NIST AI 600-1 | Luglio 2024 , aggiorna le regole di tracciabilità per i modelli di grandi dimensioni | NIST AI 600-1 |
| Studi di squadra uomo-macchina RAND | RRA2763-1 (2024) e RRA2764-1 (2025) | RAND RRA2763-1 · RAND RRA2764-1 |
| Prova di valutazione e esercitazione di Lawfare | 7 ottobre 2025 , definisce i requisiti di tracciabilità per l’intelligenza artificiale militare | Lawfare 2025 |
| Rapporti di supporto NATO all’Ucraina | Lezioni operative e casi di supporto decisionale rilevanti per l’IA 2024-2025 | Rapporto annuale del Segretario Generale della NATO 2024 (26 aprile 2025) |
Riepilogo a colpo d’occhio
| Dimensione | Stato attuale (2025) | Passaggio successivo consigliato da Verified Guidance |
|---|---|---|
| Tecnologia | L’intelligenza artificiale generativa è sufficientemente matura per la generazione e l’analisi del testo | Limitare l’uso all’analisi della missione e alla generazione di opzioni |
| Persone | Entusiasmo > competenza; formazione ancora limitata | Costruire pipeline di formazione progressive secondo il CDAO Toolkit |
| Processo | Adozione incoerente; cultura di registrazione debole | Imporre checkpoint verificabili e prompt standard |
| Politica / Governance | Disponibili solide linee guida da NIST, CDAO, RAND | Garantire la conformità attraverso la supervisione e le metriche |
| Vigilanza pubblica | Consapevolezza minima dei processi di difesa AI | Pubblicare librerie di prompt redatte e statistiche di utilizzo per la responsabilità |
