HomeArtificial IntelligenceAI GovernanceL'intelligenza artificiale che decide quando sparare: i sistemi letali autonomi della NATO...

L’intelligenza artificiale che decide quando sparare: i sistemi letali autonomi della NATO e l’etica dell’uccisione automatizzata

ESTRATTO

L’accelerazione della militarizzazione dell’intelligenza artificiale da parte della NATO nel 2025 cristallizza uno dei dilemmi più profondi della guerra moderna: la delega di autorità letale agli algoritmi. Mentre la narrazione ufficiale evidenzia l’innovazione responsabile, la trasparenza e i quadri di responsabilità, la traiettoria empirica di investimenti, test e revisione dottrinale riflette una realtà più complessa. L’istituzione del Fondo per l’innovazione della NATO nel 2024 e l’espansione del Fondo di equità per la difesa dell’Unione europea hanno segnato flussi di capitali sostanziali verso sistemi di intelligenza artificiale a duplice uso con potenziali applicazioni letali ( Parlamento europeo, gennaio 2024 ). Esperimenti operativi paralleli, come gli schieramenti marittimi della Task Force X nel febbraio 2025 , hanno messo in mostra piattaforme autonome in grado di esercitare una deterrenza armata in condizioni di semi-supervisione ( Business Insider, febbraio 2025 ). Queste iniziative si sono sviluppate parallelamente ai dibattiti normativi nell’ambito della Convenzione delle Nazioni Unite su alcune armi convenzionali (CCW) , in cui le richieste di divieti giuridicamente vincolanti sui sistemi d’arma autonomi letali (LAWS) sono rimaste bloccate da Stati Uniti , Russia e Israele , mentre Austria , Cile e Messico hanno sostenuto divieti categorici ( Rapporto CCW delle Nazioni Unite, ottobre 2023 ).

Studi critici sottolineano che l’autonomia nei sistemi d’arma non è una caratteristica binaria, ma uno spettro di crescente autorità decisionale delle macchine, che va dal riconoscimento del bersaglio all’autorizzazione all’ingaggio in tempo reale ([Scharre, “Army of None”, MIT Press, 2018]). Le Linee guida NATO sull’autonomia per i professionisti, pubblicate nel dicembre 2023 dal Joint Air Power Competence Centre (JAPCC), hanno tentato di codificare definizioni, categorie operative e salvaguardie ( JAPCC, 2023 ). Tuttavia, permangono significative lacune tra i quadri di riferimento ambiziosi e la realtà del campo di battaglia. L’assenza di una dottrina NATO giuridicamente vincolante che specifichi soglie minime di controllo umano – che si tratti di “human-in-the-loop” o “human-on-the-loop” – crea ambiguità nell’attribuzione delle responsabilità, soprattutto nel caso di vittime civili causate da errori.

La natura “black box” dei moderni modelli di apprendimento automatico aggrava questi rischi. Le revisioni sistematiche condotte nel 2024 dall’Osservatorio sulle politiche di intelligenza artificiale dell’OCSE hanno evidenziato che la spiegabilità diminuisce con l’aumentare della complessità delle reti neurali operative, sollevando dubbi sulla verifica della conformità al diritto internazionale umanitario. Le verifiche tecniche delle piattaforme di droni che incorporano algoritmi adattivi – in particolare il Bayraktar TB2 di Baykar, implementato da diversi stati membri della NATO – dimostrano una crescente autonomia nei sottosistemi di navigazione e puntamento (Stockholm International Peace Research Institute, 2024). Sebbene i produttori li considerino miglioramenti dell’efficienza, il potenziale di deriva algoritmica, spoofing avversariale e avvelenamento dei dati rimane in gran parte irrisolto.

I meccanismi di override etico – algoritmi progettati per interrompere l’ingaggio letale quando i parametri segnalano effetti sproporzionati o illeciti – esistono principalmente a livello di prototipi accademici. Le ricerche di brevetto del 2024 confermano i depositi relativi ai moduli di “override umanitario” , ma non sono disponibili al pubblico linee guida di implementazione standardizzate dalla NATO. Le rivendicazioni relative ai brevetti proprietari della NATO sugli “algoritmi di override etico” mancano di fonti verificate. Di conseguenza, qualsiasi affermazione di adozione istituzionalizzata deve essere considerata come “Nessuna fonte pubblica verificata disponibile”.

In questo panorama di fatti, sorge una domanda tabù: quando un algoritmo uccide per errore, chi è il responsabile? Il diritto internazionale umanitario, così come codificato dalle Convenzioni di Ginevra e dai Protocolli Aggiuntivi, presuppone l’intervento umano nel processo decisionale. Eppure, le uccisioni automatizzate erodono questo presupposto, trasferendo la causalità a basi di codice opache e catene di fornitura distribuite che coinvolgono stati, aziende e subappaltatori. Nel 2024 , gli studiosi dell’Accademia di Diritto Internazionale Umanitario e dei Diritti Umani di Ginevra hanno avvertito che, in assenza di quadri vincolanti di responsabilità, la responsabilità per le morti di civili causate da sistemi autonomi rischia di essere diffusa oltre ogni possibilità di applicazione ( Accademia di Ginevra, dicembre 2024 ).


Fondamenti istituzionali: strategia NATO per l’intelligenza artificiale, meccanismi di finanziamento e linee guida etiche

Ogni dimensione dell’adozione dell’intelligenza artificiale da parte della NATO nel 2024-2025 è ancorata a impegni istituzionali che richiedono un attento esame. Il 10 luglio 2024 , la NATO ha pubblicato una strategia di intelligenza artificiale rivista, che delinea gli obiettivi per stabilire una base per la leadership alleata in un’intelligenza artificiale responsabile, accelerare l’adozione per migliorare l’interoperabilità, salvaguardare dalle minacce di intelligenza artificiale avversaria e promuovere la lungimiranza strategica in tutta l’Alleanza ( nato.int ). Il riepilogo allegato specifica che la strategia rivista si basa sulla versione del 2021 , enfatizzando esplicitamente l’uso responsabile, l’interoperabilità, la protezione dei sistemi di intelligenza artificiale e la mitigazione proattiva delle minacce ( europarl.europa.eu ). La NATO si è inoltre impegnata a stabilire un sistema di test, valutazione, verifica e convalida (TEV&V) a livello di Alleanza per supportare l’impiego responsabile dell’intelligenza artificiale ( Breaking Defense ). Questi elementi riflettono un’evoluzione da un’affermazione retorica a un’architettura procedurale concreta.

Altrettanto significativa è la fondazione del NATO Innovation Fund , istituito nel 2022 e sostenuto da 24 alleati della NATO , con una capacità di dispiegamento superiore a 1 miliardo di euro in investimenti in tecnologie avanzate ( Nato Innovation Fund ). L’investimento inaugurale del Fondo in quattro aziende è stato annunciato il 18 giugno 2024 , segnando l’avvio operativo dell’impegno su scala di venture capital in startup rilevanti per la difesa ( nato.int ). Una partnership stipulata il 2 luglio 2024 tra il Fondo europeo per gli investimenti (FEI) e il NATO Innovation Fund ha formalizzato un Memorandum d’intesa per espandere i finanziamenti a startup, PMI e aziende a media capitalizzazione nei settori della difesa, della sicurezza e della resilienza ( eif.org ). I dati di Dealroom e del Fondo pubblicati nel febbraio 2025 hanno evidenziato un investimento record di 5,2 miliardi di dollari in capitale di rischio europeo in tecnologie di difesa, sicurezza e resilienza nel corso del 2024 , un aumento del 24% che ha notevolmente superato la più ampia crisi del capitale di rischio ( Nato Innovation Fund ).

Lo stesso rapporto del febbraio 2025 ha anche rivelato che le tecnologie a supporto di “consapevolezza, comprensione e processo decisionale” – una categoria che include l’intelligenza artificiale a duplice uso – hanno ottenuto finanziamenti per 1 miliardo di dollari nel 2024 , con un incremento di quattro volte rispetto al 2020 e quasi il doppio rispetto all’anno precedente ( Nato Innovation Fund ). La Germania è emersa come leader regionale nel venture capital, soprattutto a Monaco, che ha eclissato il Regno Unito nell’attrazione di finanziamenti; tra gli investimenti degni di nota figurano un round da 450 milioni di euro per Helsing, per lo sviluppo dell’intelligenza artificiale per il campo di battaglia, e un round da 70 milioni di euro per il produttore di droni Tekever ( Financial Times ).

A fine novembre 2024 , il NATO Innovation Fund ha partecipato a un round di finanziamento da 70 milioni di euro per TEKEVER, consentendo l’espansione delle aziende di sistemi aerei senza pilota basati sull’intelligenza artificiale ( uasmagazine.com ). La strategia di investimento del Fondo si è estesa al settore biotecnologico, come dimostrato il 30 giugno 2025 , quando ha co-guidato un round di finanziamento da 35 milioni di dollari per Portal Biotech, un’azienda con sede nel Regno Unito che sviluppa sensori portatili assistiti dall’intelligenza artificiale per il rilevamento di agenti patogeni ingegnerizzati, nell’ambito del più ampio investimento della NATO per la resilienza ( Reuters ).

Inoltre, il Defence Innovation Accelerator for the North Atlantic (DIANA) è diventato operativo il 19 giugno 2023 , fungendo da rete NATO di siti di accelerazione e centri di prova per tecnologie a duplice uso emergenti e dirompenti ( Wikipedia ). Entro il 14 marzo 2024 , DIANA era cresciuto fino a 23 siti di accelerazione e 182 centri di prova , con l’obiettivo di raggiungere la piena capacità operativa entro il 2025 ; un hub regionale a Tallinn è stato inaugurato nel maggio 2024 ( Wikipedia ).

La NATO ha inoltre ampliato la propria capacità strategica attraverso il programma Science for Peace and Security (SPS) , che ha subito un riallineamento tematico nell’aprile 2024 per includere l’innovazione e le tecnologie emergenti dirompenti come area di interesse chiave, consentendo così la cooperazione scientifica e tecnologica transnazionale ( Wikipedia ). L’ Organizzazione per la scienza e la tecnologia (STO) dell’Alleanza rimane la spina dorsale istituzionale della strategia scientifica e tecnologica, composta da gruppi di lavoro come l’Information Systems Technology Panel, che dà priorità all’intelligenza artificiale, alla sicurezza informatica e all’interoperabilità, e il System Analysis and Studies Panel, che offre supporto alle decisioni strategiche ( Wikipedia ).

Altrettanto importante è la strategia sui dati della NATO , pubblicata il 30 maggio 2025 (concordata nel febbraio 2025 ), che sottolinea l’utilità strategica della governance dei dati per sostenere le capacità dell’intelligenza artificiale, la condivisione dei dati tra gli alleati e la sicurezza dei pipeline di dati, infrastrutture critiche per i sistemi abilitati dall’intelligenza artificiale ( nato.int ).

Le deliberazioni a livello politico hanno anche riformulato gli impegni fiscali: al vertice NATO dell’Aia del 2025 , tenutosi il 24 e 25 giugno , gli Stati membri hanno concordato di aumentare le spese per la difesa e la sicurezza al 5% del PIL entro il 2035 , con il 3,5% destinato alle esigenze militari fondamentali e l’1,5% ai settori della resilienza e dell’innovazione. La revisione dei progressi è prevista per il 2029 ( Wikipedia ). Personaggi diplomatici come Jean-Charles Ellermann-Kingombe , in un’intervista danese del 2025 , hanno avvertito che la NATO rischiava di rimanere indietro rispetto alla Cina nelle tecnologie critiche e hanno fortemente sostenuto un piano di accelerazione tecnologica sostenuto dal Fondo per l’innovazione da 1 miliardo di euro e dalla rete DIANA ( Wikipedia ).

Parallelamente, la NATO ha incrementato le sue capacità operative in materia di intelligenza artificiale; nel 2025 , l’Alleanza ha acquisito il Maven Smart System (MSS Nato) da Palantir, integrando intelligenza artificiale generativa, apprendimento automatico e LLM per migliorare l’analisi dei dati sul campo di battaglia, la fusione di intelligence, il targeting e la pianificazione operativa. L’acquisizione, completata in soli sei mesi, è tra le più rapide nella storia dell’Alleanza ( Financial Times ).

La ricerca accademica e politica sostiene la necessità di una supervisione incentrata sull’uomo. Uno studio del dicembre 2024 intitolato “Human-centred test and evaluation of military AI” (REAIM 2024 Blueprint) sottolinea che gli esseri umani devono rimanere responsabili durante l’intero ciclo di vita dei test dell’intelligenza artificiale, con solidi framework TEVV adattati dalla ricerca sui fattori umani ( arxiv.org ). Un white paper del febbraio 2025 sulle considerazioni etiche per l’uso militare dell’intelligenza artificiale nella ricognizione visiva sottolinea principi quali equità, responsabilità, trasparenza, tracciabilità, proporzionalità, responsabilità e affidabilità, valutati in tutti i casi d’uso in contesti marittimi, aerei e terrestri ( arxiv.org ).

Nessuna fonte pubblica verificata conferma l’esistenza dei sistemi denominati “Vigilant Mind”, “Iron Shield 2025”, brevetti NATO su “algoritmi di override etico” per droni autonomi, o qualsiasi modifica black-box dei droni Bayraktar. Queste affermazioni rimangono … Nessuna fonte pubblica verificata disponibile .

Questa architettura istituzionale, che comprende politiche strategiche per l’IA, meccanismi di finanziamento, acceleratori di innovazione, strategia sui dati, impegni di spesa a livello di vertice, acquisizione di IA e ricerca normativa basata sull’evidenza, illustra l’approccio multidimensionale della NATO all’integrazione dell’IA nelle capacità di difesa. Tuttavia, solleva anche questioni fondamentali riguardo alla chiarezza della responsabilità, all’allineamento tra investimenti e supervisione e all’adeguatezza dei meccanismi di governance, mentre l’Alleanza spinge verso una maggiore autonomia nei sistemi letali.

Rischi tecnici e operativi dei sistemi d’arma autonomi letali

L’operatività dell’intelligenza artificiale nei sistemi d’arma introduce una serie di rischi che comprendono l’affidabilità tecnica, la vulnerabilità informatica, l’instabilità dell’escalation e l’imprevedibilità sistemica. L’enfasi della NATO sull’innovazione responsabile non sminuisce la realtà che i sistemi d’arma autonomi letali ( LAWS ) si basano su processi di apprendimento automatico il cui comportamento in ambienti avversari spesso diverge dalle condizioni di test controllate. Un rapporto del novembre 2024 dell’Osservatorio sulle politiche di intelligenza artificiale dell’OCSE ha documentato che i livelli di accuratezza dei sistemi avanzati di visione artificiale sono diminuiti fino al 32% quando esposti a perturbazioni avversarie deliberatamente introdotte nei set di dati di immagini (OCSE, novembre 2024). In condizioni di battaglia, tali perturbazioni possono essere generate tramite mimetizzazione, esche o contromisure elettroniche, causando un’identificazione errata del bersaglio che rischia conseguenze catastrofiche se associata a carichi letali.

Il problema è aggravato dalla deriva algoritmica, in cui i parametri del modello cambiano a causa delle modifiche dei dati immessi durante operazioni prolungate. Uno studio condotto dallo Stockholm International Peace Research Institute (SIPRI) nel marzo 2024 ha identificato che i droni adattivi impiegati con framework di apprendimento per rinforzo online potrebbero gradualmente ricalibrare le soglie di puntamento senza che l’operatore ne sia consapevole, amplificando i falsi positivi nel tempo (SIPRI, marzo 2024). Ciò solleva interrogativi critici sulla responsabilità: se un drone schierato dalla NATO colpisce bersagli involontari dopo settimane di ricalibrazione non supervisionata, l’attribuzione di responsabilità si diffonde tra ingegneri, comandanti e responsabili politici dell’alleanza.

Un altro vettore di rischio deriva dalle intrusioni informatiche. I sistemi autonomi sono sicuri solo quanto lo sono le loro catene di fornitura software. Nel giugno 2024 , l’ Agenzia dell’Unione Europea per la Cybersecurity (ENISA) ha pubblicato la sua Valutazione della Vulnerabilità Informatica dell’IA in Difesa, concludendo che il 78% delle applicazioni di difesa basate sull’IA valutate presentava dipendenze software sfruttabili a causa di librerie open source obsolete (ENISA, giugno 2024). Lo sfruttamento potrebbe consentire agli avversari di dirottare il controllo, falsificare gli input dei sensori o iniettare codice dannoso per innescare attacchi letali involontari. Ciò riecheggia i precedenti risultati della Defense Advanced Research Projects Agency (DARPA) degli Stati Uniti nel 2023 , che simulava attacchi red-team su veicoli autonomi e dimostrava che i segnali audio avversari potevano ignorare i comandi di navigazione.

Il ritmo operativo dei sistemi autonomi crea anche rischi di instabilità nell’escalation. Un documento di lavoro del dicembre 2024 dell’Istituto delle Nazioni Unite per la Ricerca sul Disarmo (UNIDIR) ha avvertito che i cicli decisionali automatici ad alta velocità potrebbero superare i canali di de-escalation diplomatica umana, comprimendo le finestre di risposta alle crisi a secondi anziché a ore (UNIDIR, dicembre 2024). Nella regione baltica, dove la NATO ha aumentato l’impiego di droni di sorveglianza e sistemi marittimi senza equipaggio, tale accelerazione rischia di provocare un’escalation involontaria se le piattaforme autonome classificano erroneamente le navi civili come risorse avversarie. Questa dinamica riflette il più ampio paradosso dell’automazione: pur riducendo l’errore umano in alcuni contesti, introduce vulnerabilità sistemiche escludendo il giudizio umano nei momenti di crisi.

La stima dei danni collaterali rimane un’altra sfida irrisolta. I protocolli di test della NATO incorporano metodologie di stima dei danni collaterali derivate da modelli software del Dipartimento della Difesa degli Stati Uniti , come FAST-CD , che tentano di quantificare il raggio di esplosione e la prossimità ai civili prima degli attacchi. Tuttavia, un audit del 2024 del Government Accountability Office (GAO) ha rilevato margini di errore superiori al 27% nelle simulazioni di densità urbana ( GAO, agosto 2024 ). La traduzione di tali modelli in piattaforme autonome aumenta il rischio, poiché gli errori sono automatizzati anziché mediati da operatori umani in grado di intervenire discrezionalmente.

Le esperienze di dispiegamento operativo sottolineano questi rischi. Durante le esercitazioni della NATO Task Force X del febbraio 2025 nel Mar Baltico, navi di superficie senza equipaggio hanno condotto test di fuoco in condizioni semi-supervisionate. Mentre la NATO ha dichiarato i test positivi, le revisioni interne post-azione riportate da Business Insider hanno evidenziato momenti di “anomalie nella fusione dei sensori” in cui i feed radar e sonar hanno prodotto output di classificazione contraddittori ( Business Insider, febbraio 2025 ). Sebbene gli operatori siano intervenuti prima delle decisioni di ingaggio, queste anomalie dimostrano come le reti di sensori integrate possano destabilizzare i cicli decisionali autonomi. In assenza di supervisione umana, le classificazioni errate potrebbero trasformarsi in errori letali.

La dipendenza da componenti di intelligenza artificiale sviluppati commercialmente introduce ulteriori rischi di opacità e dipendenza. Un’indagine condotta dal Center for Security and Emerging Technology (CSET) nell’ottobre 2024 ha rivelato che il 62% dei moduli di intelligenza artificiale incorporati nei sistemi autonomi degli stati membri della NATO conteneva codice proprietario proveniente da aziende tecnologiche multinazionali (CSET, ottobre 2024). Questa dipendenza solleva interrogativi sui controlli sulle esportazioni, sulle restrizioni alle licenze e sull’esposizione geopolitica dell’autonomia militare alle interruzioni della catena di approvvigionamento. Se un fornitore modifica il proprio algoritmo proprietario o ne interrompe il supporto, i sistemi impiegati potrebbero subire un calo delle prestazioni o un comportamento imprevisto in ambienti di combattimento.

Un ulteriore rischio operativo deriva da carenze di spiegabilità. Le reti neurali profonde spesso raggiungono risultati ottimali sacrificando la trasparenza. Una revisione del 2024 dell’Accademia di Ginevra per il diritto internazionale umanitario e i diritti umani ha sottolineato che la valutazione della conformità alle Convenzioni di Ginevra richiede spiegazioni verificabili per ogni decisione di targeting ( Accademia di Ginevra, dicembre 2024 ). Tuttavia, le tecniche di intelligenza artificiale spiegabili in genere funzionano a posteriori e non possono garantire l’interpretabilità in tempo reale negli scenari di combattimento. Se una piattaforma autonoma esegue un attacco letale, ricostruire il percorso decisionale causale diventa quasi impossibile, minando così i quadri di responsabilità.

L’instabilità dell’escalation è amplificata dalle interazioni multi-agente. Le simulazioni condotte nel 2024 dalla RAND Corporation hanno dimostrato che quando sciami di droni autonomi ingaggiano sciami avversari, i comportamenti emergenti spesso si discostano dagli obiettivi programmati, producendo cicli oscillanti di attacco-ritirata che nessuno degli operatori umani delle due parti aveva previsto. Tale comportamento emergente introduce imprevedibilità nelle dinamiche del conflitto, dove le interazioni macchina-macchina potrebbero degenerare in un’escalation senza un’intenzione umana deliberata. Applicati al muro di droni progettato dalla NATO lungo la frontiera orientale, tali fenomeni rischiano di minare la stabilità della deterrenza.

Inoltre, i rischi umanitari rimangono elevati nei teatri urbani. Una ricerca del Comitato Internazionale della Croce Rossa (CICR) del 2024 ha evidenziato che i sistemi di puntamento autonomi hanno difficoltà a distinguere i combattenti dai civili in contesti di guerra asimmetrica, in particolare quando gli avversari operano senza uniformi o all’interno di popolazioni civili miste (CICR, 2024). Il CICR ha concluso che le limitazioni tecniche rendono il rispetto dei principi di distinzione e proporzionalità irrealizzabile per le attuali piattaforme autonome. Questa affermazione mette in discussione le garanzie della NATO secondo cui i protocolli di test sono sufficienti a proteggere da esiti illeciti.

L’integrazione ciberfisica moltiplica la superficie di attacco. Uno studio del 2025 dell’Agenzia dell’Unione Europea per la Cybersecurity (ENISA) ha osservato che gli avversari che sfruttano i canali di comunicazione satellitare potrebbero indurre “cascate di desincronizzazione” negli sciami di droni, portando a frammentazione spaziale e collisioni a mezz’aria (ENISA, gennaio 2025). Tali vulnerabilità sono particolarmente preoccupanti per la NATO, le cui reti di comando distribuite si basano in larga misura su ripetitori satellitari sicuri. Il rafforzamento sistematico rimane limitato dalla natura classificata e proprietaria dei chip embedded, complicando gli audit di terze parti.

Anche l’autonomia energetica è una dimensione di rischio. I sistemi senza equipaggio con capacità letali dipendono dalle riserve di batterie o carburante, il che può limitare la durata della missione e costringere le piattaforme a cicli di rifornimento o ricarica non supervisionati. L’ Agenzia Internazionale per l’Energia (IEA) nel 2024 ha osservato che le tendenze previste per l’elettrificazione del campo di battaglia aumenteranno la dipendenza dall’accumulo di ioni di litio del 44% entro il 2030 , aumentando la vulnerabilità logistica ai colli di bottiglia della catena di approvvigionamento e al sabotaggio ( IEA, 2024 ). Tali dipendenze collegano l’efficacia e il profilo di rischio delle piattaforme autonome alla più ampia geopolitica energetica.

L’interazione di questi rischi rivela che le dimensioni tecniche e operative della letalità autonoma non sono né isolate né meramente teoriche. Convergono in modi imprevedibili che potrebbero minare la stabilità strategica della NATO. Mentre investimenti e dottrine enfatizzano un dispiegamento responsabile, le proprietà intrinseche degli algoritmi adattivi, delle complesse catene di approvvigionamento e delle dipendenze cyber-fisiche impediscono che il rischio possa essere completamente mitigato.

Controllo umano, responsabilità e il problema del processo decisionale basato sulla scatola nera

Il principio del controllo umano sull’uso della forza è centrale nel diritto internazionale umanitario sin dall’adozione delle Convenzioni di Ginevra del 1949 , tuttavia l’avanzamento dell’intelligenza artificiale nell’arsenale della NATO mette in discussione la fattibilità di mantenere tale controllo nella pratica. Le Linee guida NATO sull’autonomia per gli operatori , pubblicate nel dicembre 2023 dal Joint Air Power Competence Centre, classificano i gradi di autonomia lungo un continuum che va dall’essere umano nel ciclo, in cui gli esseri umani avviano ogni ingaggio, all’essere umano nel ciclo, in cui la supervisione viene mantenuta ma l’esecuzione può essere automatizzata, e infine all’essere umano fuori dal ciclo, in cui le decisioni letali sono completamente delegate ad algoritmi ( JAPCC, 2023 ). Sebbene le Linee guida sottolineino che gli esseri umani devono rimanere responsabili delle decisioni, la NATO non ha codificato soglie vincolanti che richiedano la presenza di un operatore umano nel ciclo decisionale, lasciando così una zona grigia in cui l’autonomia potrebbe scivolare verso la delega di autorità letale.

Questo problema si interseca direttamente con la responsabilità. Nei sistemi governati da reti neurali opache, le decisioni non vengono prodotte attraverso percorsi logici trasparenti, ma emergono da probabilità ponderate distribuite su milioni di parametri. Un rapporto del dicembre 2024 dell’Accademia di Ginevra per il diritto internazionale umanitario e i diritti umani ha concluso che l’opacità della scatola nera mina l’attribuzione di responsabilità perché nessun attore nella catena di progettazione, approvvigionamento, distribuzione e funzionamento può spiegare con certezza perché un sistema abbia prodotto un particolare esito letale ( Accademia di Ginevra, dicembre 2024 ). L’Accademia ha sottolineato che senza spiegabilità, il rispetto dei principi di distinzione e proporzionalità diventa non verificabile. I tribunali che giudicano le violazioni del diritto umanitario richiedono nessi causali dimostrabili, eppure le armi basate sull’intelligenza artificiale dissolvono questi nessi nel processo decisionale probabilistico.

Il divario di responsabilità si amplia se si considerano le pipeline di sviluppo multi-stakeholder. I dati del Center for Security and Emerging Technology (CSET) del 2024 hanno mostrato che il 62% dei moduli di intelligenza artificiale integrati nelle piattaforme di difesa della NATO deriva da fornitori commerciali proprietari, con ulteriore subappalto a fornitori secondari (CSET, ottobre 2024). Pertanto, quando un errore algoritmico causa vittime civili, la responsabilità è potenzialmente distribuita tra le strutture di comando della NATO, gli appaltatori principali, i subappaltatori e i fornitori di software in più giurisdizioni. Ciò solleva la prospettiva di una diffusione di responsabilità, in cui nessun singolo attore è ritenuto legalmente responsabile.

La Convenzione delle Nazioni Unite su alcune armi convenzionali (CCW) ha dibattuto la questione dal 2014 , con ripetuti appelli a sancire il “controllo umano significativo” come standard giuridico vincolante. Tuttavia, a ottobre 2023 , i tentativi di istituire un divieto o una moratoria sono falliti, poiché Stati Uniti , Russia e Israele si sono opposti a strumenti restrittivi, mentre paesi come Austria e Messico hanno premuto per un divieto categorico ( Rapporto CCW delle Nazioni Unite, ottobre 2023 ). Gli alleati della NATO si collocano lungo questo spettro, con alcuni che enfatizzano la moderazione etica e altri che danno priorità alla flessibilità strategica. L’assenza di consenso consolida l’ambiguità nella posizione collettiva della NATO.

Le iniziative a livello nazionale rivelano tentativi di colmare il divario di responsabilità. Nel 2022 , il Dipartimento della Difesa degli Stati Uniti ha pubblicato la sua Strategia e Percorso di Implementazione per l’IA Responsabile, aggiornata nel 2023 per includere mandati per i processi di test, valutazione, verifica e convalida (TEVV). Tuttavia, come rilevato dal Government Accountability Office (GAO) degli Stati Uniti in una revisione dell’agosto 2024 , i report di conformità erano incoerenti e la documentazione per la convalida delle decisioni algoritmiche era incompleta nel 41% dei progetti di IA campionati ( GAO, agosto 2024 ). Se uno dei membri della NATO tecnologicamente più avanzati ha difficoltà con la documentazione, l’Alleanza si trova ad affrontare rischi aggravati nel tentativo di armonizzare i diversi sistemi nazionali.

Le carenze di spiegabilità aggravano il problema della responsabilità. Una ricerca pubblicata su Nature Machine Intelligence nell’ottobre 2024 ha concluso che i metodi di intelligenza artificiale spiegabile (XAI) spesso creano un “falso senso di trasparenza”, poiché le mappe di salienza e le interpretazioni post hoc non riescono a riflettere il genuino ragionamento causale dei modelli di apprendimento profondo ( Nature Machine Intelligence, ottobre 2024 ). Quando tali tecniche vengono applicate ai sistemi di intelligenza artificiale sul campo di battaglia, i comandanti possono credere che la supervisione sia solida, quando in realtà rimangono ciechi ai veri meccanismi del processo decisionale. Questa opacità epistemica mette a rischio la responsabilità mascherando l’incertezza.

L’Unione Europea ha tentato di colmare queste lacune attraverso la regolamentazione. L’ Artificial Intelligence Act dell’UE , finalizzato nel dicembre 2023 , ha esplicitamente classificato l’IA utilizzata nelle infrastrutture critiche e nella difesa come applicazioni ad alto rischio che richiedono una supervisione rigorosa (Parlamento Europeo, dicembre 2023). Tuttavia, la NATO, in quanto alleanza militare, non è vincolata dal diritto dell’UE e le divergenze nei regimi normativi rischiano di creare quadri di responsabilità incoerenti. Ad esempio, un drone autonomo di fabbricazione francese che opera secondo la normativa UE sulle esportazioni potrebbe aderire a standard più rigorosi rispetto a un sistema di fabbricazione statunitense esente da tali norme, con conseguenti tensioni di interoperabilità nelle missioni congiunte NATO.

Un precedente storico dimostra come le lacune di responsabilità si manifestino a livello operativo. Nel 2020-2021 , in Libia, i rapporti hanno documentato che i droni Kargu-2 di fabbricazione turca operavano con capacità di puntamento autonomo contro le forze in ritirata. Sebbene l’attribuzione sia rimasta controversa, l’incidente ha evidenziato la fattibilità di esiti letali senza intervento umano. La NATO non ha confermato l’uso operativo di tali sistemi, ma il precedente illustra i rischi di un processo decisionale “black-box” che si riversa nei teatri operativi che coinvolgono i partner dell’alleanza. Affermazioni su incidenti NATO simili in Lituania nel 2025 rimangono . Nessuna fonte pubblica verificata disponibile.

Le implicazioni filosofiche vanno oltre l’attribuzione legale. Delegare il processo decisionale letale ad algoritmi trasforma l’ontologia della guerra. Filosofi della tecnologia come Peter Asaro sostengono che la responsabilità è una precondizione della responsabilità morale e, senza la responsabilità umana, la guerra diventa un ambito in cui l’uccisione è burocraticamente automatizzata anziché moralmente giudicata (Asaro, Ethics of Autonomous Weapons , 2024 ). Gli attuali quadri normativi della NATO riconoscono questo rischio in linea di principio, ma non incorporano ancora garanzie vincolanti di responsabilità umana.

Anche laddove gli esseri umani rimangano formalmente coinvolti, il fenomeno del bias cognitivo compromette il controllo significativo. Uno studio RAND del 2024 ha rilevato che nell’87 % degli incarichi simulati, gli operatori umani si sono affidati alle raccomandazioni di targeting algoritmico anche quando informazioni contraddittorie suggerivano cautela (RAND, 2024). Ciò suggerisce che il semplice fatto di richiedere a un operatore umano di approvare gli attacchi non garantisce la responsabilità se il bias cognitivo porta ad approvare automaticamente gli output algoritmici.

I mercati assicurativi e di responsabilità civile forniscono un’ulteriore prova del divario di responsabilità. Secondo un rapporto del 2024 dei Lloyd’s di Londra, non esistono strumenti assicurativi standardizzati per gli incidenti che coinvolgono armi autonome, poiché l’attribuzione della colpa rimane indeterminata. Questa assenza di assicurabilità segnala che anche i meccanismi di valutazione del rischio del settore privato non riescono a conciliare l’opacità della scatola nera con i quadri di responsabilità. I membri della NATO che si affidano ad appaltatori privati per la gestione o la manutenzione dei sistemi autonomi rischiano quindi l’esposizione a responsabilità non assicurate.

Le organizzazioni della società civile continuano a premere per una risoluzione. La Campagna per fermare i robot killer , nel suo policy brief del 2024 , ha sostenuto che delegare decisioni letali ad algoritmi viola di per sé il diritto internazionale, indipendentemente dai livelli di spiegabilità. La NATO non ha adottato questa posizione, ribadendo invece che i sistemi autonomi devono rimanere soggetti a revisione legale ed etica. Tuttavia, la visibilità della campagna dimostra una persistente pressione normativa che la NATO non può ignorare, soprattutto negli stati membri democratici dove l’opinione pubblica vincola la politica di difesa.

Il problema della responsabilità è quindi multidimensionale: i quadri giuridici mancano di standard applicabili, l’opacità tecnologica impedisce l’attribuzione, i pregiudizi umani erodono una supervisione significativa e i mercati privati rifiutano la copertura della responsabilità. Senza riforme istituzionali vincolanti, la NATO rischia di schierare sistemi i cui errori uccideranno civili senza che nessuno sia in grado – o disposto – ad assumersene la responsabilità. La diffusione della responsabilità attraverso una catena di attori diluisce la responsabilità fino al punto di venirne meno, minando sia la legittimità morale delle operazioni NATO sia l’applicabilità del diritto umanitario.

Implementazione industriale: droni autonomi, piattaforme e pratiche degli Stati membri della NATO

Le prove navali autonome nel Mar Baltico nel giugno 2025 hanno dimostrato l’integrazione di navi di superficie senza equipaggio con gruppi di lavoro alleati sotto la supervisione del Comando alleato per la trasformazione della NATO e del Comando marittimo alleato , con interoperabilità, manovre di fuoco vivo e obiettivi di protezione delle infrastrutture critiche descritti pubblicamente dai comandanti e dai responsabili del programma in un articolo ufficiale del 26 febbraio 2025 del Comando alleato per la trasformazione e in una nota operativa del 5 giugno 2025 del Comando marittimo della NATO che dettaglia gli obiettivi di comando e controllo, il riempimento delle lacune dell’AIS e il rapido ridimensionamento tramite dimostrazioni della Task Force X , riflettendo un passaggio dalla valutazione dei piloti alla sperimentazione operativa a livello di flotta ( articolo del Comando alleato per la trasformazione della NATO , avviso del Comando marittimo della NATO ).

L’accelerazione industriale in tutta l’Alleanza è basata su una rete di test ampliata: il Defence Innovation Accelerator for the North Atlantic ( DIANA ) della NATO ha registrato una crescita della rete a 23 siti di accelerazione e 182 centri di test in 28 paesi alleati a marzo 2024 , con materiali del programma e pagine tematiche aggiornate fino al 25 giugno 2025 che confermano oltre 200 acceleratori e strutture di test e la selezione di oltre 70 aziende per la coorte di acceleratori del 2025 , tratte da oltre 2.600 candidature, che formalizza i percorsi dalle chiamate di sfida all’adozione e alla verifica da parte dell’utente finale in strutture accreditate ( notizie NATO , marzo 2024 , argomento NATO Emerging and Disruptive Technologies , 25 giugno 2025 , homepage NATO DIANA , notizie NATO , dicembre 2024 sulla coorte del 2025 , elenco delle coorti DIANA , rete dei centri di test DIANA ).

La formazione di capitale ha integrato l’accesso al banco di prova: il NATO Innovation Fund ( NIF ) ha riportato 5,2 miliardi di dollari in finanziamenti di venture capital per la difesa, la sicurezza e la resilienza europea nel 2024 in un rapporto congiunto del 12 febbraio 2025 con Dealroom , notando una crescita biennale del 30% rispetto a una contrazione più ampia delle venture capital; il NIF ha annunciato un investimento principale in TEKEVER nel luglio 2024 , seguito da un investimento del 9 luglio 2025 in Kongsberg Ferrotech , segnalando un appetito sostenuto per stack di autonomia, percezione e resilienza a duplice uso che possono passare dalla fase pilota all’approvvigionamento all’interno della NATO e dei ministeri nazionali ( nota del rapporto NIF , 12 febbraio 2025 , investimento TEKEVER , luglio 2024 , NIF Kongsberg Ferrotech , 9 luglio 2025 ).

Le transizioni di approvvigionamento sono visibili nell’introduzione del Protector RG Mk1 ( MQ-9B ) nel servizio della Royal Air Force da parte del Regno Unito il 16 giugno 2025 , una piattaforma certificata per il volo nello spazio aereo non segregato del Regno Unito con capacità di rilevamento ed elusione e integrazione delle armi Brimstone e Paveway IV ; le divulgazioni del programma tracciano le tappe della consegna dall’arrivo del 30 settembre 2023 alla RAF Waddington , fino ai voli di prova e all’installazione della stazione di terra del 12 febbraio 2025 , fino alle operazioni multi-aereo entro il 2024 , illustrando un modello di acquisizione che abbina i casi di sicurezza dello spazio aereo civile al potenziale di dispiegamento di ISTAR armati ( ingresso in servizio nella Royal Air Force , 16 giugno 2025 , pagina degli aerei della Royal Air Force , nota sui test di equipaggiamento e supporto per la difesa , 12 febbraio 2025 , riferimento al rapporto annuale DE&S all’arrivo del 30 settembre 2023 , aggiornamento di General Atomics Aeronautical Systems , 22 luglio 2024 ).

La ricognizione autonoma a corto raggio ha fatto progressi in Germania con il programma LUNA NG : Rheinmetall ha documentato 13 sistemi per la Bundeswehr in un annuncio del 28 settembre 2023 , con consegne previste a partire dal 2025 e un’autonomia superiore a 12 ore e un’autonomia superiore a 100 chilometri per tratta di collegamento dati, posizionando la piattaforma per i rami di artiglieria e ricognizione; le schede ufficiali del prodotto descrivono la fusoliera in fibra di carbonio, l’evoluzione VTOL e le opzioni per il ripetitore di comunicazioni mentre l’azienda itera verso la flessibilità multi-carico utile ( annuncio dell’ordine Rheinmetall , 28 settembre 2023 , pagina del prodotto Rheinmetall LUNA , brochure Rheinmetall LUNA NG, 17 giugno 2024 , opuscolo tecnico Rheinmetall LUNA NG ).

L’approvvigionamento di massa di munizioni vaganti in Polonia è dimostrato dall’accordo quadro del 15 maggio 2025 per quasi 10.000 sistemi WARMATE tra l’ Agenzia per gli armamenti e WB GROUP , con comunicazioni aziendali che sottolineano l’integrazione con la suite nazionale di controllo del fuoco e comando TOPAZ e l’implementazione tramite l’architettura modulare di ricognizione-attacco GLADIUS che consente operazioni a livello di batteria e lanciatori multisistema, riflettendo una tendenza a unire la ricerca autonoma con i tiri in rete nell’artiglieria divisionale ( annuncio WB GROUP , 15 maggio 2025 , descrizione del prodotto GLADIUS , bolla di consegna WB GROUP , contratto 2022 , portafoglio UAV WB GROUP ).

Le capacità di attacco autonomo tattico nella base industriale della difesa della Turchia includono le famiglie KARGU e ALPAGU di STM , dove le pagine tecniche ufficiali descrivono la navigazione completamente autonoma, il tracciamento del bersaglio assistito dall’apprendimento automatico e gli involucri operativi giorno-notte per varianti ad ala rotante e fissa, con concetti di sciame multipiattaforma segnalati per ALPAGUT ; queste divulgazioni sottolineano che i fornitori nazionali all’interno dell’Alleanza producono UAV muniti di munizioni in grado di eseguire flussi di lavoro di perseguimento del bersaglio con un input limitato dell’operatore, subordinatamente a regole di ingaggio che rimangono autorizzate dall’uomo in molte dottrine ( STM KARGU , STM ALPAGU , STM ALPAGUT ).

Gli arsenali a media altitudine e lunga durata in Turchia includono anche il Baykar Bayraktar TB2 , la cui divulgazione tecnica ufficiale fa riferimento a un’architettura di munizioni guidate elettro-ottiche e a una storia di servizio ampiamente esportata, a dimostrazione del fatto che la produzione degli stati alleati copre sia munizioni vaganti attritive che piattaforme MALE di fascia alta , fornendo un ecosistema stratificato che alimenta le esercitazioni dell’Alleanza e i canali di approvvigionamento nazionali con diverse modalità di autonomia e certificazioni del carico utile ( Baykar Bayraktar TB2 ).

L’autonomia di superficie e sottomarina nella rete di laboratori dell’Alleanza è ancorata al Centro per la ricerca e la sperimentazione marittima della NATO Science & Technology Organization a La Spezia , che documenta campagne di sperimentazione di routine e competizioni tra studenti e industria entro il 12 marzo 2025 incentrate sull’ispezione robotica e sulla protezione delle infrastrutture sottomarine critiche, mentre l’iniziativa Digital Ocean della NATO durante settembre 2024 a REPMUS 24 ha formalizzato concetti mesh per sistemi autonomi eterogenei, tra cui barriere antisommergibile cooperative e ISR persistenti che richiedono modelli di dati condivisi, controllo consapevole della latenza e robustezza dell’elaborazione dei bordi contro lo spettro contestato ( pagina STO CMRE , notizie CMRE , 12 marzo 2025 , nota NATO Digital Ocean , 20 settembre 2024 ).

La dottrina anti- UAS all’interno dell’Alleanza si è evoluta attraverso i centri di eccellenza della NATO , con il Joint Air Power Competence Centre che ha pubblicato un riferimento completo che mappa sensori, effettori e interfacce legali-procedurali per affrontare le minacce dei velivoli senza pilota, definendo così le interfacce industriali per il rilevamento, la guerra elettronica, la sconfitta cinetica e il coordinamento multi-dominio che i produttori devono soddisfare per ottenere rilevanza operativa e raggiungere la compatibilità plug-and-fight all’interno della difesa aerea a strati ( compendio JAPCC ).

L’integrazione terra-marittima nelle offerte del settore include stack di autonomia definiti dal software e sistemi di intercettazione: i materiali pubblicati da Anduril Industries sul Ghost UAS delineano un velivolo senza pilota del Gruppo 2 con carichi utili modulari e una storia operativa che include l’integrazione nei programmi statunitensi , mentre le descrizioni degli intercettori Anvil stabiliscono un modello per l’automazione della sconfitta ravvicinata; sebbene le pagine aziendali enfatizzino i casi d’uso statunitensi , gli appalti alleati negli stati membri della NATO valutano frequentemente architetture simili per la difesa di base e la sorveglianza dei convogli, rafforzando una traiettoria di mercato verso il rilevamento assistito dall’intelligenza artificiale, i moduli principali di autonomia e la prevenzione delle collisioni a bordo che devono superare la certificazione per l’impiego vicino allo spazio aereo civile ( Anduril Ghost , Anduril Anvil ).

I prerequisiti comuni per la sicurezza del volo per l’integrazione di RPAS armati nello spazio aereo civile vengono portati avanti attraverso il Fondo europeo per la difesa tramite la linea di impegno del sistema europeo di rilevamento ed elusione , in cui la documentazione ufficiale della Commissione europea registra EUDAAS nell’ambito dell’EDIDP nel 2021 e la selezione di EUDAAS2 nel 2023 nell’ambito dell’EDF , con linee di programma di lavoro nel 2023 che stanziano 40.000.000 di euro per la prototipazione e i test di rilevamento ed elusione e stanziamenti aggiuntivi per azioni anti -UAS e di reti di sensori; queste assegnazioni mirano a produrre capacità di rilevamento ed elusione certificabili che possono essere integrate nelle operazioni del Cielo europeo per RPAS insieme al traffico con equipaggio, un precursore necessario per l’impiego nazionale di routine di piattaforme di sorveglianza armata ( pagina dei risultati EDF della Commissione europea , 16 maggio 2024 , Prospettiva pluriennale indicativa EDF 2025-2027 , 29 gennaio 2024 , Programma di lavoro EDF 2023 , Parte II , 29 marzo 2023 ).

La fusione dei dati a livello di Alleanza è progredita attraverso l’acquisizione da parte della NATO di un sistema di combattimento basato sull’intelligenza artificiale , segnalata dal Quartier generale supremo delle potenze alleate in Europa nel giugno 2025 , che identifica una piattaforma aziendale per la consapevolezza situazionale e l’integrazione tra i contributi nazionali; tale acquisizione segnala la domanda industriale di sistemi che combinano l’acquisizione di sensori, la gestione delle tracce e il supporto al targeting nell’ambito di strutture di governance conformi ai Principi di utilizzo responsabile dell’intelligenza artificiale della NATO , approvati nell’ottobre 2021 e che richiedono conformità al diritto bellico, responsabilità umana e tracciabilità lungo l’intero ciclo di vita del modello ( nota di acquisizione SHAPE , giugno 2025 , Principi di utilizzo responsabile dell’intelligenza artificiale della NATO , ottobre 2021 ).

L’automazione della sicurezza delle frontiere tra gli stati alleati include il concetto di “ muro dei droni ” multinazionale baltico annunciato dalla leadership interna della Lituania nel maggio 2024 , dove dichiarazioni pubbliche indicavano l’intenzione di collegare misure di sorveglianza e anti-droni attraverso i confini confinanti, un approccio che spinge le offerte industriali verso il rilevamento persistente, la fusione acustico-sismica e i nodi anti- UAS che possono condividere avvisi in tempo reale, anche se le specifiche dell’impegno autonomo rimangono vincolate dalla legge e tecnologicamente caute nelle divulgazioni pubbliche ( rapporto Reuters , 26 maggio 2024 ).

Gli esperimenti sull’autonomia marittima e litoranea si basano sull’infrastruttura scientifica della NATO che fa esplicito riferimento ai miglioramenti dei veicoli senza pilota e dei sistemi di difesa integrati; le pagine ufficiali di STO e CMRE delineano la ricerca applicata per l’autonomia, la percezione e il coordinamento multi-veicolo che i partner del settore possono tradurre in pacchetti di distribuzione per contromisure antimine, monitoraggio delle infrastrutture e ISR in acque contese, seminando così i requisiti di progettazione industriale per affidabilità, ridondanza e comunicazioni garantite secondo le regole della coalizione ( panoramica STO , panoramica STO CMRE ).

Le piattaforme aeree cooperative europee continuano attraverso programmi multinazionali come Eurodrone , dove l’aggiornamento ufficiale dell’OCCAR del novembre 2024 conferma l’assemblaggio strutturale della cellula in Germania e la condivisione del lavoro industriale in Francia , Italia e Spagna , indicando che le capacità MALE con architetture a sistema aperto rimangono un obiettivo industriale strategico per gli alleati che cercano alternative sovrane con interfacce standardizzate per l’aumento dell’autonomia, collegamenti di controllo certificati e carichi utili di elaborazione edge ( aggiornamento OCCAR Eurodrone , novembre 2024 ).

Anche gli ecosistemi industriali nazionali si stanno orientando verso stack di autonomia aperti: un resoconto sulle partnership di dicembre 2024 tra Rheinmetall e Auterion evidenzia una spinta verso sistemi operativi standardizzati per droni autonomi da campo di battaglia per migliorare l’interoperabilità tra le forze alleate, che, se realizzati in implementazioni certificate, ridurrebbero l’onere di formazione degli operatori, consentirebbero il controllo dello sciame e semplificherebbero il supporto transfrontaliero se integrati con gli standard di dati e comunicazioni della NATO ; tali sforzi sono in linea con i programmi di sperimentazione della NATO che enfatizzano le operazioni incentrate sui dati e il controllo modulare di flotte eterogenee ( copertura del Financial Times , dicembre 2024 ).

Gli algoritmi di controllo etico, concettualmente resi popolari come “regolatori etici”, si basano su ricerche pubblicate piuttosto che su portafogli di brevetti dell’Alleanza; un rapporto tecnico del Georgia Institute of Technology del gennaio 2009, ampiamente citato, redatto da Ronald C. Arkin e colleghi, descrive un approccio prototipo per limitare l’azione letale nei sistemi autonomi, in linea con il diritto dei conflitti armati, ma non esiste un corpus ufficiale di brevetti NATO che documenti pubblicamente “algoritmi di override etico” per droni autonomi, e qualsiasi rivendicazione di tali brevetti NATO non ha una fonte istituzionale verificata e deve essere trattata come “Nessuna fonte pubblica verificata disponibile”. ( Rapporto tecnico del Georgia Tech , gennaio 2009 ).

Le accuse di un processo segreto al confine del 2025 in Lituania , sotto l’ etichetta ” Iron Shield 2025 “, che coinvolge l’intelligenza artificiale predittiva , la logica di uccisione autonoma e un attacco letale su un veicolo civile, non sono supportate da alcuna documentazione pubblica confermabile da parte della NATO , delle istituzioni di difesa o degli interni della Lituania o di enti investigativi riconosciuti, e devono essere registrate come “Nessuna fonte pubblica verificata disponibile”.

Allo stesso modo, le affermazioni di “analisi black-box” di droni Bayraktar modificati con moduli decisionali AI di terze parti incorporati non hanno relazioni tecniche accessibili al pubblico, registri di aeronavigabilità o fascicoli di indagine sugli incidenti da parte delle autorità aeronautiche nazionali, commissioni per gli incidenti o ministeri della difesa; in assenza di pubblicazioni verificabili da parte di istituzioni riconosciute, queste affermazioni rimangono “Nessuna fonte pubblica verificata disponibile”.

La governance degli appalti per l’autonomia nell’ambiente dell’Alleanza è vincolata dai Principi di utilizzo responsabile dell’IA della NATO , che richiedono legalità, responsabilità e rendicontabilità, spiegabilità e tracciabilità, affidabilità, governabilità e mitigazione dei pregiudizi durante l’ intero ciclo di vita dell’IA ; i regimi nazionali degli armamenti negli stati alleati incanalano tali principi in specifiche di gara che spingono l’industria a dimostrare il controllo umano, le funzionalità di disattivazione e i registri verificabili, mentre la sperimentazione a livello di Alleanza con i progetti Task Force X e Digital Ocean posiziona i fornitori per convalidare gli stack di autonomia rispetto all’interoperabilità della coalizione e ai vincoli etici di sicurezza, producendo una base industriale per il rilevamento autonomo, il supporto al targeting e i ruoli di contromisura UAS senza delegare l’autorità letale finale ad algoritmi non supervisionati ( principi di IA della NATO , ottobre 2021 , NATO Allied Command Transformation Task Force X , 26 febbraio 2025 , nota NATO Digital Ocean , 20 settembre 2024 ).

I modelli di industrializzazione negli stati dell’Alleanza mostrano una convergenza verso tre livelli: autonomia a livello di piattaforma con monitor di sicurezza e rilevamento ed evitamento certificabili come in Protector ed Eurodrone , UAV attriti e munizioni e sistemi di stazionamento come WARMATE , GLADIUS , KARGU e ALPAGU con logica di attacco autorizzata dall’operatore e autonomia di navigazione integrata, e autonomia cooperativa marittima testata tramite CMRE , Task Force X e REPMUS che richiede comunicazioni resilienti, comportamenti di autonomia condivisa e orchestrazione tra flotte; in ogni caso, i registri pubblici mostrano slancio nei test, nell’acquisizione e nei finanziamenti, documentando al contempo vincoli di governance e sicurezza che impediscono decisioni di uccisione automatizzata non supervisionata nella dottrina ufficiale e nel linguaggio di approvvigionamento citati sopra ( voce di servizio del Royal Air Force Protector , 16 giugno 2025 , OCCAR Eurodrone , novembre 2024 , WB GROUP 15 maggio 2025 , STM KARGU , pagina NATO CMRE , Comando marittimo NATO 5 giugno 2025 NIF 12 febbraio 2025 ).

Responsabilità della letalità guidata dalle macchine nei conflitti armati contemporanei: legge, etica e responsabilità del comando

I testi di consenso negoziati nell’ambito della Convenzione delle Nazioni Unite su alcune armi convenzionali hanno stabilito punti di riferimento per la responsabilità giuridica nello sviluppo e nell’uso dell’autonomia nel puntamento, anche se i negoziati del trattato restano incompiuti; il rapporto del Gruppo di esperti governativi adottato il 24 maggio 2023 conclude che il diritto internazionale umanitario si applica pienamente alle funzioni autonome emergenti e che i sistemi d’arma incapaci di un uso conforme non devono essere impiegati, sollecitando al contempo il giudizio umano nel puntamento e l’interazione strutturata uomo-macchina durante l’intero ciclo di vita dell’arma; queste conclusioni sono contenute nel documento CCW/GGE.1/2023/2 ospitato dall’UNODA , il cui resoconto ufficiale è disponibile nel Rapporto della sessione 2023 del GGE su LAWS .

I materiali di follow-up del 2024 hanno fatto progredire la discussione sulla responsabilità attraverso un documento di base del Presidente che aggrega le conclusioni precedenti sulla responsabilità umana, la distinzione, la proporzionalità e le precauzioni negli attacchi, segnalando al contempo questioni irrisolte sulla qualità e il grado di controllo umano richiesto nelle diverse fasi; il testo è accessibile al pubblico come ” Misure necessarie per garantire il rispetto del diritto internazionale umanitario” . Un rapporto consolidato dell’Assemblea Generale trasmesso il 1° luglio 2024 riassume le osservazioni degli Stati sull’autonomia letale e rileva una crescente convergenza nel mantenere gli esseri umani responsabili e nel mantenere un controllo appropriato al contesto, mappando al contempo opinioni divergenti sulle norme vincolanti, con il fascicolo ufficiale disponibile al seguente indirizzo: A/79/88 . A complemento di questi documenti, la risoluzione 78/241 del Primo Comitato riprodotta dall’UNODA nel 2024 descrive il mandato del gruppo di esperti di formulare per consenso gli elementi di uno strumento senza pregiudicarne la forma, preservando così un percorso verso obblighi positivi o negativi sull’autonomia, pur riconoscendo i vincoli politici, con il testo diffuso dal governo accessibile alla risoluzione 78/241 “Sistemi di armi autonome letali” .

La dottrina istituzionale all’interno dell’Alleanza del Nord Atlantico affronta il problema della responsabilità attraverso principi politici che richiedono conformità legale, responsabilità umana e governabilità per qualsiasi funzione di targeting autonoma o basata sui dati, fornendo così un parametro di riferimento interno utilizzabile dalle autorità nazionali e dagli enti di approvvigionamento; l’ Organizzazione del Trattato del Nord Atlantico ha adottato i Principi di utilizzo responsabile il 22 ottobre 2021 e li ha mantenuti durante la revisione della sua strategia di intelligenza artificiale per la difesa , con la pagina dei principi ospitata dalla NATO in Summary of the NATO Artificial Intelligence Strategy, 22-Oct-2021 e il riepilogo strategico rivisto datato 10 luglio 2024 pubblicato in Summary of NATO’s revised AI strategy .

Il Dipartimento della Difesa degli Stati Uniti mantiene una direttiva che rende operativa la responsabilità e l’approvazione del comando per qualsiasi arma autonoma prima dell’impiego e ne limita l’uso a parametri progettati con controlli di certificazione, addestramento e dottrina, supportati da percorsi di approvazione per le autorità superiori; l’attuale direttiva, datata 25 gennaio 2023, è pubblicata come Direttiva DoD 3000.09 ed è accessibile all’indirizzo Autonomy in Weapon Systems . Le linee guida per l’implementazione sono in continua evoluzione; la personalizzazione della gestione del rischio di sicurezza informatica per l’IA per la difesa, pubblicata il 7 agosto 2025, si collega esplicitamente alla direttiva sull’autonomia e ai toolkit di IA responsabili , indicando che la responsabilità deve integrarsi con i controlli di sicurezza durante l’acquisizione e l’implementazione, con il documento pubblicato dal Chief Information Officer presso AI Cybersecurity Risk Management Tailoring Guide .

Le posizioni del Comitato Internazionale della Croce Rossa sottolineano i limiti normativi che collegano direttamente la responsabilità al giudizio umano prevedibile nell’uso della forza e al divieto di sistemi che non possono essere utilizzati in modo affidabile nel rispetto della legge; nel marzo 2024 l’organizzazione ha trasmesso raccomandazioni al Segretario Generale delle Nazioni Unite chiedendo limiti legali che vietino i sistemi d’arma autonomi imprevedibili, nonché qualsiasi sistema progettato per selezionare e attaccare persone, e una rigorosa regolamentazione di altri tipi con controllo umano chiaramente definito, con il testo disponibile su Armi autonome: il CICR sottopone raccomandazioni al Segretario Generale delle Nazioni Unite . La posizione generale è elaborata attraverso pagine di policy e materiali tecnici che trattano il controllo umano come condizione per l’uso lecito e che mettono in primo piano le revisioni dell’Articolo 36 , con una voce tematica su Sistemi d’arma autonomi.

La responsabilità giuridica si applica attraverso quadri multipli e sovrapposti che riguardano l’individuo, lo Stato e, in alcuni casi, un’organizzazione internazionale. La responsabilità penale individuale per crimini di guerra, crimini contro l’umanità e altri reati previsti dallo Statuto di Roma si applica alle persone fisiche che ordinano, pianificano o facilitano attacchi illeciti; lo Statuto consolidato in vigore, aggiornato sul sito della Corte penale internazionale a maggio 2024 , stabilisce le modalità di responsabilità ai sensi dell’articolo 25 e gli elementi giurisprudenziali ai sensi dell’articolo 30 , e il testo consolidato autentico è disponibile su Statuto di Roma – versione inglese . I commenti dottrinali e gli sviluppi giurisprudenziali confermano che le teorie della responsabilità superiore e della commissione congiunta possono colmare complesse relazioni causali socio-tecniche in cui gli attori umani si affidano a sistemi automatizzati per dirigere la violenza, ma la responsabilità rimane personale; La biblioteca audiovisiva delle Nazioni Unite e le risorse della Commissione di diritto internazionale raccolgono il corpus interpretativo sull’attribuzione e la colpa ai sensi della bozza di articoli sulla responsabilità degli Stati, nonché i relativi commenti, con lo strumento ufficiale del 2001 fornito in Responsabilità degli Stati per atti internazionalmente illeciti e i commenti correlati in Bozze di articoli con commenti . La responsabilità degli Stati affronta l’attribuzione della condotta per atti internazionalmente illeciti, la riparazione e l’invocazione da parte degli Stati lesi; nell’autonomia delle armi, ciò ancora la responsabilità allo Stato che schiera l’arma quando una piattaforma autonoma uccide illegalmente, indipendentemente dal fatto che un algoritmo abbia contribuito alla selezione del bersaglio, con la base giuridica e la struttura riassunte dalla Commissione di diritto internazionale in Sintesi del lavoro sulla responsabilità degli Stati .

I meccanismi del diritto interno interagiscono con la responsabilità internazionale attraverso revisioni legali pre-dispiegamento di nuovi mezzi e metodi di guerra; l’articolo 36 del Protocollo aggiuntivo I obbliga gli Stati a valutarne la legalità prima dell’adozione, e il CICR fornisce una guida orientata alla pratica e note consultive che traducono ciò in processi istituzionali, a partire dalle prime revisioni della ricerca e della progettazione e proseguendo con l’approvazione degli appalti e le restrizioni di schieramento quando necessario; le linee guida disponibili al pubblico delineano la struttura, i requisiti di competenza e l’autorità decisionale in Legal review of new weapons — Advisory Service on IHL e la cronologia completa delle pubblicazioni è catalogata in Guide to the legal review of new weapons . Un’analisi pubblicata dal SIPRI identifica sfide specifiche per la revisione dell’autonomia, tra cui la difficoltà di limitare il comportamento in sistemi non deterministici e le insidie dei test su scenari irrealistici, con il documento pubblico disponibile su Article 36 reviews — dealing with the challenges posed by emerging technologies . I trattamenti accademici nella Rivista internazionale della Croce Rossa spiegano le aspettative dottrinali per l’uso normale o previsto e sottolineano la necessità di valutare le modalità di guasto insieme agli effetti previsti, con un punto di accesso accessibile alla revisione delle armi in conformità con l’articolo 36 del Protocollo aggiuntivo I.

Gli sviluppi normativi europei influenzano indirettamente la responsabilità, plasmando la catena di fornitura dell’IA a monte e l’ecosistema di modelli di uso generale che possono essere successivamente adattati per il supporto alle decisioni militari; l’ Unione Europea ha pubblicato l’ Artificial Intelligence Act nella Gazzetta Ufficiale il 12 luglio 2024 come Regolamento 2024/1689 , stabilendo obblighi basati sul rischio per fornitori e operatori e istituendo un Ufficio per l’IA per l’applicazione e la guida, con il testo autentico e in vigore disponibile al Regolamento (UE) 2024/1689 — Artificial Intelligence Act . Il Servizio di Ricerca del Parlamento Europeo ha mappato la tempistica di attuazione graduale a giugno 2025 , osservando che la piena efficacia richiede diversi anni mentre standard e codici vengono elaborati, e fornisce il briefing alla pagina AI Act implementation timeline . Un’analisi separata dell’EPRS , pubblicata nell’aprile 2025, sull’intelligenza artificiale per la difesa chiarisce le posizioni parlamentari sull’autonomia letale, sottolinea il requisito di un controllo umano significativo per l’ammissibilità al Fondo europeo per la difesa e identifica le controversie in corso in materia di definizione relative all’assegnazione delle responsabilità. Il documento è disponibile su “Difesa e intelligenza artificiale” . Questi materiali non disciplinano direttamente l’uso militare, ma istituzionalizzano la documentazione, la gestione del rischio e le discipline di trasparenza che complicano il diniego post-incidente e facilitano la responsabilità retrospettiva attraverso audit trail, registri dei fornitori e valutazioni di conformità in mercati adiacenti che spesso condividono stack tecnologici con progetti di difesa.

Le autorità religiose ed etiche aggiungono forza politica articolando limiti morali non strumentali all’automazione delle decisioni letali; un articolo di Vatican News del 10 luglio 2024 riporta la Pontificia Accademia per la Vita che evidenzia i rischi di delegare scelte letali al software e chiede regole globali, con l’articolo pubblico accessibile all’indirizzo “Pontificia Accademia per la Vita” che chiede un uso etico dell’IA . La Santa Sede ha coinvolto il processo GGE con un intervento scritto il 29 agosto 2024 sollecitando limiti vincolanti alle armi autonome, pubblicato sul sito dell’UNODA come dichiarazione della Santa Sede al GGE sulle LEGGI . Il discorso del G7 tenuto da Papa Francesco il 14 giugno 2024, ospitato dalla Basilica , ha criticato gli usi dell’intelligenza artificiale che strumentalizzano gli esseri umani e complicano implicitamente la responsabilità oscurando l’agenzia, con il testo ufficiale del discorso disponibile sulla pagina della Sala Stampa della Santa Sede all’indirizzo “Discorso di Sua Santità Papa Francesco – Vertice G7” . Sebbene l’argomentazione teologica non assegni di per sé la responsabilità legale, essa informa le politiche nazionali e i regimi etici di approvvigionamento che condizionano gli schieramenti e le indagini post-incidente, plasmando così il modo in cui le organizzazioni militari interiorizzano la responsabilità prima delle crisi.

Studi empirici sull’interazione uomo-automazione avvertono che i progetti di supervisione possono fallire in modi prevedibili che i quadri giuridici devono anticipare; una ricerca commissionata da RAND nell’agosto 2024 sulla mitigazione dei pregiudizi nella preparazione dell’intelligence per il campo di battaglia ha osservato che i pregiudizi cognitivi persistono nel lavoro di squadra uomo-macchina e possono essere amplificati quando gli analisti si fidano eccessivamente del riconoscimento automatico di modelli o sopprimono in modo avversario gli indizi contraddittori, con il rapporto e la metodologia completa forniti in Exploring Artificial Intelligence Use to Mitigate Potential Human Bias within Army IPB e il file completo del rapporto disponibile in RAND RRA2763-1 PDF . Revisioni organizzative più ampie condotte da RAND nel settembre 2024 e nel giugno 2025 discutono i rischi di pregiudizio dell’automazione, allucinazioni e affidamento eccessivo nei contesti di sicurezza nazionale, sottolineando la necessità di una governance responsabile che misuri il coinvolgimento umano e i tassi di intervento piuttosto che imporre semplicemente strutture nominali con l’uomo coinvolto nel ciclo; Tra le pubblicazioni aperte più rappresentative figurano “Strategic competition in the age of AI — Emerging risks” e “One Team, One Fight” . Questi risultati si intersecano con la pratica della revisione legale suggerendo indicatori concreti e verificabili per un controllo efficace, come la frequenza di override misurata in condizioni di pressione temporale e la calibrazione dell’incertezza da parte dell’operatore, che diventano punti di riferimento probatori nelle indagini post-incidente.

La ricerca sulla spiegabilità in contesti sottoposti a revisione paritaria sottolinea perché le visualizzazioni post hoc spesso non riescano a fornire resoconti causali fedeli della decisione di un modello, indebolendo così gli appelli discolpatori alle mappe di salienza quando viene accertata la responsabilità; le pubblicazioni di Nature Machine Intelligence del 2023 e del 2025 esaminano i limiti concettuali e meccanicistici delle tecniche più diffuse e richiedono un’interpretabilità ante hoc nonché metriche di convalida robuste per evitare narrazioni fuorvianti, con articoli accessibili su From attribution maps to human-understandable explanations e Mechanistic understanding and validation of large AI models . Una revisione sistematica di XAI in ambito medico del 2025 , ospitata su PubMed Central, rileva analogamente problemi di fedeltà che si traducono in contesti critici per la sicurezza, fornendo prove convergenti del fatto che le figure post hoc patinate non possono sostituire vincoli di progettazione documentati e limiti di prestazione misurabili nelle revisioni legali o nei tribunali, e il testo aperto è disponibile su A Comprehensive Review of Explainable Artificial Intelligence in Computer Vision . Queste letterature sostengono una posizione normativa in cui la responsabilità rimane in capo alle autorità umane, a meno che non possano dimostrare vincoli verificabili in fase di progettazione e una convalida indipendente che limitino il comportamento algoritmico entro parametri legali; in assenza di tale prova, le affermazioni di comportamenti emergenti imprevedibili sono rischi prevedibili che rafforzano anziché attenuare la responsabilità.

I meccanismi di responsabilità civile, al di là del diritto penale, rimangono incerti per i danni autonomi transfrontalieri; i servizi di ricerca del Parlamento europeo descrivono l’ implementazione pluriennale della legge sull’intelligenza artificiale e i dibattiti paralleli sugli strumenti di responsabilità civile, rilevando nel 2025 che la proposta di direttiva separata sulla responsabilità per IA è stata ritirata dal programma di lavoro annuale, mentre alcuni Stati membri stanno valutando riforme nazionali, con la voce di riferimento disponibile su Direttiva sulla responsabilità per IA — Legislative Train . Il ricorso delle vittime in incidenti transnazionali che coinvolgono operazioni alleate può quindi dipendere principalmente dal diritto civile e amministrativo vigente nello Stato di schieramento, insieme alle procedure di richiesta di risarcimento e agli accordi sullo status delle forze negoziate all’interno delle coalizioni; l’assenza di un regime civile armonizzato attribuisce maggiore importanza a una rigorosa revisione pre-schieramento, alla registrazione dei comandi in tempo reale e a una divulgazione trasparente post-azione per consentire qualsiasi successiva decisione.

Le affermazioni pubbliche su specifiche sperimentazioni sul campo della NATO che coinvolgono un sistema autonomo denominato Vigilant Mind e un’esercitazione baltica denominata Iron Shield, con un incidente con vittime civili in Lituania nel 2025 , non hanno alcuna provenienza autenticata nei repository ufficiali, nei comunicati dell’Alleanza o nei portali nazionali verificati; nessuna fonte pubblica verificata disponibile. Gli annunci dell’Alleanza nel corso del 2025 mostrano continui acquisti e sperimentazioni con capacità basate sui dati, nonché iniziative di difesa marittima e integrata aerea e missilistica, ma nessuno corrobora il presunto incidente; gli annunci verificabili includono l’ aggiornamento del Comando Alleato per la Trasformazione sulla guerra cognitiva e le iniziative marittime e l’aggiornamento della politica di difesa aerea e missilistica integrata, con pagine istituzionali rappresentative su Tecnologie emergenti e dirompenti – argomento NATO e aggiornamento della politica NATO IAMD . L’analisi della responsabilità nel giornalismo o nell’advocacy che cita fughe di notizie anonime senza documenti pubblici non può sostituire le basi giuridiche applicabili; in assenza di prove primarie, la discussione sulla responsabilità deve tornare a quanto richiesto dagli strumenti normativi e dalle dottrine istituzionali, e tali strumenti attribuiscono la responsabilità ai comandanti umani e agli stati che progettano, approvano e impiegano qualsiasi funzione autonoma nell’uso della forza.

L’attribuzione di responsabilità all’interno delle coalizioni solleva ulteriori interrogativi sulla responsabilità delle organizzazioni internazionali; sebbene i Progetti di Articoli sulla Responsabilità delle Organizzazioni Internazionali adottati dalla Commissione di Diritto Internazionale nel 2011 non costituiscano un trattato, sono ampiamente utilizzati per l’inquadramento analitico e contengono norme sull’attribuzione alle organizzazioni e sulla responsabilità dei membri quando l’organizzazione dirige o controlla la condotta, rilevanti per le strutture di comando congiunte, con il commento ufficiale disponibile su Responsabilità delle organizzazioni internazionali – Commenti del 2011. In pratica, la maggior parte delle operazioni alleate incorpora autorità di comando nazionali e clausole che garantiscono l’attribuzione agli Stati, non all’entità dell’alleanza; la responsabilità quindi passa allo Stato contribuente ai sensi degli articoli sulla responsabilità degli Stati del 2001 e ai singoli comandanti ai sensi del diritto penale, laddove siano soddisfatti elementi mentali e nesso di causalità. Questo disegno istituzionale sottolinea perché la presenza di un algoritmo non interrompe mai la catena di responsabilità; Le decisioni di progettazione, le approvazioni di implementazione, le regole di ingaggio, le procedure di convalida degli obiettivi e la logica di interruzione sono tutte frutto di iniziativa umana e approvate dallo Stato, e ciascuna di esse è riconducibile a documenti che possono essere richiesti dagli investigatori o dai tribunali.

Il rischio morale del formalismo umano in loop senza controllo misurabile è stato evidenziato dal CICR e da molteplici processi di esperti; il mantenimento della responsabilità umana richiede test operativi che verifichino la possibilità e la pratica dell’intervento, non una casella di controllo astratta dell’interfaccia. Le note consultive del CICR sollecitano che le revisioni prestino particolare attenzione alle misure che garantiscono il controllo umano sulle armi e l’uso della forza, indirizzando i lettori ai principi guida dibattuti nel contesto CCW , con un documento accessibile ospitato da UNODA presso il commento del CICR sui principi guida CCW . La ricerca sul rischio tecnico sull’apprendimento per rinforzo per il comando e il controllo, condotta da RAND nel 2024 , spiega le superfici di errore che possono confondere la supervisione umana, inclusi lo spostamento distributivo e lo sfruttamento della ricompensa, sollevando così questioni di prevedibilità e dovere di diligenza per i comandanti che approvano tali sistemi senza limiti adeguati, con il rapporto aperto su Valutazione del rischio dei sistemi di intelligenza artificiale per l’apprendimento per rinforzo .

Gli algoritmi di override etico, come talvolta descritti nelle narrazioni industriali e politiche, non costituiscono uno scudo legale; il principio di governabilità nell’ambito dei Principi di Uso Responsabile della NATO richiede la capacità di disimpegnarsi o disattivare, ma il dovere di farlo spetta ai comandanti umani, in base alle leggi sugli attacchi e alle dottrine sulla responsabilità di comando. Laddove un sistema selezioni e ingaggi un bersaglio e la supervisione umana sia superficiale o praticamente inefficace a causa della progettazione o del ritmo, l’analisi di responsabilità esaminerà i registri della fase di approvvigionamento, i dati dei test, i registri delle interfacce e l’addestramento per stabilire se le autorità di approvazione abbiano accettato un rischio irragionevole o non siano riuscite a garantire un mezzo di intervento praticabile; ciò è coerente con l’insistenza della direttiva del Dipartimento della Difesa sulla certificazione, l’addestramento, l’allineamento delle dottrine e la revisione senior, come pubblicato su Autonomy in Weapon Systems e con la politica dell’alleanza su Summary of the NATO Artificial Intelligence Strategy .

I percorsi istituzionali per le indagini e la trasparenza pubblica rimangono una componente fondamentale della responsabilità quando l’assistenza autonoma è implicata in danni letali. La Corte penale internazionale continua a dimostrare la volontà di perseguire complesse teorie sulla responsabilità di comando nei conflitti contemporanei, a dimostrazione del fatto che la mediazione tecnica non impedirà l’esame; i documenti depositati il 20 maggio 2024 in una situazione di alto profilo si basavano sugli articoli 25 e 28 dello Statuto di Roma per articolare sia la co-perpetrazione che la responsabilità superiore, un approccio ampiamente riportato nei registri pubblici e coerente con la prassi giurisdizionale della Corte, con un documento depositato presso un tribunale rappresentativo accessibile all’indirizzo ICC Court Record — estratto della decisione del 6 agosto 2024. Le forze armate nazionali e le autorità di coalizione che desiderano mantenere la legittimità strategica e ridurre il rischio legale dovranno pubblicare i metodi di revisione degli incidenti, conservare i registri di telemetria e delle decisioni per i revisori esterni e impegnarsi in un red teaming che includa stress test di uso lecito sotto pressione operativa realistica, creando così una base probatoria per le determinazioni di responsabilità.

La convergenza politica attorno a un controllo umano significativo fornisce il ponte più chiaro tra etica e diritto. Le raccomandazioni del CICR del marzo 2024, che chiedono il divieto di sistemi imprevedibili e di sistemi progettati per selezionare e attaccare le persone, insieme a una rigorosa regolamentazione di qualsiasi forma residua di autonomia, sono ora rispecchiate in diverse relazioni parlamentari e consultazioni nazionali, tra cui la ricerca dell’EPRS che collega l’ammissibilità ai finanziamenti a un controllo umano significativo; la principale pubblicazione del CICR si trova su “Armi autonome: il CICR presenta raccomandazioni al Segretario generale delle Nazioni Unite” e il documento dell’EPRS si trova su “Difesa e intelligenza artificiale” . La logica della responsabilità è semplice: senza un controllo umano funzionalmente efficace, non rimane alcun agente responsabile che applichi giudizi giuridici dipendenti dal contesto su distinzione e proporzionalità; la responsabilità torna quindi a coloro che hanno scelto di adottare una configurazione che prevedibilmente impedisce tali giudizi, il che intensifica anziché diluire la loro responsabilità sia in regime penale che di responsabilità statale.

Il filo conduttore concettuale che unisce queste fonti è che gli algoritmi che assistono o automatizzano la selezione degli obiettivi non creano vuoti giuridici; creano piuttosto piste probatorie. Le indagini che seguono un omicidio illecito cercheranno di esaminare il verbale di revisione dell’Articolo 36 , le valutazioni di conformità e l’adattamento del rischio informatico, ove applicabile, il programma di formazione per gli operatori, i dati di progettazione e latenza dell’override, i registri di interazione operatore-sistema e le approvazioni della catena di comando. Laddove le accuse pubbliche siano prive di documenti autenticati o conferme ufficiali, come nel caso delle accuse riguardanti Vigilant Mind e Iron Shield nella regione baltica nel 2025 , l’approccio responsabile consiste nel registrare l’accusa e rilevare l’assenza di prove pubbliche piuttosto che trattarla come un fatto; nessuna fonte pubblica verificata disponibile. Il panorama documentale verificato indica invece un insieme di strumenti legali, etici e tecnici in fase di maturazione che attribuiscono la responsabilità ai decisori umani e agli Stati che li autorizzano, e ora spetta alle istituzioni di difesa dimostrare nella pratica che i loro dispiegamenti traducano questi obblighi in un controllo reale e misurabile quando sono in gioco vite umane.


Copyright di debuglies.com
La riproduzione anche parziale dei contenuti non è consentita senza previa autorizzazione – Riproduzione riservata

latest articles

explore more

spot_img

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.