Contents
- 1 ESTRATTO
- 2 1. Definizioni concettuali, ambito analitico e quadro metodologico
- 2.0.1 1.1 Scopo e perimetro analitico del rapporto
- 2.0.2 1.2 Definizioni operative
- 2.0.2.1 1.2.1 Intelligenza artificiale
- 2.0.2.2 1.2.2 Apprendimento automatico
- 2.0.2.3 1.2.3 Intelligenza artificiale generativa
- 2.0.2.4 1.2.4 Modelli di fondazione
- 2.0.2.5 1.2.5 Intelligenza Artificiale Generale (AGI)
- 2.0.2.6 1.2.6 Automazione cognitiva
- 2.0.2.7 1.2.7 Intelligenza artificiale centrata sull’uomo
- 2.0.3 1.3 Ambito geografico
- 2.0.4 1.4 Ambiti settoriali e istituzionali
- 2.0.5 1.5 Dimensioni psicologiche e sociali
- 2.0.6 1.6 Quadro analitico
- 2.0.6.1 1.6.1 Analisi PESTEL: mappatura del contesto sistemico
- 2.0.6.2 1.6.2 Analisi SWOT: differenziazione dell’impatto specifico del settore
- 2.0.6.3 1.6.3 Le cinque forze di Porter applicate alla catena del valore dell’IA
- 2.0.6.4 Funzione integrativa del quadro
- 2.0.6.5 1.6.4 Quadri di rischio ed etica
- 2.0.6.6 1.6.5 Modelli economici: lavoro, produttività e trasformazione strutturale
- 2.0.6.7 1.6.6 Diffusione della tecnologia e pianificazione degli scenari
- 2.0.7 1.7 Limitazioni e disciplina analitica
- 2.0.8 1.8 Transizione del capitolo
- 3 2. Stato globale dell’intelligenza artificiale (post-2024)
- 3.0.1 2.1 Panoramica: dalla diffusione accelerata al consolidamento strutturale
- 3.0.2 2.2 Traiettorie tecnologiche dal 2024
- 3.0.3 2.3 Modelli di adozione: dai progetti pilota all’uso sistemico
- 3.0.4 2.4 Struttura e concentrazione del mercato
- 3.0.5 2.5 Divergenza regionale nelle traiettorie dell’intelligenza artificiale
- 3.0.5.1 2.5.1 Unione Europea: sovranità regolamentare e legittimità istituzionale
- 3.0.5.2 2.5.2 Stati Uniti: innovazione guidata dal mercato e governance frammentata
- 3.0.5.3 2.5.3 Cina: schieramento incentrato sullo Stato e controllo politico
- 3.0.5.4 2.5.4 India, Africa subsahariana e America Latina: adozione asimmetrica e dipendenza strutturale
- 3.0.6 2.6 Normalizzazione della governance e maturità normativa
- 3.0.7 2.7 Valutazione del segnale socio-economico
- 3.0.8 2.8 Transizione del capitolo
- 3.0.9 Matrice comparativa – Traiettorie regionali dell’IA: indicatori, soglie e implicazioni strutturali
- 3.0.10 Tabella di stress test dello scenario: superamento delle soglie e cambiamenti del regime di intelligenza artificiale (2025-2035)
- 3.0.11 Matrice scenario × regione – Traiettorie dell’IA e risultati del regime (2025-2035)
- 3.0.12 Leve politiche × Matrice scenario-prevenzione (Governance dell’IA 2025-2035)
- 3.0.13 Pacchetto minimo di policy per scenario – Evitamento (IA Governance 2025-2035)
- 3.0.14 Pacchetto polizza minima a sequenza temporale (0–2 anni / 3–5 anni / 6–10 anni)
- 4 3. Impatti sociali e trasformazione dei servizi pubblici
- 4.0.1 3.1 Introduzione: l’intelligenza artificiale come livello di infrastruttura sociale
- 4.0.2 3.2 Pubblica amministrazione e sistemi di welfare
- 4.0.3 3.3 Servizi sanitari e di assistenza sociale
- 4.0.4 3.4 Giustizia, assistenza legale e sicurezza pubblica
- 4.0.5 3.5 Interfacce digitali, inclusione e ambiente informativo
- 4.0.6 3.6 Equità sociale ed effetti distributivi
- 4.0.7 Tabella 3.6 – Indicatori quantitativi di equità sociale ed effetti distributivi dell’IA
- 4.0.8 3.7 Meccanismi di governance per un dispiegamento socialmente allineato
- 4.0.8.1 Classificazione del rischio e valutazioni di impatto obbligatorie
- 4.0.8.2 Norme sugli appalti pubblici e definizione del mercato
- 4.0.8.3 Monitoraggio continuo, rilevamento di pregiudizi e governance adattiva
- 4.0.8.4 Trasparenza, segnalazione degli incidenti e azioni correttive
- 4.0.8.5 Risultati istituzionali di una governance solida
- 4.0.9 3.8 Sintesi: Condizioni per una trasformazione sociale positiva
- 4.0.10 3.9 Transizione del capitolo
- 5 4. Impatti sociali e trasformazione del servizio pubblico (analisi estesa)
- 5.0.1 4.1 Riformulare i servizi pubblici nell’era dell’intelligenza artificiale
- 5.0.2 4.2 Trasformazione strutturale della Pubblica Amministrazione
- 5.0.3 4.3 Welfare, protezione sociale e gestione della vulnerabilità
- 5.0.4 4.4 Assistenza sanitaria e sociale: ridistribuzione delle responsabilità
- 5.0.5 4.5 Giustizia, sicurezza e significato sociale del rischio
- 5.0.6 4.6 Interfacce digitali, inclusione e rimodellamento della cittadinanza
- 5.0.7 4.7 Integrità delle informazioni, disinformazione e fiducia collettiva
- 5.0.8 4.8 Effetti distributivi ed equità
- 5.0.9 4.9 La governance come determinante sociale primario
- 5.0.10 4.10 Sintesi e implicazioni
- 5.0.11 4.11 Transizione del capitolo
- 6 5. Dimensioni psicologiche e cognitive dell’adozione dell’intelligenza artificiale
- 6.0.1 5.1 Introduzione: l’intelligenza artificiale come ambiente cognitivo, non come strumento
- 6.0.2 5.2 Carico cognitivo, attenzione e larghezza di banda mentale
- 6.0.3 5.3 Calibrazione della fiducia e pregiudizio dell’automazione
- 6.0.4 5.4 Dipendenza, atrofia delle competenze e perdita di capacità a lungo termine
- 6.0.5 5.5 Motivazione, agenzia e significato del lavoro e dell’apprendimento
- 6.0.6 5.6 Salute mentale e benessere
- 6.0.7 5.7 Apprendimento, memoria e formazione della conoscenza
- 6.0.8 5.8 Cognizione collettiva e fiducia epistemica
- 6.0.9 5.9 Disuguaglianza nei risultati cognitivi
- 6.0.10 5.10 Sintesi: Condizioni psicologiche per un’integrazione benefica dell’IA
- 6.0.11 5.11 Transizione
- 7 6. Mercati del lavoro, competenze e produttività nell’era dell’intelligenza artificiale
- 7.0.1 6.1 I mercati del lavoro come sistemi di mansioni piuttosto che come categorie di lavoro
- 7.0.2 6.2 Rivisitazione del cambiamento tecnico basato sulle competenze e sulla routine
- 7.0.3 6.3 Trasformazione occupazionale e l’emergere di ruoli ibridi
- 7.0.4 6.4 Ristrutturazione organizzativa e ridistribuzione dell’autorità
- 7.0.5 6.5 Produttività: guadagni a livello aziendale e ambiguità aggregata
- 7.0.6 6.6 Dinamica salariale e distribuzione del reddito
- 7.0.7 6.7 Livelli di occupazione, creazione di posti di lavoro e dinamiche di transizione
- 7.0.8 6.8 Competenze: dalla competenza tecnica alle meta-competenze
- 7.0.9 6.9 Piattaformizzazione, precarietà e gestione algoritmica
- 7.0.10 6.10 Divergenza regionale nei risultati del mercato del lavoro
- 7.0.11 6.11 Produttività, potere e distribuzione dei guadagni
- 7.0.12 6.12 Sintesi: Condizioni per una trasformazione inclusiva del mercato del lavoro
- 8 7. Sistemi educativi, capitale umano e formazione di capacità a lungo termine nell’era dell’intelligenza artificiale
- 9 8. Tecnologia, infrastrutture e MLOps come determinanti nascosti dei risultati sociali
- 10 9. Struttura del mercato, potere e geopolitica nell’era dell’intelligenza artificiale
- 11 10. Quadri di governance e modelli normativi nell’era dell’intelligenza artificiale
- 12 11. Scenari decennali e risultati sulla qualità della vita in un mondo mediato dall’intelligenza artificiale
- 13 12. Condizioni politiche, compromessi e scelte strategiche nella transizione all’intelligenza artificiale
ESTRATTO
La rapida diffusione dell’intelligenza artificiale (IA) , in particolare dei sistemi generativi e basati sull’apprendimento automatico, sta rimodellando le strutture sociali, i mercati del lavoro e i sistemi educativi a un ritmo senza precedenti tecnologie generiche. Tra il 2015 e il 2025, i progressi nella disponibilità di elaborazione, nei modelli di base, nell’aggregazione dei dati e negli strumenti di distribuzione hanno trasformato l’IA da una tecnologia industriale specializzata a un’infrastruttura socio-tecnica pervasiva. Questa trasformazione non si limita più all’ottimizzazione della produttività o all’automazione di attività discrete; media sempre più l’accesso ai servizi pubblici, modella i flussi di lavoro cognitivi, altera la formazione delle competenze e ridistribuisce il potere economico e politico tra società e regioni.
Questo rapporto esamina l’ evoluzione sociale dell’intelligenza artificiale in tre ambiti interdipendenti – società, lavoro e istruzione – utilizzando un quadro analitico interdisciplinare che integra economia, psicologia, scienze politiche, studi tecnologici e analisi della governance. Il problema centrale della ricerca affrontato è se l’IA, così come attualmente progettata e governata, abbia maggiori probabilità, nel prossimo decennio, di funzionare come un potenziatore netto del benessere umano e delle capacità sociali , o come una forza di concentrazione strutturale, dipendenza e stratificazione . Piuttosto che trattare l’IA come una tecnologia monolitica, l’analisi distingue tra classi di modelli, contesti di implementazione, regimi di governance ed economie politiche regionali.
Dal punto di vista operativo, il rapporto definisce l’intelligenza artificiale come uno spettro di sistemi computazionali in grado di svolgere compiti che, nei regimi tecnologici precedenti, richiedevano uno sforzo cognitivo umano. All’interno di questo spettro, l’apprendimento automatico si riferisce a sistemi statistici addestrati sui dati per ottimizzare le prestazioni su obiettivi definiti; l’intelligenza artificiale generativa denota modelli in grado di produrre testo, immagini, codice, audio o output strutturati tramite inferenza probabilistica; i modelli di base sono modelli di grandi dimensioni e di uso generale addestrati su ampi corpora e adattati a valle; e l’intelligenza artificiale generale (AGI) è trattata esplicitamente come un costrutto ipotetico piuttosto che come uno stato tecnologico raggiunto. Queste definizioni sono in linea con la tassonomia dell’IA dell’OCSE e con il quadro etico dell’UNESCO ( https://oecd.ai/en/ai-definitions ; https://www.unesco.org/en/artificial-intelligence/recommendation-ethics ).
Da una prospettiva sociale , l’intelligenza artificiale opera sempre più come interfaccia tra cittadini e istituzioni. Sistemi conversazionali, valutazioni automatizzate dell’idoneità, triage algoritmico e analisi predittiva sono ora implementati nella pubblica amministrazione, nell’accesso all’assistenza sanitaria, nell’allocazione del welfare, nella gestione delle migrazioni e negli ecosistemi informativi. Evidenze empiriche provenienti da studi dell’OCSE e della Banca Mondiale indicano che i servizi mediati dall’intelligenza artificiale possono ridurre l’attrito amministrativo e i tempi di attesa del 20-40% in implementazioni ben governate, in particolare in contesti di servizi ad alto volume. Tuttavia, gli stessi sistemi possono amplificare l’esclusione quando la qualità dei dati è disomogenea, quando la trasparenza è limitata o quando i meccanismi di ricorso sono assenti. L’opacità algoritmica, i tassi di errore differenziali tra i gruppi demografici e la diffusione della disinformazione tramite modelli generativi costituiscono rischi sociali misurabili piuttosto che preoccupazioni speculative (OCSE, Banca Mondiale, UNESCO).
Dal punto di vista psicologico, l’intelligenza artificiale altera l’ ambiente cognitivo in cui operano gli individui. Studi pubblicati tra il 2020 e il 2024 indicano che i flussi di lavoro assistiti dall’intelligenza artificiale riducono il carico cognitivo a breve termine e il tempo di completamento delle attività, ma possono anche aumentare i rischi a lungo termine di dequalificazione , eccessiva dipendenza e riduzione del coinvolgimento metacognitivo quando i sistemi sostituiscono, anziché potenziare, il ragionamento umano. La calibrazione della fiducia emerge come una variabile critica: un’eccessiva fiducia porta a un pregiudizio nell’automazione, mentre una fiducia insufficiente sopprime i guadagni di produttività. Gli impatti sulla salute mentale sono indiretti ma non banali, mediati dall’insicurezza lavorativa, dalla sorveglianza delle prestazioni e dall’erosione o dal potenziamento della capacità di agire percepita. Queste dinamiche richiedono risposte politiche che si estendano oltre l’accuratezza tecnica, includendo anche i domini dei fattori umani e della progettazione organizzativa.
Nel mercato del lavoro , l’IA funge da motore di riconfigurazione a livello di mansione piuttosto che di distruzione uniforme di posti di lavoro. In linea con i modelli di cambiamento tecnico orientato alle competenze e alla routine , i dati empirici dell’OIL , dell’OCSE e degli uffici nazionali di statistica mostrano che l’IA automatizza in modo sproporzionato i compiti cognitivi di routine, aumentando al contempo il valore relativo delle competenze analitiche, interpersonali e di supervisione non di routine. Tra il 2019 e il 2024, le professioni con un’elevata esposizione a compiti di routine hanno registrato una crescita salariale più lenta e una maggiore volatilità, mentre i ruoli ibridi che integrano competenze di settore con la supervisione dell’IA sono aumentati. Gli effetti sulla produttività sono positivi ma disomogenei: studi a livello aziendale suggeriscono guadagni del 5-15% nei settori che hanno adottato precocemente l’IA, mentre gli effetti aggregati sulla produttività totale dei fattori (TFP) rimangono modesti a causa di ritardi di diffusione, attriti organizzativi e disallineamenti di competenze.
È fondamentale che l’impatto dell’IA sul lavoro sia mediato dal contesto istituzionale . Le giurisdizioni con solidi sistemi di formazione, politiche attive del mercato del lavoro e regole chiare sulla gestione algoritmica mostrano tassi di transizione più elevati e costi di sostituzione inferiori. Al contrario, gli ambienti di governance deboli mostrano una maggiore polarizzazione, informalizzazione e precarietà. L’ascesa del monitoraggio delle prestazioni mediato dall’IA e della pianificazione algoritmica solleva anche questioni relative all’autonomia dei lavoratori, alla privacy e al potere contrattuale, sempre più affrontate da iniziative normative nell’Unione Europea e in alcuni stati degli Stati Uniti.
In ambito educativo , l’intelligenza artificiale rappresenta sia un’opportunità strutturale che una sfida di governance. Sistemi di apprendimento adattivo, feedback automatizzato e strumenti di tutoraggio generativo mostrano un potenziale misurabile per migliorare i risultati di apprendimento se integrati in quadri pedagogicamente solidi. Evidenze provenienti da studi controllati e programmi pilota indicano miglioramenti nell’efficienza dell’apprendimento e nel coinvolgimento degli studenti, in particolare per l’insegnamento di recupero e individualizzato. Allo stesso tempo, l’intelligenza artificiale generativa sconvolge i modelli di valutazione tradizionali, aumentando i casi di cattiva condotta accademica e mettendo in luce le debolezze strutturali dei sistemi di valutazione che si basano eccessivamente su output statici piuttosto che su un apprendimento basato sui processi.
La disuguaglianza educativa è una preoccupazione centrale. Le scuole e le università con accesso a infrastrutture sicure, insegnanti qualificati e strumenti di intelligenza artificiale validati sono in una posizione migliore per trarne beneficio, mentre gli istituti con risorse insufficienti rischiano di rimanere ulteriormente indietro. Valutazioni internazionali come PISA e PIAAC riflettono sempre più non solo le competenze cognitive, ma anche l’alfabetizzazione digitale e algoritmica, rafforzando la necessità di un’integrazione sistemica piuttosto che di un’adozione ad hoc. Le risposte della governance enfatizzano la certificazione degli strumenti di intelligenza artificiale per l’istruzione, la formazione degli insegnanti e la riprogettazione della valutazione piuttosto che il divieto.
Dal punto di vista tecnologico, la catena del valore dell’IA presenta un’elevata e crescente concentrazione . L’infrastruttura di calcolo, la produzione avanzata di semiconduttori, i set di dati di addestramento su larga scala e lo sviluppo di modelli di frontiera sono dominati da un numero limitato di aziende e giurisdizioni. Le metriche di concentrazione del mercato (HHI) nei livelli di cloud computing e di modelli di base superano le soglie tipicamente associate al rischio competitivo. Questa concentrazione ha implicazioni geopolitiche, rafforzando dipendenze e asimmetrie tra le regioni con sovranità informatica e quelle che dipendono da fornitori esterni. I controlli sulle esportazioni, la politica industriale e gli investimenti pubblici in infrastrutture di calcolo e dati sono sempre più centrali nelle strategie nazionali di IA nell’UE, negli Stati Uniti, in Cina e in India.
I quadri di governance si sono ampliati rapidamente dal 2021. L’ Artificial Intelligence Act dell’UE , adottato nel 2024, stabilisce un modello normativo basato sul rischio con requisiti obbligatori per i sistemi ad alto rischio, obblighi di trasparenza e meccanismi di applicazione ( https://artificialintelligenceact.eu/ ). I quadri complementari includono i Principi di IA dell’OCSE ( https://oecd.ai/en/ai-principles ), la Raccomandazione dell’UNESCO sull’etica dell’IA , il Quadro di gestione del rischio dell’IA del NIST ( https://www.nist.gov/itl/ai-risk-management-framework ) e gli standard ISO/IEC emergenti come ISO/IEC 23894 sulla gestione del rischio dell’IA . Sebbene questi strumenti migliorino le protezioni di base, la capacità di applicazione, l’allineamento internazionale e la copertura dei modelli di base rimangono disomogenei.
L’analisi di scenario su un orizzonte decennale (2025-2035) suggerisce che i risultati dipendono meno dal ritmo del progresso tecnico che dalle scelte di governance, dalla struttura del mercato e dalla capacità pubblica . Uno scenario di base regolamentato produce moderati guadagni di produttività e rischi sociali gestibili. Uno scenario incentrato sull’uomo e con un’elevata governance, caratterizzato da elaborazione pubblica, spazi dati interoperabili e solidi regimi di audit, massimizza la distribuzione del welfare ma richiede investimenti sostenuti e capacità istituzionale. Uno scenario di concentrazione, caratterizzato da una debole applicazione delle norme antitrust e da un lock-in proprietario, aumenta l’efficienza per un sottoinsieme di attori, degradando al contempo autonomia, equità e resilienza. Uno scenario basato su beni comuni aperti migliora la diffusione dell’innovazione ma richiede solidi meccanismi di garanzia della qualità e di responsabilità.
In tutti gli scenari, i miglioramenti della qualità della vita sono fortemente correlati alle soglie minime di alfabetizzazione digitale, trasparenza algoritmica, capacità del settore pubblico e politiche di concorrenza . Laddove queste soglie non vengono raggiunte, l’adozione dell’IA tende ad aggravare la disuguaglianza, la dipendenza e la frammentazione sociale. Laddove vengono raggiunte, l’IA funziona come moltiplicatore delle capacità umane piuttosto che come suo sostituto.
Il rapporto conclude che la traiettoria sociale dell’IA non è predeterminata tecnologicamente. È subordinata alla progettazione istituzionale, all’applicazione della governance e alla distribuzione del controllo su dati, elaborazione e standard . Una politica efficace deve quindi trattare l’IA non solo come una questione di innovazione, ma come un’infrastruttura sociale fondamentale che richiede supervisione democratica, valutazione continua e coordinamento internazionale.
Scarica il libro
1. Definizioni concettuali, ambito analitico e quadro metodologico
1.1 Scopo e perimetro analitico del rapporto
Questo capitolo stabilisce i fondamenti concettuali, geografici, settoriali e metodologici del rapporto. Data la velocità, la portata e l’eterogeneità dell’implementazione dell’intelligenza artificiale (IA), la chiarezza analitica è un prerequisito per la rilevanza delle politiche. Definizioni ambigue, ambiti di applicazione illimitati o la confusione tra futuri speculativi e realtà osservate compromettono sia la progettazione della governance sia la valutazione empirica. Di conseguenza, questo capitolo svolge quattro funzioni:
- Definisce i concetti fondamentali dell’intelligenza artificiale con precisione operativa, distinguendo esplicitamente le tecnologie attuali dai costrutti ipotetici.
- Specifica il perimetro geografico e istituzionale dell’analisi.
- Delinea i domini di applicazione e i meccanismi sociali attraverso i quali l’intelligenza artificiale esercita un impatto.
- Presenta il quadro metodologico integrato utilizzato in tutto il rapporto, combinando prospettive economiche, tecnologiche, psicologiche e di governance.
Il rapporto tratta l’IA non come un artefatto singolo, ma come un sistema socio-tecnico stratificato, integrato in mercati, istituzioni e ambienti cognitivi. L’unità di analisi non è quindi “l’IA in generale “, ma l’IA implementata : sistemi che operano in base a specifici incentivi, regimi normativi e vincoli organizzativi.
1.2 Definizioni operative
1.2.1 Intelligenza artificiale
Ai fini del presente rapporto, l’intelligenza artificiale si riferisce ai sistemi computazionali che eseguono attività che richiedono percezione, riconoscimento di modelli, previsione, supporto decisionale o generazione di contenuti, tradizionalmente associati allo sforzo cognitivo umano, attraverso l’inferenza algoritmica sui dati.
Questa definizione è in linea con l’approccio funzionale dell’OCSE ed evita criteri antropomorfici o basati sulla coscienza, che restano al di fuori dell’ambito dell’analisi empirica della governance
( https://oecd.ai/en/ai-definitions ).
1.2.2 Apprendimento automatico
L’apprendimento automatico (ML) è definito come un sottoinsieme di sistemi di intelligenza artificiale che deducono relazioni statistiche dai dati al fine di ottimizzare le prestazioni su una funzione obiettivo specificata senza una programmazione esplicita basata su regole. I sistemi di ML sono probabilistici, dipendenti dai dati e sensibili alle variazioni distributive.
Le proprietà chiave rilevanti per l’analisi sociale includono:
- Dipendenza dai dati storici (e pregiudizi incorporati),
- Opacità nei modelli ad alta dimensionalità,
- Sensibilità agli incentivi codificati nelle funzioni di perdita.
1.2.3 Intelligenza artificiale generativa
L’intelligenza artificiale generativa si riferisce a modelli in grado di produrre contenuti innovativi (testo, immagini, audio, video, codice o dati strutturati) apprendendo la struttura statistica di set di dati su larga scala e campionando dalle distribuzioni di probabilità apprese.
Da una prospettiva sociale, l’intelligenza artificiale generativa si distingue perché:
- Opera direttamente nei domini linguistici e simbolici centrali per l’istruzione, l’amministrazione e la cultura;
- Scala l’output informativo a un costo marginale prossimo allo zero;
- Confonde i confini tra produzione, assistenza e sostituzione del lavoro cognitivo.
1.2.4 Modelli di fondazione
I modelli di base sono modelli di grandi dimensioni e di uso generale, addestrati su ampi set di dati e adattabili a molteplici attività a valle tramite fine-tuning, prompting o generazione aumentata dal recupero (RAG) . La loro caratteristica distintiva è la generalità , non l’autonomia.
I modelli di base funzionano come infrastrutture , non come applicazioni. Il loro impatto sociale dipende principalmente da:
- Condizioni di accesso,
- Vincoli di governance,
- Integrazione nei flussi di lavoro istituzionali.
1.2.5 Intelligenza Artificiale Generale (AGI)
L’intelligenza artificiale generale è trattata rigorosamente come un costrutto ipotetico , definito come un sistema in grado di svolgere la maggior parte dei compiti cognitivi economicamente rilevanti a livello umano o superiore in tutti i domini, con un adattamento minimo specifico al compito.
Nessun sistema implementato a dicembre 2025 soddisfa questa definizione. Di conseguenza:
- L’AGI è escluso dalla valutazione dell’impatto empirico,
- I riferimenti all’AGI sono limitati alla pianificazione degli scenari e alla governance del rischio,
- Le raccomandazioni politiche si basano su sistemi esistenti e a breve termine .
Questa posizione è in linea con le linee guida dell’OCSE, dell’UNESCO e del NIST che sottolineano la governance delle capacità attuali
( https://www.nist.gov/itl/ai-risk-management-framework ).
1.2.6 Automazione cognitiva
L’automazione cognitiva indica la delega di compiti che implicano giudizio, interpretazione o supporto decisionale, anziché l’esecuzione fisica, a sistemi algoritmici. Tra gli esempi figurano la classificazione dei documenti, lo screening di idoneità, l’assistenza diagnostica e la pianificazione.
L’automazione cognitiva è analiticamente centrale perché:
- Colpisce i ruoli dei colletti bianchi e del settore pubblico,
- Altera la composizione delle competenze piuttosto che solo i livelli di occupazione,
- Interagisce direttamente con la fiducia, la responsabilità e l’identità professionale.
1.2.7 Intelligenza artificiale centrata sull’uomo
L’intelligenza artificiale incentrata sull’uomo si riferisce a sistemi progettati e gestiti per migliorare l’agire umano, la responsabilità e il benessere, piuttosto che limitarsi a ottimizzare l’efficienza o la scalabilità. Questo concetto è reso operativo attraverso:
- Requisiti di partecipazione umana,
- Meccanismi di spiegabilità e contestabilità,
- Allineamento con i valori sociali e i diritti legali.
La definizione segue la Raccomandazione dell’UNESCO sull’etica dell’intelligenza artificiale
( https://www.unesco.org/en/artificial-intelligence/recommendation-ethics ).
1.3 Ambito geografico
Il rapporto si concentra su sei macroregioni selezionate in base al loro peso economico, all’influenza normativa, alla scala demografica e alla rilevanza geopolitica :
- Unione Europea (UE)
Caratterizzata da una regolamentazione ex ante completa (EU AI Act), da una forte protezione dei dati (GDPR) e da un’enfasi sulla governance incentrata sull’uomo. - Stati Uniti
Caratterizzati da innovazione guidata dal mercato, regolamentazione settoriale, forte leadership informatica e quadri normativi emergenti in materia di antitrust e sicurezza. - Cina
caratterizzata da un’implementazione dell’intelligenza artificiale coordinata dallo Stato, un ampio utilizzo nel settore pubblico e una governance centralizzata dei dati allineata agli obiettivi politici. - L’India
rappresenta un contesto ad alta crescita e ad alta densità demografica, con una solida infrastruttura pubblica digitale e una capacità istituzionale non uniforme. - Africa subsahariana
Caratterizzata da una rapida adozione tramite sistemi importati, capacità normativa limitata e alto rischio di dipendenza ed estrazione di dati. - America Latina
Caratterizzata da un’adozione eterogenea, da sperimentazioni istituzionali e dall’esposizione sia agli incrementi di produttività sia alla polarizzazione del lavoro.
L’analisi comparativa enfatizza le differenze strutturali , non la classificazione normativa.
1.4 Ambiti settoriali e istituzionali
L’analisi riguarda l’implementazione dell’intelligenza artificiale nei seguenti ambiti, selezionati per il loro impatto sociale sistemico :
- Pubblica amministrazione e sistemi di welfare
- Erogazione e triage dell’assistenza sanitaria
- Istruzione (primaria, secondaria, terziaria)
- Mercati del lavoro e gestione del posto di lavoro
- Giustizia e servizi legali
- Sicurezza e difesa (supporto decisionale non cinetico)
- Industria e PMI
- Agricoltura e gestione ambientale
- Trasporti e logistica
- Finanza e allocazione del credito
- Ecosistemi dei media e dell’informazione
Ogni dominio viene valutato in termini di:
- Accesso e inclusione,
- Efficienza e qualità,
- Rischio di esclusione o abuso,
- Governance e responsabilità.
I sistemi di intelligenza artificiale agiscono non solo sui compiti, ma anche sulla cognizione e sulla motivazione umana . Questo rapporto incorpora esplicitamente dimensioni psicologiche, tra cui:
- Carico cognitivo e allocazione dell’attenzione,
- Calibrazione della fiducia e pregiudizio dell’automazione,
- Dipendenza e perdita di ritenzione delle competenze (deskilling),
- Agenzia e autonomia percepite,
- Impatti sul benessere mentale e sull’identità professionale.
Queste dimensioni sono essenziali per spiegare perché i sistemi tecnicamente performanti possono produrre risultati sociali negativi se scarsamente integrati.
1.6 Quadro analitico
Gli impatti sociali, economici e istituzionali dell’intelligenza artificiale non possono essere analizzati in modo significativo attraverso una singola lente disciplinare o un modello causale lineare. L’IA opera simultaneamente come una tecnologia di uso generale , un’infrastruttura che plasma il mercato , un sistema cognitivo e un oggetto di governance . I suoi effetti sono quindi non lineari, dipendenti dal contesto e fortemente mediati dagli assetti istituzionali. Per gestire questa complessità senza ridurla a un’astrazione o a un aneddoto, il rapporto adotta un quadro analitico multistrato che combina economia politica, analisi organizzativa, valutazione tecnologica e valutazione dell’impatto sociale.
Il quadro è esplicitamente comparativo , strutturale e orientato agli scenari . È progettato per distinguere tra (a) effetti intrinseci alle tecnologie di intelligenza artificiale stesse e (b) effetti derivanti dal modo in cui tali tecnologie sono integrate in specifici contesti normativi, di mercato e istituzionali. Questa distinzione è essenziale per evitare il determinismo tecnologico e identificare leve politiche attuabili.
Il rapporto utilizza tre strumenti analitici complementari: l’analisi PESTEL , l’analisi SWOT e le Cinque Forze di Porter , ciascuno applicato a diversi livelli di aggregazione e con diverse finalità esplicative. Insieme, consentono al rapporto di mappare vincoli e fattori abilitanti, identificare compromessi e valutare la distribuzione del potere nell’ecosistema dell’IA.
1.6.1 Analisi PESTEL: mappatura del contesto sistemico
L’analisi PESTEL viene utilizzata come strumento diagnostico macrostrutturale per valutare in che modo i fattori politici, economici, sociali, tecnologici, ambientali e legali influenzano l’adozione e l’impatto dell’IA in ambiti quali la pubblica amministrazione, il mercato del lavoro, i sistemi educativi, l’assistenza sanitaria e gli ecosistemi informativi. Piuttosto che trattare l’IA come uno shock esogeno, questo approccio la colloca all’interno delle traiettorie istituzionali e delle strutture di potere esistenti .
I fattori politici includono la capacità di governo, le priorità strategiche, le relazioni tra Stato e mercato, gli allineamenti geopolitici e la competenza amministrativa. Ad esempio, lo stesso sistema di idoneità al welfare basato sull’intelligenza artificiale produce risultati radicalmente diversi a seconda che venga implementato in uno Stato ad alta capacità con solidi meccanismi di controllo (ad esempio, i paesi nordici) o in un contesto caratterizzato da una debole capacità amministrativa e da una limitata responsabilità. La stabilità politica e la fiducia nelle istituzioni condizionano anche l’accettazione pubblica delle decisioni mediate dall’intelligenza artificiale; gli ambienti a bassa fiducia amplificano il danno percepito anche quando le prestazioni tecniche sono comparabili.
I fattori economici comprendono i livelli di produttività, la struttura del mercato del lavoro, la distribuzione del reddito, la composizione industriale e i vincoli fiscali. L’adozione dell’IA nelle economie ad alto salario e ad alta intensità di competenze tende a enfatizzare l’incremento e i guadagni di efficienza, mentre nelle economie a basso salario o altamente informali può esacerbare la sostituzione senza un corrispondente assorbimento di produttività. La struttura economica determina anche chi cattura il valore generato dall’IA: le economie con forti ecosistemi di IA nazionali mantengono le rendite, mentre le economie dipendenti dalle importazioni subiscono perdite di valore attraverso licenze, costi del cloud ed estrazione di dati.
I fattori sociali includono la struttura demografica, la disuguaglianza, l’alfabetizzazione digitale, gli atteggiamenti culturali nei confronti dell’automazione e le reti di sicurezza sociale. Ad esempio, le società che invecchiano potrebbero adottare l’intelligenza artificiale nell’assistenza sanitaria e sociale per necessità, mentre le società più giovani si trovano ad affrontare compromessi diversi legati all’occupazione e alla formazione delle competenze. La stratificazione sociale interagisce con l’implementazione dell’intelligenza artificiale: i gruppi con una minore alfabetizzazione digitale o familiarità istituzionale sono più vulnerabili all’esclusione da parte dei sistemi automatizzati, anche quando tali sistemi migliorano i risultati medi.
I fattori tecnologici non si riferiscono solo alla disponibilità di modelli di intelligenza artificiale, ma anche alla maturità delle infrastrutture, all’interoperabilità, alla resilienza della sicurezza informatica e alla capacità di integrazione. Due Paesi possono avere accesso agli stessi strumenti di intelligenza artificiale, ma ottenere risultati radicalmente diversi a seconda della penetrazione della banda larga, dell’accesso al cloud, della qualità dei dati e della maturità delle MLOps. La preparazione tecnologica agisce quindi come moltiplicatore sia dei benefici che dei rischi.
I fattori ambientali influenzano l’impatto ambientale dei sistemi di intelligenza artificiale, tra cui il consumo energetico, l’utilizzo di acqua per il raffreddamento e l’uso del suolo associato ai data center. Questi fattori limitano sempre più l’implementazione dell’intelligenza artificiale e si intersecano con le politiche climatiche. Le regioni con reti energetiche ad alta intensità di carbonio affrontano costi ambientali più elevati per unità di output di intelligenza artificiale, influenzando sia l’accettazione pubblica che le risposte normative.
I fattori legali includono regimi di protezione dei dati, quadri normativi sulla responsabilità, diritto del lavoro, norme sugli appalti e diritto amministrativo. Gli ambienti giuridici determinano non solo ciò che è consentito, ma anche ciò che è economicamente sostenibile. Ad esempio, rigorosi requisiti di trasparenza e audit aumentano i costi di conformità, favorendo i grandi operatori storici e potenzialmente escludendo gli attori più piccoli, a meno che non vengano introdotte misure compensative.
L’analisi PESTEL viene applicata ripetutamente nel rapporto per spiegare perché tecnologie di intelligenza artificiale identiche generano risultati divergenti nelle diverse regioni e nei diversi settori e per identificare i colli di bottiglia strutturali che non possono essere risolti solo con soluzioni tecniche.
1.6.2 Analisi SWOT: differenziazione dell’impatto specifico del settore
Mentre PESTEL cattura il macro-contesto, l’analisi SWOT viene utilizzata per valutare gli impatti dell’IA a livello settoriale e istituzionale , distinguendo tra proprietà intrinseche delle tecnologie di IA ed effetti dipendenti dal contesto derivanti da governance, progettazione organizzativa e incentivi.
I punti di forza si riferiscono alle capacità intrinseche dei sistemi di intelligenza artificiale, come scalabilità, velocità, riconoscimento di pattern e riduzione dei costi nell’elaborazione delle informazioni. Nella pubblica amministrazione, ad esempio, il punto di forza dell’intelligenza artificiale risiede nella gestione di compiti ad alto volume e basati su regole che superano le capacità umane. Nell’istruzione, i punti di forza includono il feedback adattivo e il ritmo personalizzato.
Le debolezze riflettono limitazioni intrinseche, tra cui l’opacità, la fragilità in caso di cambiamenti distributivi, la dipendenza dai dati di training e la mancanza di giudizio normativo. Queste debolezze persistono indipendentemente dal contesto e richiedono una supervisione umana compensativa. Ad esempio, l’incapacità dell’IA di comprendere il contesto sociale o le sfumature morali ne limita l’idoneità a prendere decisioni autonome nei sistemi giudiziari o di welfare.
Le opportunità nascono dall’interazione tra le capacità dell’IA e i bisogni sociali o organizzativi insoddisfatti. In ambito sanitario, l’IA offre opportunità per alleviare la carenza di personale e ridurre gli oneri amministrativi. Nei mercati del lavoro, consente nuovi ruoli ibridi e flussi di lavoro che migliorano la produttività. Queste opportunità sono latenti , non automatiche; richiedono investimenti complementari e adattamento istituzionale.
Le minacce emergono quando le debolezze dell’IA interagiscono con condizioni istituzionali avverse. Tra gli esempi figurano il pregiudizio dell’automazione in contesti clinici scarsamente supervisionati, l’esclusione nei sistemi di welfare digitalizzati privi di meccanismi di ricorso o la dequalificazione nei sistemi educativi che sostituiscono l’apprendimento anziché integrarlo. Le minacce sono spesso sistemiche piuttosto che episodiche e si accumulano nel tempo.
È fondamentale che l’analisi SWOT di questo rapporto non sia statica. Un fattore classificato come punto di forza in un contesto può rappresentare una minaccia in un altro. Ad esempio, la scalabilità dell’intelligenza artificiale è un punto di forza nella risposta alle emergenze, ma una minaccia nella sorveglianza senza vincoli legali. Questa flessibilità analitica consente al rapporto di evitare conclusioni univoche e di formulare raccomandazioni politiche condizionate .
1.6.3 Le cinque forze di Porter applicate alla catena del valore dell’IA
Il framework delle Cinque Forze di Porter è adattato per analizzare la struttura del mercato e le dinamiche di potere lungo la catena del valore dell’IA, che differisce fondamentalmente dai tradizionali settori manifatturiero o dei servizi. Il framework non viene applicato a un singolo mercato, ma a livelli interconnessi , ciascuno con dinamiche competitive distinte.
Nella produzione di semiconduttori , le barriere all’ingresso sono estreme a causa dell’intensità di capitale, della complessità tecnologica e dei vincoli geopolitici. Il potere dei fornitori è elevato e la concorrenza è limitata a un numero limitato di aziende. Questo livello funge da strozzatura strutturale, plasmando l’intero ecosistema dell’intelligenza artificiale.
Nelle infrastrutture cloud e di elaborazione , dominano le economie di scala e di scopo. Il potere d’acquisto è limitato per la maggior parte degli utenti, i costi di passaggio sono elevati e l’integrazione verticale con i livelli superiori aumenta il vantaggio strategico degli operatori storici. Questo livello presenta caratteristiche quasi-infrastrutturali, sollevando interrogativi sulla regolamentazione analoghi a quelli delle utility.
Nei modelli di base , le dinamiche competitive sono plasmate dall’accesso a risorse di calcolo, dati e talenti. La minaccia di ingresso è bassa a causa dei costi e del rischio, mentre la rivalità tra pochi attori è intensa. I fornitori di modelli esercitano sempre più potere sull’innovazione a valle attraverso API, prezzi e politiche di utilizzo.
Nell’aggregazione dei dati , le forze competitive dipendono dall’esclusività dei dati, dai vincoli normativi e dagli effetti di rete. I set di dati proprietari conferiscono un vantaggio duraturo, mentre i dati pubblici o aperti possono ridurre le barriere se i quadri di governance supportano l’accesso e la qualità.
Nelle piattaforme e nelle applicazioni di distribuzione , la rivalità è più elevata e le barriere all’ingresso più basse, ma la dipendenza dai livelli upstream limita l’autonomia strategica. L’innovazione è vivace, ma la cattura del valore è limitata dalle commissioni di piattaforma, dalle restrizioni di accesso ai dati e dalle asimmetrie contrattuali.
L’applicazione delle Cinque Forze a questi livelli rivela perché i mercati dell’intelligenza artificiale tendono alla concentrazione , perché gli strumenti antitrust tradizionali sono in difficoltà e dove l’intervento politico può essere più efficace. Chiarisce inoltre come il potere fluisca verticalmente, consentendo agli attori a monte di influenzare i risultati a valle nei mercati del lavoro, nei sistemi educativi e nei servizi pubblici.
Funzione integrativa del quadro
Utilizzati insieme, PESTEL, SWOT e Five Forces consentono un’analisi strutturale e non deterministica dell’IA. Consentono al report di:
- Separare la capacità tecnologica dal risultato sociale
- Identificare i punti di leva per la governance e la politica
- Spiegare la divergenza regionale senza ricorrere all’essenzialismo culturale
- Anticipare gli effetti di secondo e terzo ordine
- Analisi dello scenario di base nelle variabili strutturali osservabili
Questa architettura analitica è alla base di tutti i capitoli successivi e garantisce che le conclusioni sull’impatto sociale dell’IA rimangano basate su prove, sensibili al contesto e pertinenti alle politiche , piuttosto che speculative o tecnologicamente riduzioniste.
1.6.4 Quadri di rischio ed etica
Il rapporto integra gli standard internazionali consolidati:
- Principi IA dell’OCSE
https://oecd.ai/en/ai-principles - Raccomandazione UNESCO sull’etica dell’intelligenza artificiale
https://www.unesco.org/en/artificial-intelligence/recommendation-ethics - Quadro di gestione del rischio dell’intelligenza artificiale del NIST
https://www.nist.gov/itl/ai-risk-management-framework - ISO/IEC 23894 (standard di gestione del rischio dell’IA)
https://www.iso.org/standard/77304.html
Questi quadri forniscono linee di base normative piuttosto che soluzioni prescrittive.
1.6.5 Modelli economici: lavoro, produttività e trasformazione strutturale
L’analisi economica dell’intelligenza artificiale presentata in questo rapporto si basa su una serie di quadri teorici complementari e consolidati che spiegano come il cambiamento tecnologico influenzi nel tempo i mercati del lavoro, la produttività, la distribuzione del reddito e la struttura economica. Nessun modello singolo è sufficiente a cogliere i molteplici impatti dell’IA. Il rapporto integra invece molteplici prospettive per evitare riduzionismi e riflettere l’eterogeneità empirica osservata nei diversi settori e regioni.
Al centro dell’analisi c’è il riconoscimento che l’intelligenza artificiale non è un input di capitale convenzionale, ma una tecnologia multiuso che trasforma i compiti, i cui effetti economici sono mediati attraverso istituzioni, progettazione organizzativa e sistemi di formazione delle competenze.
Cambiamento tecnico basato sulle competenze (SBTC)
Il modello del cambiamento tecnico basato sulle competenze spiega come il progresso tecnologico possa aumentare la produttività relativa e i salari dei lavoratori più qualificati, riducendo al contempo la domanda di manodopera meno qualificata. Storicamente, l’SBTC è stato utilizzato per interpretare la polarizzazione salariale nelle economie avanzate durante i periodi di diffusione delle ICT.
Nel contesto dell’intelligenza artificiale, l’SBTC rimane rilevante ma da solo insufficiente . L’intelligenza artificiale aumenta la produttività marginale dei lavoratori che possono:
- Interpretare criticamente gli output del modello,
- Integrare l’intelligenza artificiale in flussi di lavoro complessi,
- Esercitare il giudizio in condizioni di incertezza,
- Combinare la competenza specialistica con la competenza tecnica.
Evidenze empiriche tratte da studi aziendali condotti dall’OCSE e dalla Banca Mondiale dimostrano che l’adozione dell’intelligenza artificiale è associata a premi salariali per i lavoratori con competenze analitiche, manageriali e tecniche ibride avanzate , anche all’interno della stessa professione. Ad esempio, analisti o ingegneri potenziati dall’intelligenza artificiale percepiscono salari più elevati rispetto ai colleghi che svolgono compiti simili senza integrazione con l’intelligenza artificiale.
Tuttavia, a differenza delle precedenti ondate di ICT, l’IA automatizza anche compiti precedentemente associati a ruoli di media e alta qualificazione. Ciò crea una dispersione all’interno del gruppo di competenze , un fenomeno che la SBTC da sola non può spiegare appieno. Di conseguenza, il rapporto tratta la SBTC come un meccanismo esplicativo parziale , applicabile principalmente alla comprensione dei rendimenti in termini di adattabilità e competenze complementari , piuttosto che del livello di istruzione in sé.
Automazione basata sulla routine (RBA)
L’automazione basata sulla routine fornisce una spiegazione più precisa degli effetti dell’IA sul mercato del lavoro. Questo quadro teorico postula che le mansioni, non i lavori, siano l’unità di analisi rilevante e che le mansioni caratterizzate da routine, codificabilità e prevedibilità siano le più suscettibili all’automazione.
L’intelligenza artificiale estende questa logica al dominio cognitivo. Compiti come:
- Classificazione dei documenti,
- Reporting standardizzato,
- Scrittura della prima bozza,
- Diagnostica basata su modelli,
- Pianificazione e coordinamento,
sono sempre più automatizzate o semi-automatizzate, indipendentemente dal fatto che siano svolte da impiegati, professionisti o manager.
I dati empirici a livello di mansione tratti dagli indici di esposizione professionale PIAAC dell’OCSE e dall’ILO dimostrano che l’esposizione a compiti cognitivi di routine è ora un indicatore più forte del rischio di automazione rispetto al livello di istruzione formale . Questo spiega perché alcune occupazioni impiegatizie subiscono una pressione al ribasso sui salari o un’erosione delle mansioni, nonostante l’occupazione complessiva rimanga stabile.
Il quadro RBA è fondamentale per l’analisi del rapporto su:
- Trasformazione del contenuto del lavoro,
- Ibridazione occupazionale,
- Dispersione salariale all’interno delle professioni,
- Impatti psicologici quali dequalificazione e perdita di autonomia.
Produttività a livello aziendale e produttività totale dei fattori (TFP)
Le statistiche aggregate sulla produttività spesso sottostimano l’impatto dell’IA a causa di difficoltà di misurazione, ritardi di diffusione ed eterogeneità settoriale. Per questo motivo, il rapporto enfatizza l’analisi della produttività a livello aziendale , basandosi su studi di microdati dell’OCSE, della Banca Mondiale e delle agenzie statistiche nazionali.
A livello aziendale, l’adozione dell’IA è associata a:
- Significativi guadagni di produttività nei primi utilizzatori,
- Aumento della varianza nelle prestazioni tra le aziende,
- Effetti di complementarietà con il capitale organizzativo.
Aziende che combinano l’intelligenza artificiale con:
- Formazione della forza lavoro,
- Riprogettazione del flusso di lavoro,
- Governance dei dati,
- Maturità MLOps,
ottenere miglioramenti duraturi della produttività. Le aziende che adottano l’intelligenza artificiale in modo superficiale spesso non riescono a ottenere risultati, o addirittura subiscono perdite di produttività a causa dei costi di integrazione e delle carenze di coordinamento.
Ciò produce una dinamica di dispersione della produttività , in cui le aziende di frontiera avanzano mentre quelle ritardatarie ristagnano. A livello macro, ciò si traduce in una modesta crescita della produttività totale dei fattori (TFP) nonostante il rapido progresso tecnologico, un andamento coerente con le tecnologie multiuso storiche.
Il rapporto utilizza l’analisi TFP non come parametro principale, ma come strumento diagnostico per identificare dove si accumulano i guadagni di produttività e perché non riescono a diffondersi , informando il dibattito politico sulla concorrenza, le competenze e la capacità istituzionale.
Modelli di transizione e riallocazione del lavoro
Gli effetti dell’intelligenza artificiale sull’occupazione sono modellati utilizzando modelli di riallocazione del lavoro che enfatizzano i flussi piuttosto che gli stock . L’intelligenza artificiale non elimina principalmente posti di lavoro; accelera le transizioni tra compiti, ruoli e settori.
Le variabili chiave in questi modelli includono:
- Velocità di spostamento del compito,
- Disponibilità di ruoli adiacenti,
- Trasferibilità delle competenze,
- Forza delle istituzioni di transizione (sistemi di formazione, sostegno al reddito).
L’evidenza empirica degli studi nazionali dell’OIL e dell’OCSE mostra che le economie con forti politiche attive del mercato del lavoro registrano minori costi di adeguamento e un più rapido reinserimento lavorativo , anche in caso di elevata esposizione all’automazione. Al contrario, sistemi di transizione deboli portano a un aumento della precarietà, dell’informalizzazione e dello stress psicologico, anche in assenza di disoccupazione di massa.
Questi modelli sostengono la conclusione del rapporto secondo cui i risultati occupazionali sono mediati dalle istituzioni e non predeterminati dalla tecnologia.
Fondamenti empirici e limitazioni
Tutta l’analisi economica contenuta nel rapporto si basa su:
- Set di dati OCSE su occupazione, produttività e competenze,
- Indici di esposizione professionale e lavorativa dell’ILO,
- Indagini aziendali e studi sulla produttività della Banca Mondiale,
- Dati nazionali sulla forza lavoro e sui guadagni.
Laddove vengono utilizzate stime, queste sono esplicitamente etichettate e gli intervalli di incertezza sono riportati quando disponibili. Il rapporto distingue rigorosamente tra:
- Correlazioni osservate,
- Stime causali,
- Proiezioni basate su modelli.
Tra i limiti rientrano il ritardo nei dati, la sottorappresentazione delle economie informali e le difficoltà nella misurazione della sostituzione dei compiti cognitivi. Questi limiti sono esplicitamente riconosciuti e incorporati negli intervalli di incertezza degli scenari.
1.6.6 Diffusione della tecnologia e pianificazione degli scenari
L’impatto economico dipende non solo da ciò che l’IA può fare, ma anche dalla sua velocità, ampiezza e condizioni di diffusione . Per analizzare le dinamiche di adozione, il rapporto integra la teoria della diffusione con la pianificazione strutturata degli scenari.
Diffusione della teoria dell’innovazione
La teoria della diffusione dell’innovazione spiega come le tecnologie si diffondono tra le popolazioni attraverso categorie di adottanti identificabili: innovatori, primi utilizzatori, maggioranza precoce, maggioranza tardiva e ritardatari. La diffusione dell’IA segue questo schema, ma con un’amplificazione istituzionale .
Le grandi aziende e le istituzioni pubbliche ad alta capacità agiscono come primi utilizzatori, mentre le PMI, le scuole e le amministrazioni locali spesso restano indietro a causa di:
- Vincoli di costo,
- Carenza di competenze,
- Avversione al rischio,
- Incertezza normativa.
La diffusione è quindi irregolare e dipendente dal percorso , rafforzando le disuguaglianze esistenti tra aziende, regioni e gruppi sociali.
Modelli di adozione della curva a S
L’adozione dell’intelligenza artificiale mostra la classica dinamica della curva a S:
- Assorbimento iniziale lento durante la sperimentazione,
- Rapida accelerazione una volta che i flussi di lavoro e gli standard si stabilizzano,
- Si verifica un plateau quando i benefici marginali diminuiscono o i vincoli diventano vincolanti.
Il rapporto utilizza la logica della curva a S per interpretare l’adozione attuale come se si trovasse nella fase di accelerazione iniziale-media per la maggior parte dei settori, con le aziende di frontiera che si avvicinano alla saturazione, mentre i servizi pubblici e l’istruzione rimangono nelle fasi iniziali.
È importante sottolineare che gli interventi di governance possono modificare la curva :
- Gli investimenti pubblici accelerano l’adozione,
- La regolamentazione può rallentare o rimodellare la diffusione,
- La politica delle competenze determina chi sale nella scala sociale.
Pianificazione degli scenari: gestione strutturata dell’incertezza
Data l’incertezza intrinseca delle traiettorie dell’IA, il rapporto utilizza la pianificazione di scenari anziché previsioni puntuali . Gli scenari vengono costruiti identificando:
- Fattori critici (costi di calcolo, regolamentazione, competenze, concentrazione del mercato),
- Incertezze chiave (forza della governance, frammentazione geopolitica),
- Interazioni plausibili tra variabili.
Ogni scenario include:
- Ipotesi esplicite,
- Traguardi ordinati nel tempo,
- Intervalli di probabilità espressi qualitativamente (basso/medio/alto),
- Soglie degli indicatori che segnalano lo spostamento tra gli scenari.
Separazione dei dati osservati e delle proiezioni
In tutto il testo viene applicata una rigorosa regola metodologica:
- I dati osservati descrivono il passato e il presente,
- Le proiezioni descrivono futuri condizionati.
Le proiezioni non vengono mai presentate come previsioni. Sono formulate come affermazioni del tipo “se-allora” , subordinate alle scelte politiche e istituzionali. Questo previene false certezze e preserva l’integrità analitica.
Ruolo integrativo di questi quadri
Insieme, i modelli economici e l’analisi della diffusione consentono al rapporto di:
- Spiega perché l’intelligenza artificiale produce risultati divergenti in termini di lavoro e produttività,
- Identificare i punti di leva per l’intervento politico,
- Evitare narrazioni deterministiche di inevitabilità tecnologica,
- Ancorare gli scenari futuri alla struttura empirica piuttosto che alla speculazione.
Garantiscono che l’IA venga analizzata non come una forza astratta, ma come un sistema economicamente integrato, i cui impatti sono plasmati da scelte, vincoli e istituzioni .
1.7 Limitazioni e disciplina analitica
Il presente rapporto riconosce esplicitamente:
- Lacune nei dati sulla salute mentale e sui risultati educativi a lungo termine,
- Sfide di misurazione nell’attribuzione della produttività dell’IA,
- Rapidi cambiamenti tecnologici che possono alterare specifiche strutture di costo.
Laddove esiste incertezza, questa viene quantificata, delimitata e divulgata .
1.8 Transizione del capitolo
Dopo aver stabilito definizioni, ambito e metodologia, il capitolo successivo esamina lo stato globale dell’intelligenza artificiale dopo il 2024 , concentrandosi sulle traiettorie tecnologiche, sui modelli di adozione e sulle divergenze strutturali tra le regioni.
2. Stato globale dell’intelligenza artificiale (post-2024)



2.1 Panoramica: dalla diffusione accelerata al consolidamento strutturale
Entro la fine del 2025, l’intelligenza artificiale è passata da una fase di innovazione caratterizzata da rapida sperimentazione a una fase strutturale caratterizzata da istituzionalizzazione, consolidamento normativo e consolidamento del mercato. Il periodo post-2024 è definito meno da improvvise innovazioni algoritmiche che dall’integrazione sistemica delle capacità di intelligenza artificiale esistenti nella pubblica amministrazione, nei flussi di lavoro aziendali, nei sistemi educativi e nelle interfacce dei consumatori. Il cambiamento principale è qualitativo: l’intelligenza artificiale è diventata infrastrutturale , plasmando il modo in cui vengono prese le decisioni, erogati i servizi e prodotta la conoscenza.
Tre macro-tendenze caratterizzeranno il panorama globale dell’intelligenza artificiale dopo il 2024:
- Stabilizzazione dei paradigmi del modello di base (grandi modelli di base, architetture multimodali, orchestrazione agentica) insieme a miglioramenti incrementali delle prestazioni piuttosto che a cambiamenti di paradigma.
- Maggiore concentrazione nello sviluppo di modelli di elaborazione, cloud e di frontiera, unita a movimenti parziali contrari verso ecosistemi aperti e regionalizzati.
- Normalizzazione normativa , con la governance dell’IA che passa dai principi volontari a obblighi esecutivi in diverse giurisdizioni.
Lo stato globale dell’intelligenza artificiale è quindi meglio compreso non solo come una corsa tecnologica, ma come una riconfigurazione dell’economia politica , in cui l’accesso al calcolo, ai dati, alle competenze e alla capacità di governance determina i risultati sociali.
2.2 Traiettorie tecnologiche dal 2024
2.2.1 Architetture e capacità del modello
Lo sviluppo dell’IA dopo il 2024 si è consolidato attorno ad architetture di modelli di base , principalmente sistemi basati su trasformatori estesi attraverso la multimodalità (testo, immagine, audio, video) e capacità di utilizzo di strumenti. I miglioramenti delle prestazioni dal 2023 sono stati trainati da:
- Miglioramenti dell’efficienza di scalabilità piuttosto che crescita dei parametri grezzi,
- Migliore cura dei dati e generazione di dati sintetici,
- Apprendimento per rinforzo da feedback umano e automatizzato,
- Integrazione di moduli di recupero, pianificazione ed esecuzione (sistemi “agentici”).
È importante notare che i guadagni di capacità sono sempre più specifici per un’attività piuttosto che generali. Sebbene i modelli dimostrino un miglioramento nel ragionamento, nella generazione di codice e nella sintesi cross-modale, rimangono vincolati da:
- Rischio di allucinazioni,
- Fragilità contestuale,
- Dipendenza da prompt o impalcature di alta qualità.
Dal punto di vista della governance sociale, l’implicazione chiave è che il rischio di implementazione supera ora il rischio di novità del modello . I fallimenti derivano meno da comportamenti sconosciuti e più da un’eccessiva dipendenza, da una scarsa integrazione o da un disallineamento degli incentivi .
2.2.2 Calcolo, energia e vincoli fisici
La disponibilità di elaborazione rimane il principale ostacolo che caratterizza il panorama dell’intelligenza artificiale. L’addestramento di modelli di frontiera richiede investimenti in miliardi di euro o dollari, mentre i costi di inferenza, sebbene in calo per unità, aumentano con il volume di distribuzione.
Tra i principali sviluppi successivi al 2024 figurano:
- Maggiore utilizzo di acceleratori specializzati e architetture orientate all’efficienza,
- Raggruppamento geografico di grandi data center in regioni con surplus energetico,
- Crescente attenzione politica all’intensità energetica e all’impronta di carbonio dell’intelligenza artificiale .
Nonostante i miglioramenti in termini di efficienza, la domanda globale di elaborazione basata sull’intelligenza artificiale continua a crescere più rapidamente di quanto i soli miglioramenti in termini di efficienza possano compensare. Questa dinamica rafforza la concentrazione e accresce l’importanza strategica della politica energetica, della resilienza della rete e della regolamentazione ambientale nella governance dell’intelligenza artificiale.
2.3 Modelli di adozione: dai progetti pilota all’uso sistemico
2.3.1 Adozione del settore pubblico
Dopo il 2024, l’adozione dell’intelligenza artificiale nella pubblica amministrazione è passata da progetti pilota isolati a implementazioni programmatiche , in particolare in:
- Amministrazione fiscale e rilevamento delle frodi,
- Idoneità ai benefici sociali e gestione dei casi,
- Triage sanitario e automazione amministrativa,
- Interfacce conversazionali rivolte al pubblico.
Nelle giurisdizioni dotate di quadri giuridici chiari e capacità di auditing, in particolare all’interno dell’Unione Europea, i sistemi di intelligenza artificiale sono sempre più integrati con requisiti di supervisione umana e documentazione , a testimonianza degli insegnamenti tratti dai primi fallimenti. Laddove tale capacità sia carente, le implementazioni rimangono opache e guidate dai fornitori, aumentando i rischi di dipendenza.
2.3.2 Integrazione tra settore privato e imprese
Nel settore privato, l’intelligenza artificiale è diventata un fattore di produttività generale , in particolare in:
- Sviluppo software,
- Analisi legale e di conformità,
- Operazioni di marketing e contenuti,
- Previsioni e logistica della catena di fornitura.
I dati provenienti da studi a livello aziendale indicano che i guadagni di produttività sono condizionati da investimenti complementari in formazione, riprogettazione del flusso di lavoro e governance. Le aziende che considerano l’IA come un sostituto plug-and-play mostrano rendimenti limitati o negativi, mentre quelle che adottano un approccio di integrazione socio-tecnica ottengono guadagni duraturi.
2.3.3 Formazione e lavoro sulla conoscenza
Entro il 2025, l’uso dell’intelligenza artificiale tra studenti e insegnanti sarà diffuso, sebbene regolamentato in modo non uniforme. Gli strumenti di intelligenza artificiale generativa sono utilizzati abitualmente per:
- Redazione e revisione,
- Spiegazione concettuale,
- Assistenza alla codifica,
- Traduzione della lingua.
La tendenza globale è verso l’integrazione piuttosto che verso il divieto , con una crescente enfasi sulla riprogettazione della valutazione, sull’alfabetizzazione all’intelligenza artificiale e sulle linee guida istituzionali. Tuttavia, le disparità nelle infrastrutture e nella formazione aggravano le disuguaglianze educative esistenti tra i paesi e al loro interno.
2.4 Struttura e concentrazione del mercato
2.4.1 Concentrazione lungo la catena del valore dell’IA
La catena del valore dell’IA, che comprende semiconduttori, infrastrutture cloud, modelli di base e piattaforme di distribuzione, presenta un’elevata concentrazione a più livelli . Le barriere all’ingresso sono determinate da:
- Intensità di capitale,
- Accesso ai dati,
- Concentrazione dei talenti ingegneristici,
- Effetti di blocco dell’ecosistema.
Le metriche di concentrazione del mercato nel cloud computing e nella fornitura di modelli avanzati superano i livelli tradizionalmente associati all’equilibrio competitivo, sollevando preoccupazioni in merito al potere di determinazione dei prezzi, ai colli di bottiglia dell’innovazione e alla dipendenza sistemica.
2.4.2 Modelli aperti e forze contrastanti
Dal 2024, gli ecosistemi modello aperti e semi-aperti si sono ampliati, trainati da:
- La domanda di trasparenza da parte del mondo accademico e del settore pubblico,
- Vincoli di costo per le PMI e le istituzioni pubbliche,
- Obiettivi di autonomia strategica in diverse regioni.
Sebbene i modelli aperti riducano le barriere all’ingresso e favoriscano la sperimentazione, non eliminano la dipendenza dall’infrastruttura di calcolo sottostante. Il loro valore sociale dipende quindi da investimenti complementari in risorse di calcolo, competenze e governance pubbliche .
2.5 Divergenza regionale nelle traiettorie dell’intelligenza artificiale
L’evoluzione globale dell’intelligenza artificiale dopo il 2024 non è convergente. Nonostante l’accesso a tecnologie di base simili, le regioni stanno divergendo strutturalmente a causa di differenze nella progettazione istituzionale, nella filosofia normativa, nella capacità dello Stato, nell’organizzazione del mercato e nel posizionamento geopolitico . L’IA non sta quindi producendo un unico “modello globale”, ma molteplici regimi di IA , ognuno dei quali integra la tecnologia nella società secondo distinte logiche politico-economiche.
Questa divergenza ha implicazioni a lungo termine. Essa plasma non solo la competitività economica, ma anche la distribuzione del potere tra cittadini, imprese e Stati; il grado di autonomia mantenuto dalle istituzioni pubbliche; e le condizioni in cui le decisioni mediate dall’IA sono percepite come legittime. Le seguenti sottosezioni analizzano in dettaglio queste traiettorie.
2.5.1 Unione Europea: sovranità regolamentare e legittimità istituzionale
La traiettoria dell’IA dell’Unione europea dopo il 2024 è fondamentalmente plasmata dall’Artificial Intelligence Act (AI Act) dell’UE , che stabilisce il primo quadro normativo orizzontale completo e vincolante per i sistemi di IA implementati in un importante blocco economico
( https://artificialintelligenceact.eu/ ).
L’AI Act rende operativo un modello di governance basato sul rischio che classifica i sistemi di IA in base alla gravità del potenziale danno ai diritti fondamentali, alla sicurezza e ai processi democratici. I sistemi ad alto rischio, come quelli utilizzati in ambito lavorativo, educativo, di valutazione del merito creditizio, di identificazione biometrica, di applicazione della legge e di pubblica amministrazione, sono soggetti a obblighi estesi, tra cui la gestione del rischio, la governance dei dati, la supervisione umana, la documentazione tecnica, la registrazione e il monitoraggio post-commercializzazione. I modelli di base e i sistemi di IA generici sono soggetti a ulteriori requisiti di trasparenza e di mitigazione del rischio sistemico.
Questo framework produce un modello di distribuzione distintivo . L’adozione dell’IA nell’UE è più lenta nelle fasi iniziali perché i sistemi devono essere progettati, documentati e verificati prima di essere scalabili. Tuttavia, una volta implementati, i sistemi tendono a essere più standardizzati tra le giurisdizioni, riducendo la frammentazione e aumentando l’interoperabilità transfrontaliera. Le pubbliche amministrazioni, in particolare, danno priorità ai sistemi conformi, spesso privilegiando fornitori certificati e architetture modulari che supportano la verificabilità.
I costi di conformità non sono trascurabili. Le aziende più piccole e gli enti pubblici devono affrontare oneri relativi più elevati, che possono ritardare l’adozione o limitare la sperimentazione. Tuttavia, questi costi sono parzialmente compensati dalla certezza del diritto . Le organizzazioni che operano ai sensi dell’AI Act beneficiano di limiti di responsabilità più chiari, di un’applicazione prevedibile e di un rischio reputazionale ridotto. Nel tempo, ciò incoraggia gli investimenti nella capacità di governance e nella professionalizzazione dell’implementazione dell’IA.
Una caratteristica distintiva del modello UE è la sua enfasi sulla supervisione umana e sulla responsabilità . Il processo decisionale autonomo in settori ad alto rischio è strutturalmente vincolato. I meccanismi di partecipazione umana o di partecipazione umana non sono garanzie opzionali, bensì requisiti legali. Ciò preserva la responsabilità istituzionale e allinea l’implementazione dell’IA alle tradizioni di diritto amministrativo esistenti, che enfatizzano il giusto processo e la contestabilità.
Dal punto di vista strategico, l’UE dà priorità all’intelligenza artificiale affidabile rispetto all’innovazione rapida. Ciò comporta un compromesso consapevole: accettare potenziali rischi competitivi a breve termine in cambio di legittimità istituzionale, accettazione sociale e influenza normativa a lungo termine. L’UE sfrutta il suo potere normativo per plasmare le pratiche globali, poiché le aziende che cercano di accedere al mercato europeo adattano i prodotti agli standard UE, creando ricadute normative.
Tuttavia, questo modello si scontra con tensioni strutturali. Senza investimenti paralleli in infrastrutture informatiche, spazi dati e talenti nell’intelligenza artificiale, la leadership normativa rischia di disaccoppiarsi dalla capacità tecnologica. La traiettoria dell’UE dipende quindi dal fatto che la sovranità normativa sia accompagnata da una sovranità industriale e infrastrutturale , piuttosto che rimanere puramente normativa.
2.5.2 Stati Uniti: innovazione guidata dal mercato e governance frammentata
Gli Stati Uniti rimangono l’ epicentro globale dello sviluppo dell’intelligenza artificiale di frontiera , detenendo posizioni dominanti nella progettazione avanzata di semiconduttori, nelle infrastrutture cloud iperscalabili, nella ricerca sui modelli di base e negli ecosistemi software di intelligenza artificiale. Questa leadership è rafforzata da solidi mercati dei capitali, università di ricerca, percorsi di innovazione legati alla difesa e un ampio mercato interno in grado di assorbire tecnologie in fase iniziale.
Negli Stati Uniti, la governance è caratterizzata da una frammentazione istituzionale piuttosto che da una regolamentazione statutaria completa. Invece di un’unica legge sull’IA, la supervisione emerge da una combinazione di:
- Ordini esecutivi e linee guida della Casa Bianca,
- Quadri di riferimento a livello di agenzia (ad esempio, il quadro di gestione del rischio dell’intelligenza artificiale del NIST),
- Regolamentazione settoriale (finanza, sanità, occupazione),
- Applicazione dei diritti civili,
- Contenzioso e responsabilità civile.
Questo modello di governance favorisce la rapida innovazione e sperimentazione . Le aziende si trovano ad affrontare meno vincoli ex ante, consentendo una rapida iterazione, scalabilità e distribuzione globale. Tuttavia, le tutele per individui e lavoratori non sono uniformi. La copertura dipende fortemente dal settore, dalla legislazione statale e dalla capacità delle autorità di regolamentazione o dei tribunali di intervenire dopo il verificarsi del danno.
Il contenzioso svolge un ruolo centrale nella responsabilità. Questo modello ex post presuppone che gli esiti dannosi saranno identificati e corretti attraverso azioni legali o l’applicazione delle normative. Nella pratica, molti danni legati all’IA – pregiudizi, esclusione, dequalificazione cumulativa – sono diffusi e difficili da risolvere in giudizio, lasciando significative lacune nella governance.
Il controllo antitrust è aumentato notevolmente dal 2023, con una rinnovata attenzione al predominio delle piattaforme, all’integrazione verticale e alle pratiche di esclusione nei mercati dell’intelligenza artificiale. Tuttavia, l’applicazione delle norme rimane lenta rispetto all’evoluzione tecnologica e i rimedi strutturali incontrano resistenze politiche e legali.
La traiettoria statunitense produce un’elevata velocità di innovazione ma una scarsa uniformità di protezione . Lavoratori e cittadini percepiscono l’IA in modo diverso a seconda del datore di lavoro, del settore e dello Stato. La legittimità istituzionale è quindi più fragile, in particolare nei sistemi di IA rivolti al pubblico, dove la mancanza di fiducia si traduce in una reazione politica negativa.
Dal punto di vista strategico, gli Stati Uniti danno priorità alla leadership tecnologica e al vantaggio geopolitico , accettando la frammentazione della governance come un costo dell’innovazione. La sostenibilità di questo modello dipenderà dalla capacità del sistema di assorbire gli shock sociali e politici derivanti dall’impatto disomogeneo dell’IA.
2.5.3 Cina: schieramento incentrato sullo Stato e controllo politico
La traiettoria dell’intelligenza artificiale in Cina rappresenta una logica di governance fondamentalmente diversa, radicata nel coordinamento incentrato sullo Stato, nel controllo politico e nel potenziamento industriale . L’intelligenza artificiale è considerata una capacità nazionale strategica integrata nella pianificazione economica, nella pubblica amministrazione, nella sicurezza e nella gestione sociale.
Le autorità centrali stabiliscono priorità e standard di implementazione, consentendo una rapida scalabilità in settori quali sorveglianza, logistica, finanza, produzione e servizi pubblici. Un solido coordinamento tra agenzie statali e principali aziende tecnologiche riduce la frammentazione e accelera la diffusione. L’aggregazione dei dati su larga scala, facilitata dalla governance centralizzata e da vincoli di privacy limitati, migliora le prestazioni del sistema in molte applicazioni.
In Cina, la supervisione normativa pone l’accento sulla stabilità politica, sul controllo dei contenuti e sull’allineamento con gli obiettivi statali , piuttosto che sui diritti individuali o sull’equità del mercato. I sistemi di intelligenza artificiale sono progettati per essere compatibili con la sorveglianza di default, integrando la verifica dell’identità, il monitoraggio comportamentale e l’analisi in tempo reale.
Gli impatti sociali sono mediati principalmente dalle istituzioni statali , non dalle dinamiche di mercato. I cittadini interagiscono con l’intelligenza artificiale principalmente attraverso piattaforme governative e servizi privati regolamentati. La responsabilità ricade verso l’alto, verso le autorità politiche, piuttosto che verso l’esterno, verso i tribunali o la società civile.
Questo modello consente una rapida implementazione e una sperimentazione su larga scala, ma limita l’autonomia individuale e limita la contestabilità. L’IA è integrata come estensione della capacità amministrativa piuttosto che come sistema socio-tecnico negoziabile.
Dal punto di vista geopolitico, la strategia cinese in materia di intelligenza artificiale punta all’autosufficienza tecnologica , in particolare in risposta ai controlli sulle esportazioni e ai vincoli della catena di approvvigionamento. Investimenti significativi sono destinati alle capacità nazionali di produzione di semiconduttori, ad architetture alternative e ad ecosistemi di dati locali. Il risultato è una crescente biforcazione tecnologica tra i sistemi di intelligenza artificiale cinesi e occidentali.
2.5.4 India, Africa subsahariana e America Latina: adozione asimmetrica e dipendenza strutturale
India, Africa subsahariana e America Latina presentano traiettorie di adozione dell’IA asimmetriche , determinate dalla scala demografica, dalle esigenze di sviluppo e dal controllo limitato sulle infrastrutture di IA a monte. In queste regioni, la diffusione dell’IA è più forte nei servizi digitali, nelle interfacce pubbliche, nella tecnologia finanziaria, nell’e-government, nei sistemi di consulenza agricola e nelle tecnologie linguistiche .
L’intelligenza artificiale funziona principalmente come una capacità importata , fornita tramite provider cloud globali, piattaforme multinazionali e fornitori esterni. L’innovazione interna esiste, ma è limitata dall’accesso limitato a risorse di calcolo, capitali ed ecosistemi di ricerca avanzata.
Ciò comporta diversi rischi strutturali:
- Estrazione dei dati , in cui i dati generati localmente alimentano modelli esterni con una limitata acquisizione di valore locale,
- Blocco del fornitore , poiché le istituzioni diventano dipendenti da piattaforme proprietarie,
- Leva regolamentare limitata , dovuta al potere contrattuale asimmetrico e ai vincoli di capacità.
Allo stesso tempo, l’intelligenza artificiale offre significative opportunità di sviluppo . In contesti con scarse risorse umane, l’intelligenza artificiale può ampliare l’accesso a servizi come il triage sanitario, la divulgazione agricola, il supporto all’istruzione e l’inclusione finanziaria. I vantaggi possono essere sostanziali laddove la capacità di base è bassa.
La sfida centrale è che i benefici sono condizionati dalla governance e dalla progettazione istituzionale . Senza una governance dei dati locale, standard per gli appalti pubblici e investimenti in competenze, l’adozione dell’IA rischia di rafforzare la dipendenza anziché sviluppare capacità.
L’India rappresenta una parziale eccezione, grazie al suo ampio bacino di talenti e alle infrastrutture pubbliche digitali (ad esempio, Aadhaar e UPI). Tuttavia, anche in India, il controllo sui modelli di frontiera e sul calcolo rimane concentrato all’esterno.
In queste regioni, la traiettoria a lungo termine dipenderà dal fatto che l’IA venga utilizzata per sviluppare capacità endogene o semplicemente per ottimizzare l’erogazione dei servizi sotto controllo esterno. Non si tratta di una questione tecnologica, ma strategica e politica.
Implicazioni strutturali della divergenza regionale
Queste traiettorie divergenti dimostrano che l’IA non è una forza omogeneizzante . Al contrario, amplifica modelli istituzionali preesistenti. La capacità di regolamentazione, la struttura del mercato e le priorità politiche plasmano il significato sociale e gli effetti distributivi dell’IA.
Nel tempo, la divergenza rischia di consolidarsi in una disuguaglianza strutturale tra i regimi di intelligenza artificiale , incidendo sulla competitività economica, sull’autonomia di governance e sull’allineamento geopolitico. Comprendere queste differenze è essenziale per interpretare i dibattiti globali sull’intelligenza artificiale e per progettare politiche che evitino un ingenuo universalismo tecnologico.
2.6 Normalizzazione della governance e maturità normativa
Il periodo post-2024 segna un passaggio dall’etica ambiziosa dell’IA alla governance operativa . I quadri normativi internazionali – i Principi dell’OCSE per l’IA, la Raccomandazione dell’UNESCO e il Quadro di Gestione del Rischio dell’IA del NIST – si traducono sempre più in:
- Valutazioni obbligatorie dei rischi,
- Requisiti di documentazione e audit,
- Obblighi di segnalazione degli incidenti.
Tuttavia, la capacità di applicazione rimane disomogenea e il coordinamento globale è parziale. Il rischio non è l’assenza di normative, ma la divergenza normativa , che complica l’implementazione e la responsabilità transfrontaliera.
2.7 Valutazione del segnale socio-economico
I segnali empirici osservati tra il 2023 e il 2025 suggeriscono:
- Effetti modesti ma positivi sulla produttività a livello aziendale,
- Crescente domanda di competenze ibride potenziate dall’intelligenza artificiale,
- Maggiore efficienza cognitiva insieme alle preoccupazioni sulla dequalificazione,
- Crescente consapevolezza pubblica del potere e dei rischi degli algoritmi.
Fondamentalmente, non è osservabile alcuna traiettoria deterministica . I risultati variano sistematicamente a seconda della qualità della governance, della capacità istituzionale e della struttura del mercato.
2.8 Transizione del capitolo
Lo stato globale dell’IA dopo il 2024 è caratterizzato da stabilizzazione delle capacità, accelerazione della diffusione e concentrazione del potere , moderati dai regimi di governance emergenti. Queste dinamiche definiscono le condizioni in cui l’IA interagisce con i sistemi sociali.
Matrice comparativa – Traiettorie regionali dell’IA: indicatori, soglie e implicazioni strutturali
| Dimensione | Indicatore (definizione) | Soglie | Unione Europea | Stati Uniti | Cina | India / Africa subsahariana / America Latina |
|---|---|---|---|---|---|---|
| Governance e regolamentazione | Copertura normativa ex ante dell’IA (quota di IA ad alto rischio soggetta a obblighi obbligatori pre-implementazione) | Basso <30%Medio 30–70%Alto >70% | Alto – Regolamentazione orizzontale vincolante tramite la legge UE sull’intelligenza artificiale; estesa ai modelli di base e al rischio sistemico | Basso-Medio – Settoriale, ex post, guidato da contenziosi | Alto (incentrato sullo stato) – Completo ma orientato al controllo politico | Basso – Linee guida frammentate, applicazione debole |
| Capacità di applicazione | Capacità di regolamentazione e di audit specifiche dell’IA (agenzie, personale, autorità di controllo) | SimbolicoFunzionaleSistemico | Funzionale → Sistemico (emergente) – Dipendente dalle risorse dell’autorità nazionale | Funzionale (frammentato) – Forti agenzie settoriali, debole coordinamento | Sistemico (centralizzato) – Applicazione gerarchica | Simbolico → Funzionale (irregolare) |
| Calcola la sovranità | Controllo nazionale sul calcolo avanzato (quota dei carichi di lavoro sull’infrastruttura gestita a livello nazionale) | Dipendente <20% Misto 20–60% Sovrano >60% | Dipendente → Misto – Affidamento agli hyperscaler statunitensi; elaborazione pubblica limitata | Sovrano – Iperscalatori globali dominanti, leva di controllo delle esportazioni | Misto → Sovrano (strategico) – Accelerazione della sostituzione interna | Dipendente – Affidamento esterno al cloud e al calcolo |
| Struttura del mercato | Concentrazione dello stack AI (regolata in base all’HHI) nei modelli di semiconduttori, cloud e fondazione | Competitivo <1500Concentrato 1500–2500Altamente concentrato >2500 | Altamente concentrato (importato) | Altamente concentrato (domestico) | Altamente concentrato (allineato allo stato) | Altamente concentrato (esterno) |
| Governance dei dati | Leva pubblica su set di dati di alto valore (trust di dati, spazi di dati pubblici, conservazione del valore) | Strategia gestita estrattiva | Gestito → Strategico (emergente) – Spazi dati pubblici, leva normativa | Estrattivo – Proprietà dei dati guidata dal mercato | Strategico – Proprietà e controllo statale | Estrattivo – Deflussi di dati, scarsa ritenzione |
| Tutela del mercato del lavoro | Tamponamento istituzionale del rischio guidato dall’intelligenza artificiale (riqualificazione, sostegno al reddito, contrattazione) | DeboleModeratoForte | Moderato → Forte – Varia a seconda dello Stato membro | Debole → Moderato | Moderato (mediato dallo stato) | Debole |
| Sistemi educativi | Integrazione di alfabetizzazione e metacognizione dell’intelligenza artificiale (uso critico vs competenza negli strumenti) | MinimoTransizionaleSistemico | Transizionale | Minimo → Transizionale (irregolare) | Incentrato sullo strumento, non critico | Minimo |
| Trasparenza e contestabilità | Efficace contestabilità delle decisioni dell’IA (comprensione, contestazione, inversione) | NominaleProceduraleSostantivo | Procedurale → Sostanziale (obiettivo) | Nominale → Procedurale | Nominale (solo sovrascrittura politica) | Nominale |
| Esposizione al rischio sociale | Probabilità che l’IA amplifichi la disuguaglianza, l’esclusione, la precarietà (indicatori compositi) | ContenutoGestitoAmplificato | Gestito | Amplificato (irregolare) | Contenuta (mediazione autoritaria) | Amplificato |
| Traiettoria strategica (2025-2035) | Esito del regime di IA dominante | Regolamentato incentrato sull’uomo, concentrato guidato dal mercato, controllato dallo Stato, dipendente/ausiliario | Regolamentato incentrato sull’uomo (condizionale) | Concentrato guidato dal mercato | Controllato dallo stato | Dipendente/ausiliario (a meno che non cambino le politiche) |
Tabella di stress test dello scenario: superamento delle soglie e cambiamenti del regime di intelligenza artificiale (2025-2035)
| Dimensione critica | Indicatore chiave | Soglia di base | Soglia di stress (punto di attraversamento) | Trigger osservato/plausibile | Cambiamento di regime risultante | Risultato sociale primario |
|---|---|---|---|---|---|---|
| Calcola la sovranità | Quota di carichi di lavoro di intelligenza artificiale su sistemi di elaborazione gestiti a livello nazionale | ≥ 40% (misto) | < 20% (Dipendente) | Controlli sulle esportazioni, blocco degli hyperscaler, limiti fiscali | Da umanocentrico / regolato → dipendente / ausiliario | Perdita di autonomia politica; il potere di determinazione dei prezzi si sposta ai fornitori |
| Calcola la concentrazione | Cloud e modello HHI | < 2500 | > 3500 | Integrazione verticale (calcolo + modelli + piattaforme) | Dal regime infrastrutturale guidato dal mercato → oligopolistico | Estrazione delle rendite; colli di bottiglia dell’innovazione |
| Copertura normativa | Regolamentazione ex ante dell’IA ad alto rischio | ≥ 60% | < 30% | Deregolamentazione, smantellamento dell’applicazione | Da accelerazione regolata → laissez-faire | Velocità a breve termine, amplificazione del rischio sociale a lungo termine |
| Capacità di applicazione | Capacità di audit e sanzione | Funzionale | Simbolico | Tagli al bilancio, abbandono del personale | Da governato → in effetti non governato | Teatro della conformità; crescenti danni nascosti |
| Trasparenza e contestabilità | Tasso di contestabilità sostanziale | ≥ 70% | < 40% | Automazione dei ricorsi, fornitori opachi | Da legittimo → stato amministrativo opaco | Crollo della fiducia; disimpegno |
| Buffer del mercato del lavoro | Copertura di supporto alla transizione | ≥ 50% della forza lavoro | < 25% forza lavoro | Austerità fiscale, politiche attive del mercato del lavoro deboli | Dalla transizione adattiva → spirale della precarietà | Informalizzazione, compressione salariale |
| Formazione delle competenze | Copertura dell’alfabetizzazione e della metacognizione dell’intelligenza artificiale | Transizionale | Minimo | Formazione incentrata sugli strumenti, nessuna riforma del curriculum | Dall’aumento → dipendenza cognitiva | Dequalificazione, eccessivo affidamento all’intelligenza artificiale |
| Governance dei dati | Leva pubblica sui set di dati chiave | Gestito | Estrattivo | Privatizzazione, legge debole sui dati | Da risorsa strategica → dinamica della colonia di dati | Cattura del valore esternalizzata |
| Piattaformizzazione | Quota di forza lavoro sottoposta a gestione algoritmica | < 25% | > 45% | Espansione delle piattaforme basate sulle attività | Da occupazione mista → regime lavorativo dominato dalla piattaforma | Precarietà, perdita di potere contrattuale |
| Esposizione al rischio sociale | Indice di amplificazione della disuguaglianza | Gestito | Amplificato | Automazione + debole ridistribuzione | Dalla crescita inclusiva → società stratificata dell’intelligenza artificiale | Polarizzazione, erosione della legittimità |
| Ambiente informativo | Condivisione di contenuti sintetici nel discorso pubblico | < 20% | > 50% | Uso improprio dell’intelligenza artificiale generativa, autenticazione debole | Dalla stabilità epistemica → volatilità epistemica | Disinformazione, fragilità democratica |
| Dipendenza dal settore pubblico | La quota dei servizi principali è basata su intelligenza artificiale proprietaria | < 40% | > 70% | Blocco degli appalti | Dall’amministrazione sovrana → stato mediato dal fornitore | Responsabilità ridotta |
| Allineamento geopolitico | Controllo esterno della catena di fornitura dell’IA | Diversificato | Dipendenza da un singolo blocco | Sanzioni, frammentazione commerciale | Da allineamento plurale → subordinazione geopolitica | Vulnerabilità strategica |
| Differenziale di fiducia | Divario di fiducia (gruppi avvantaggiati vs gruppi vulnerabili) | ≤ 0,3 DS | > 0,6 DS | Risultati disuguali dell’intelligenza artificiale | Dalla governance basata sul consenso → crisi di legittimità | Reazione politica |
| Capacità di risposta alle crisi | Possibilità di sospendere/ripristinare i sistemi di intelligenza artificiale | Alto | Basso | Nessun kill switch, nessun fallback | Da stato di intelligenza artificiale resiliente → fragile | Guasti a cascata |
Matrice scenario × regione – Traiettorie dell’IA e risultati del regime (2025-2035)
| Scenario | Governance chiave e condizioni di mercato | Unione Europea | Stati Uniti | Cina | India / Africa subsahariana / America Latina |
|---|---|---|---|---|---|
| Scenario A – Adozione regolamentata di base | Regolamentazione moderata, sovranità informatica parziale, investimenti incrementali nelle competenze | Regolamentato incentrato sull’uomo (fragile) • L’AI Act è applicato in modo non uniforme • Elevata conformità, diffusione più lenta • Equity gestito ma costoso | Concentrazione guidata dal mercato • Innovazione rapida • Protezioni frammentate • Crescente disuguaglianza | Controllo incentrato sullo Stato • Distribuzione su larga scala • Stabilità politica prioritaria • Autonomia individuale limitata | Dipendente/ausiliario • Guadagni di servizio tramite IA importata • Acquisizione di valore limitata • Elevata dipendenza dal fornitore |
| Scenario B – Alta governance incentrata sull’uomo | Regolamentazione rigorosa, elaborazione dati pubblica, robusti buffer di manodopera, standard aperti | Regolamentato incentrato sull’uomo (robusto) • Elevata legittimità • Innovazione di frontiera più lenta • Ampia inclusione | Mercato regolamentato ibrido • Innovazione preservata • Tutele civili e del lavoro più forti | Spostamento parziale improbabile • Governance incompatibile con il modello • Trasparenza limitata | Sviluppo di capacità selettive • Beni pubblici digitali • Dipendenza ridotta (condizionale) |
| Scenario C – Concentrazione estrema | Debole regolamentazione, integrazione verticale, debole tutela del lavoro | Amministrazione mediata dal fornitore • Rischio di lock-in • Erosione della legittimità | Regime oligopolistico di intelligenza artificiale • Dominanza del capitale • Diminuzione della quota di lavoro | Fusione Stato-azienda • Sorveglianza a spettro completo • Alto controllo | Dipendenza dall’estrazione dei dati • Dinamica del colonialismo digitale • Guadagni locali minimi |
| Scenario D – Intelligenza artificiale aperta/basata sui beni comuni | Modelli aperti, elaborazione federata, istituzioni pubbliche solide | Successo condizionato • Dipende da investimenti pubblici sostenuti | Adozione frammentata • I beni comuni coesistono con i giganti proprietari | Bassa compatibilità • Il controllo statale limita l’apertura | Elevato potenziale di rialzo • Possibile balzo in avanti • Capacità di governance critica |
| Scenario E – Frammentazione geopolitica | Sanzioni, controlli sulle esportazioni, stack di intelligenza artificiale basati su blocchi | Vulnerabilità strategica • Affidabilità informatica statunitense esposta | Leader del blocco • Standard esportati • Alleati dipendenti | Ecosistema di intelligenza artificiale parallela • Biforcazione tecnologica | Allineamento forzato • Autonomia politica ridotta |
| Scenario F – Fallimento della governance | Regolamentazione simbolica, nessuna applicazione, istituzioni deboli | Crisi di legittimità • Reazione pubblica contro l’intelligenza artificiale | Polarizzazione sociale • Sovraccarico di contenziosi | Dissenso contenuto • Stabilità tramite coercizione | Elevata esclusione e precarietà • Accelerazione dell’informalizzazione |
| Scenario G – Sviluppo delle infrastrutture pubbliche | Elaborazione pubblica, trust di dati, appalti strategici | Sovranità strategica dell’IA • Costo elevato, elevata resilienza | Assorbimento parziale • Resistenza da parte degli operatori storici | Ridondante con il modello statale | Salto evolutivo (raro) • Richiede l’allineamento tra donatore e stato |
| Scenario H – Crollo epistemico | Saturazione della disinformazione, autenticazione debole | Erosione della fiducia • Stress democratico | Grave polarizzazione • Sfiducia istituzionale | Narrazione controllata • Stabilità mantenuta | Caos informativo • Governance indebolita |
Leve politiche × Matrice scenario-prevenzione (Governance dell’IA 2025-2035)
| Leva politica | Scenario A Deriva della linea di base | Scenario B Alta governance incentrata sull’uomo | Scenario C Concentrazione estrema | Scenario D AI aperta/comune | Scenario E Frammentazione geopolitica | Scenario F Fallimento della governance | Scenario H: crollo epistemico |
|---|---|---|---|---|---|---|---|
| Regolamentazione ex ante dell’IA (basata sul rischio) | Stabilizza la linea di base; limita il rischio di coda | Leva abilitante fondamentale | Impedisce il ridimensionamento incontrollato | Consente un’apertura sicura | Attenua i danni tra blocchi | Fallisce se simbolico | Limita la disinformazione automatizzata |
| Capacità di applicazione della normativa | Riduce la varianza nei risultati | Essenziale | Freno primario alla concentrazione | Assicura il controllo di qualità | Fa rispettare gli standard di blocco | Chiudere il driver se debole | Consente la responsabilità per i contenuti |
| Investimenti informatici pubblici/sovrani | Aumenta la resilienza | Supporta la distribuzione equa | Contrasta il predominio degli iperscaler | infrastrutture critiche | Riduce la dipendenza esterna | Assente → il fallimento accelera | Abilita canali pubblici attendibili |
| Politica antitrust e della concorrenza | Modera il potere di mercato | Regolazione dei complementi | Leva decisiva di prevenzione | Mantiene i beni comuni vitali | Previene i monopoli di blocco | Inefficace se ritardato | Limita la cattura narrativa |
| Appalti pubblici strategici | Modella il comportamento del fornitore | Strumento ad alta leva finanziaria | Interrompe il blocco verticale | Favorisce gli standard aperti | Preserva l’autonomia | Diventa vettore di cattura | Impone l’autenticazione |
| Governance dei dati e trust di dati pubblici | Migliora la qualità del servizio | Fondamentale | Limita l’estrazione dell’affitto | Attività principale | Protegge i dati nazionali | L’estrazione dei dati accelera il fallimento | Riduce il rumore sintetico |
| Mandati Human-in-the-Loop | Preserva la legittimità | Non negoziabile | Rallenta l’automazione coercitiva | Garantisce una sperimentazione sicura | Mantiene la responsabilità | Rimosso → rapida erosione | Preserva gli ancoraggi epistemici |
| Diritti di ricorso e contestabilità | Limita la perdita di legittimità | Salvaguardia essenziale | Espone i danni da concentrazione | Mantiene la fiducia | Tutela dei diritti transfrontalieri | Assente → reazione | Contrasta il nichilismo informativo |
| Supporto alla transizione del mercato del lavoro | Riduce la disuguaglianza | Pilastro centrale | Compensa il predominio del capitale | Abilita la partecipazione | I buffer scambiano gli shock | Crollo → spirale di precarietà | Protegge l’autonomia cognitiva |
| Riforma dell’istruzione e dell’alfabetizzazione all’intelligenza artificiale | Migliora la qualità dell’adozione | Leva critica a lungo termine | Indebolisce il vantaggio monopolistico | Necessario per i beni comuni | Costruisce autonomia strategica | Guasto delle serrature di assenza | Ripristina la resilienza epistemica |
| Trasparenza e segnalazione degli incidenti | sistema di allerta precoce | Meccanismo di governance fondamentale | Denuncia gli abusi | Mantiene la credibilità dei beni comuni | Crea fiducia tra i blocchi | Senza di esso il fallimento è nascosto | Contrasta la disinformazione |
| Regolamento sulla gestione algoritmica e delle piattaforme | Rallenta la precarietà | Protegge l’agenzia dei lavoratori | Leva anti-concentrazione chiave | Garantisce un accesso equo | Limita lo sfruttamento transfrontaliero | La deregolamentazione alimenta il collasso | Riduce la manipolazione narrativa |
| Standard di autenticazione e provenienza dei contenuti | Stabilizzatore minore | Supporta la fiducia | Impatto debole | Opzionale | Limitato in blocchi frammentati | Inefficace da solo | Leva di prevenzione primaria |
| Crisis Kill-Switch e Autorità di Rollback | Migliora la resilienza | Obbligatorio | Contiene shock sistemici | Protegge la sperimentazione | Limita l’escalation | Assenza → fallimento a cascata | Arresta la disinformazione incontrollata |
Pacchetto minimo di policy per scenario – Evitamento (IA Governance 2025-2035)
| Scenario da evitare | Pacchetto di polizze minime (leve non sostituibili) | Capacità istituzionale richiesta | Punto di errore se mancante |
|---|---|---|---|
| Scenario C – Concentrazione estrema | • Regolamentazione vincolante ex ante dell’IA per modelli ad alto rischio e di base • Applicazione delle norme antitrust con rimedi strutturali • Accesso al calcolo pubblico/sovrano per governi e PMI • Mandati di interoperabilità e portabilità | Forte autorità di concorrenzaCapacità di audit tecnicoCompetenza in materia di appalti | Il blocco del mercato diventa irreversibile; domina l’estrazione della rendita |
| Scenario F – Fallimento della governance | • Quadro normativo in stile AI Act applicabile (non volontario) • Organismo di vigilanza dedicato all’IA con sanzioni • Valutazioni obbligatorie dell’impatto algoritmico (AIA) • Segnalazione pubblica degli incidenti e meccanismi di ricorso | Personale e budget normativiAutorità di controllo legale | La regolamentazione crolla nel teatro della conformità |
| Scenario H – Crollo epistemico | • Standard di autenticazione e provenienza dei contenuti • Divulgazione obbligatoria dell’uso dell’IA nella comunicazione pubblica • Finanziamenti indipendenti per i media di interesse pubblico • Programma nazionale di alfabetizzazione sull’IA | Enti regolatori dei mediaCoordinamento del sistema educativo | La fiducia crolla prima che sia possibile intervenire |
| Scenario E – Subordinazione geopolitica | • Catene di fornitura e di elaborazione diversificate • Regole strategiche per gli appalti pubblici • Regimi di localizzazione dei dati o di condivisione del valore • Pianificazione della resilienza al controllo delle esportazioni | Coordinamento delle politiche commerciali e industriali | Gli attori esterni ottengono potere di veto sulle politiche |
| Scenario D – Crollo dei beni comuni | • Finanziamenti pubblici sostenuti per modelli aperti • Infrastruttura informatica federata/pubblica • Standard aperti negli appalti • Governance della manutenzione a lungo termine | Istituzioni pubbliche di ricerca e sviluppoImpegno fiscale stabile | I beni comuni vengono soppiantati dalla scala proprietaria |
| Scenario A – Deriva della linea di base (espansione della disuguaglianza) | • Supporto alla transizione del lavoro (ALMP) • Mandati di coinvolgimento umano • Monitoraggio dell’equità con metriche disaggregate • Sistemi di ricorso accessibili | Ministeri del LavoroRaccolta dati e analisi | L’efficienza aumenta mentre la disuguaglianza accelera |
| Scenario B – Erosione del modello incentrato sull’uomo | • Applicazione continua (non leggi una tantum) • Riforma dell’istruzione e della riqualificazione • Calcolo pubblico per i servizi sociali • Garanzie di contestazione e giusto processo | Coordinamento interministeriale | Il modello si degrada in una regolamentazione simbolica |
| Scenario G – Fallimento delle infrastrutture pubbliche | • Piani di investimento di capitale a lungo termine • Architetture indipendenti dal fornitore • Capacità tecnica interna • Autorità di rollback in caso di crisi | forza lavoro tecnica statale | Infrastrutture catturate o abbandonate |
| Scenario C + F combinato (concentrazione + governance debole) | • Antitrust + regolamentazione implementati simultaneamente • Interventi di emergenza sul mercato • Interoperabilità forzata / accesso ai dati | Mandato politico eccezionale | La concentrazione del potere diventa permanente |
| Scenario H + F combinato (collasso epistemico + stato debole) | • Autenticazione + applicazione + istruzione implementati insieme • Unità di risposta rapida alla disinformazione | Capacità di governance delle crisi | La legittimità democratica è irreversibilmente danneggiata |
Pacchetto polizza minima a sequenza temporale (0–2 anni / 3–5 anni / 6–10 anni)
| Scenario da evitare | 0–2 anni (Controlli immediati + capacità) | 3–5 anni (scalabilità + istituzionalizzazione) | 6–10 anni (Stabilizzazione strutturale) |
|---|---|---|---|
| Scenario C – Concentrazione estrema | • Congelare/condizionare le fusioni verticali nello stack di intelligenza artificiale (calcolo-modello-piattaforma) • Regole provvisorie di interoperabilità e portabilità per i principali fornitori di intelligenza artificiale • Divulgazione obbligatoria di prezzi/termini per le API di calcolo e modello del settore pubblico • Avviare un progetto pilota di accesso al calcolo pubblico/per le PMI (capacità condivisa + crediti) | • Casi antitrust completi con rimedi strutturali in caso di consolidata posizione dominante • Standard di interoperabilità obbligatori + conformità verificata • Percorsi di commutazione aperti (portabilità dei dati, supporto alla migrazione del modello) • Espandere il calcolo pubblico in capacità di “livello di utilità” nazionale/regionale | • Regime di concorrenza persistente (trigger HHI, indagini di mercato periodiche) • Separazione strutturale ove necessario (calcolo vs modello vs distribuzione) • Baseline di calcolo pubblica durevole per settori critici (sanità, welfare, istruzione) |
| Scenario F – Fallimento della governance | • Stabilire un regime ex ante applicabile per sistemi ad alto rischio + modelli di base • Creare un’autorità di supervisione dell’IA autorizzata (sanzioni + diritti di audit) • Valutazioni obbligatorie dell’impatto algoritmico (AIA) prima dell’implementazione • Canale di segnalazione degli incidenti pubblici + standard minimi di tempo di riparazione | • Audit di routine del ciclo di vita (annuali per i rischi elevati), con riepiloghi pubblici • Ampliare il personale dell’ente regolatore + revisori di terze parti accreditati • Governance degli appalti: clausole contrattuali standardizzate (audit, registri, rollback) • Istituzionalizzare l’autorità di “kill-switch” e rollback | • Ecosistema di supervisione maturo (auditor, tribunali, ombudsman) • Telemetria di conformità automatizzata nei sistemi pubblici • Riautorizzazione/ricertificazione periodica dei sistemi ad alto rischio |
| Scenario H – Crollo epistemico | • Standard di autenticazione/provenienza dei contenuti per le comunicazioni ufficiali • Divulgazione obbligatoria dell’uso dell’intelligenza artificiale per agenzie pubbliche e annunci politici • Unità di risposta rapida per incidenti di disinformazione ad alto impatto • Moduli minimi di alfabetizzazione mediatica distribuiti nelle scuole + programmi per adulti | • Estendere i requisiti di provenienza ai contenuti ad alta portata delle principali piattaforme• Finanziare media indipendenti di interesse pubblico e fact-checking su larga scala• Programma nazionale: alfabetizzazione AI + ragionamento critico + valutazione delle fonti• Applicazione: sanzioni per impersonificazione fraudolenta/abuso di deepfake | • Infrastruttura epistemica durevole (registri affidabili, API di verifica) • Educazione civica continua e norme di trasparenza istituzionale • Protocolli di crisi multipiattaforma stabili + coordinamento internazionale |
| Scenario E – Subordinazione geopolitica | • Mappare le dipendenze critiche (chip, cloud, modelli, hosting di dati) • Diversificare i fornitori; regole di approvvigionamento per evitare il lock-in di un singolo fornitore • Governance dei dati: localizzazione o condivisione del valore per set di dati sensibili • Riserve strategiche/piani di emergenza per l’accesso al calcolo | • Costruire/espandere la capacità di elaborazione nazionale o regionale e l’hosting sicuro • Standardizzare la resilienza del controllo delle esportazioni e la pianificazione della continuità • Negoziare l’accesso reciproco/gli standard con i blocchi alleati • Espandere i programmi di capacità di intelligenza artificiale locali (talenti, laboratori, PMI) | • Posizione di sovranità sostenuta (opzionalità multi-blocco) • Politica industriale a lungo termine per elaborazione + componenti critici • Governance transfrontaliera istituzionalizzata per rischi condivisi |
| Scenario D – Crollo dei beni comuni | • Finanziamento iniziale per modelli aperti + set di dati di interesse pubblico • Preferenza di approvvigionamento per standard aperti + formati indipendenti dal fornitore • Stabilire responsabili della manutenzione/governance per componenti aperti (sicurezza, aggiornamenti) • Progetto pilota di calcolo federato per università/servizi pubblici | • Elaborazione federata/pubblica scalabile; budget operativi stabili • Regime di certificazione per modelli aperti (sicurezza, documentazione, audit) • Trust di dati e spazi di dati pubblici integrati con l’ecosistema dei beni comuni • Incentivi per la manutenzione a lungo termine (sovvenzioni, appalti, SLA) | • Permanenza istituzionale dei beni comuni (fondazioni, consorzi, trattati) • Definizione di standard maturi e applicazione dell’interoperabilità • Finanziamenti durevoli e pipeline di forza lavoro per i manutentori |
| Scenario A – Deriva della linea di base (espansione della disuguaglianza) | • Dashboard di monitoraggio disaggregato del patrimonio netto (accesso, errore, ricorsi, fiducia) • Mandati di coinvolgimento umano per decisioni ad alto rischio • Diritti minimi di ricorso/contestabilità + accesso all’assistenza legale • Espansione immediata dell’ALMP (voucher di riqualificazione, servizi di collocamento) | • Integrare l’alfabetizzazione all’intelligenza artificiale nei percorsi di istruzione professionale e superiore • Rafforzare l’assicurazione salariale/sostegno al reddito di transizione • Regole di partecipazione dei lavoratori nelle decisioni di implementazione dell’intelligenza artificiale • Inasprire i limiti al monitoraggio intrusivo nei luoghi di lavoro | • Sistema di apprendimento permanente stabile (credenziali modulari) • Dialogo sociale istituzionalizzato sull’IA (sindacati/datori di lavoro/stato) • Meccanismi di ridistribuzione persistenti che tracciano la cattura della rendita dell’IA |
| Scenario B – Erosione del modello incentrato sull’uomo | • Garantire che i finanziamenti e il personale per l’applicazione della legge siano protetti • Codificare la contestabilità e il giusto processo come diritti non rinunciabili • Accesso pubblico al calcolo per i settori sociali critici • Norme di appalto che impediscono sistemi “black-box” opachi | • Ecosistema di regolatori/auditor su larga scala; telemetria di conformità continua• Integrare l’alfabetizzazione e la metacognizione dell’IA nel sistema educativo• Istituzionalizzare registri pubblici trasparenti dell’uso e degli incidenti dell’IA• Aggiornare le regole in base ai risultati misurati (varianza, rischio di coda) | • Architettura di legittimità a lungo termine (controllo indipendente, tribunali, ombudsman) • Rinnovo periodico della governance (clausole di tramonto + revisione) • Normalizzazione culturale dell’uso responsabile dell’IA nelle istituzioni pubbliche |
| Scenario G – Fallimento delle infrastrutture pubbliche | • Piano di spesa in conto capitale pluriennale + modello operativo per l’elaborazione pubblica • Aumento delle assunzioni tecniche interne; incentivi alla fidelizzazione • Architetture indipendenti dai fornitori; clausole di uscita nei contratti • Processi manuali di autorizzazione al rollback e di emergenza | • Espandere gli spazi di elaborazione/dati; integrare con le pipeline degli appalti pubblici • Professionalizzare gli MLOps nel governo (standard, monitoraggio, audit) • Istituire centri di servizi condivisi per comuni/agenzie • Audit indipendenti di prestazioni e sicurezza | • Permanenza istituzionale (governance in stile utility, finanziamenti stabili) • Cicli di modernizzazione continui; resilienza e ridondanza integrate • Equilibrio pubblico-privato con forte controllo statale delle funzioni principali |
Entro la metà degli anni 2020, l’intelligenza artificiale è diventata un’infrastruttura di mediazione tra cittadini e istituzioni, piuttosto che uno strumento di ottimizzazione in background. Nei servizi pubblici, l’IA opera sempre più a livello di interfaccia, vagliando le richieste, assegnando priorità ai casi, guidando le interazioni e plasmando i flussi di informazioni. Questo posizionamento strutturale conferisce all’IA un’influenza sproporzionata sull’accesso , l’inclusione, la fiducia e la legittimità percepita dell’autorità pubblica.
L’impatto sociale dell’IA nei servizi pubblici non è quindi riducibile ai soli parametri di efficienza. È determinato dal modo in cui i sistemi algoritmici ristrutturano i percorsi decisionali , ridistribuiscono la discrezionalità tra esseri umani e macchine e codificano i presupposti normativi in processi automatizzati. Questo capitolo esamina queste dinamiche nei principali ambiti dei servizi pubblici, concentrandosi sui benefici misurabili, sui rischi sistemici e sui risultati dipendenti dalla governance.
3.2 Pubblica amministrazione e sistemi di welfare
3.2.1 Efficienza amministrativa e capacità di servizio
Nei paesi OCSE e a medio reddito, l’adozione dell’intelligenza artificiale nella pubblica amministrazione si è concentrata su funzioni ad alto volume e ad alta intensità di regole , tra cui l’elaborazione delle imposte, i controlli di ammissibilità ai benefici, la classificazione dei documenti e l’individuazione delle frodi. Valutazioni empiriche condotte da autorità fiscali e agenzie di servizi sociali indicano:
- Riduzioni dei tempi di elaborazione che vanno dal 20% a oltre il 40% nei casi standardizzati.
- Riassegnazione del personale umano dal lavoro d’ufficio alla gestione di casi complessi.
- Miglioramento dei tassi di rilevamento nell’identificazione di frodi ed errori quando l’intelligenza artificiale viene utilizzata come strumento di supporto alle decisioni anziché come giudice autonomo.
Questi miglioramenti sono più consistenti laddove l’IA è integrata nella riprogettazione dei processi , non sovrapposta ai flussi di lavoro legacy. Le giurisdizioni che hanno trattato l’IA come una sostituzione piuttosto che come uno strumento di potenziamento hanno riportato benefici netti limitati e maggiori costi di correzione a valle.
3.2.2 Rischio di esclusione e danno amministrativo
Gli stessi sistemi che aumentano la produttività possono anche aumentare l’esclusione amministrativa . I sistemi automatizzati di screening di idoneità e di valutazione del rischio si basano su dati storici che spesso riflettono disuguaglianze strutturali. Se implementati senza solide misure di sicurezza, producono:
- Tassi di falsi negativi più elevati per le popolazioni emarginate,
- Ridotte opportunità di spiegazione contestuale,
- Aumento dello stress psicologico dovuto a decisioni poco chiare o inoppugnabili.
Casi documentati di automazione del welfare dimostrano che anche bassi tassi di errore, se applicati su larga scala, si traducono in un danno aggregato significativo . L’impatto sociale è quindi non lineare: errori algoritmici marginali possono generare costi sociali sproporzionati se associati a sistemi amministrativi obbligatori.
3.2.3 Trasparenza, contestabilità e fiducia
La fiducia nelle istituzioni pubbliche è strettamente legata all’equità procedurale . I sistemi di intelligenza artificiale privi di spiegabilità o di chiari meccanismi di ricorso minano questa fiducia, anche quando i risultati sono statisticamente accurati. I dati provenienti da sondaggi condotti tra i cittadini indicano che l’accettazione delle decisioni mediate dall’intelligenza artificiale dipende più dalla contestabilità percepita che dalla sofisticatezza tecnica.
Le risposte efficaci in termini di governance includono:
- Divulgazione obbligatoria dell’uso dell’IA nei processi decisionali,
- Spiegazioni in linguaggio semplice delle raccomandazioni automatizzate,
- Percorsi di revisione umana con tempi di risposta definiti.
Laddove tali meccanismi sono assenti, l’implementazione dell’IA è correlata a un calo della fiducia istituzionale, in particolare tra le popolazioni già soggette a vulnerabilità amministrativa.
3.3.1 Triage, allocazione e accesso
In ambito sanitario, l’intelligenza artificiale viene utilizzata principalmente per il triage, la programmazione, l’assistenza diagnostica e l’allocazione delle risorse , piuttosto che per il processo decisionale clinico finale. Gli impatti misurati includono:
- Tempi di attesa più brevi nei servizi di emergenza e ambulatoriali,
- Miglioramento della priorità dei pazienti ad alto rischio,
- Riduzione degli oneri amministrativi per i medici.
Questi benefici sono più evidenti nei sistemi che affrontano carenze croniche di personale. Tuttavia, le prestazioni dell’IA sono altamente sensibili alla rappresentatività dei dati . I bias nei dati di addestramento possono portare a una sistematica sotto-priorità di determinati gruppi demografici, con implicazioni dirette su morbilità e mortalità.
L’intelligenza artificiale in ambito sanitario presenta rischi che non sono puramente tecnici:
- Il bias dell’automazione può indurre i medici a dare troppo peso ai suggerimenti algoritmici.
- I pazienti potrebbero avere una minore capacità di azione quando le decisioni sembrano essere guidate da una macchina.
- L’ambiguità della responsabilità sorge quando le raccomandazioni dell’IA influenzano i risultati.
L’accettazione sociale dipende dal mantenimento dell’autorità clinica e della responsabilità umana . I sistemi che inquadrano esplicitamente l’IA come un ente consultivo, con una chiara documentazione dell’intervento umano, ottengono maggiore fiducia e minore propagazione degli errori.
3.4 Giustizia, assistenza legale e sicurezza pubblica
L’impiego dell’intelligenza artificiale in ambito giudiziario e di sicurezza pubblica, come strumenti di valutazione del rischio, analisi predittiva e revisione documentale, ha un impatto sociale particolarmente elevato. Questi sistemi influenzano:
- Raccomandazioni sulla cauzione e sulla condanna,
- Assegnazione delle risorse di polizia,
- Accesso all’assistenza legale.
L’evidenza empirica mostra risultati contrastanti. Sebbene l’intelligenza artificiale possa migliorare la coerenza e ridurre il carico di lavoro, rischia anche di formalizzare pregiudizi e oscurare i giudizi di valore sotto un linguaggio tecnico. In contesti legali, l’opacità compromette il giusto processo quando gli imputati non possono contestare in modo significativo gli input algoritmici.
La legittimità sociale in questo ambito richiede:
- Limiti rigorosi al processo decisionale autonomo,
- Audit indipendenti e test di parzialità,
- Chiari standard giuridici che attribuiscono la responsabilità alle autorità umane.
3.5 Interfacce digitali, inclusione e ambiente informativo
L’impatto più immediato e socialmente visibile dell’intelligenza artificiale sulla sfera pubblica non è l’automazione dei processi di back-office, ma la trasformazione delle interfacce digitali attraverso le quali i cittadini interagiscono con le istituzioni, le informazioni e tra loro. L’intelligenza artificiale media sempre più il modo in cui le persone richiedono sussidi, accedono all’assistenza sanitaria, cercano assistenza legale o amministrativa, consumano notizie e si formano opinioni sugli affari pubblici. Queste interfacce operano all’intersezione tra tecnologia, psicologia e potere, plasmando inclusione, esclusione, fiducia e coesione sociale.
A differenza dei precedenti sistemi di e-government, che richiedevano agli utenti di adattarsi a moduli rigidi e logiche burocratiche, le interfacce basate sull’intelligenza artificiale, in particolare i sistemi conversazionali, si adattano al linguaggio, alle intenzioni e al contesto degli utenti. Questa adattabilità ha il potenziale per ridurre gli attriti e ampliare l’accesso. Allo stesso tempo, introduce nuovi rischi: opacità, dipendenza, manipolazione ed esclusione differenziale. L’impatto sociale delle interfacce mediate dall’intelligenza artificiale dipende quindi meno dalla loro sofisticatezza tecnica che dal modo in cui sono integrate negli ecosistemi istituzionali e negli ambienti informativi .
3.5.1 Interfacce conversazionali e accessibilità
I sistemi di intelligenza artificiale conversazionale (chatbot, assistenti vocali e interfacce testuali multilingue) stanno rapidamente diventando il livello di front-end predefinito per i servizi pubblici. Governi ed enti pubblici li utilizzano per gestire volumi elevati di richieste relative a tassazione, previdenza sociale, immigrazione, programmazione sanitaria, assistenza abitativa e servizi comunali. I dati empirici dei rapporti OCSE sulla digitalizzazione del settore pubblico mostrano che nelle giurisdizioni con infrastrutture di e-government mature, le interfacce conversazionali gestiscono ora tra il 30% e il 60% delle interazioni di primo contatto con i cittadini in servizi selezionati.
Se progettati in modo inclusivo e implementati come canali di accesso complementari , questi sistemi possono migliorare significativamente l’inclusione sociale. Per i cittadini con basso livello di alfabetizzazione, istruzione formale limitata o scarsa familiarità con il linguaggio burocratico, le interfacce conversazionali riducono il carico cognitivo traducendo i requisiti istituzionali in un linguaggio quotidiano. Le interfacce di intelligenza artificiale multilingue riducono le barriere linguistiche per migranti e minoranze etniche, un vantaggio particolarmente evidente nelle aree urbane e nelle regioni di confine. Nei paesi con un’elevata popolazione migrante, i programmi pilota mostrano aumenti misurabili nei tassi di completamento delle domande di ammissione quando la guida conversazionale viene fornita in più lingue.
I vantaggi in termini di accessibilità vanno oltre il linguaggio. Le interfacce vocali sono vantaggiose per le fasce di età più anziane e per le persone con disabilità visive, mentre le interfacce di testo asincrone sono adatte ai cittadini che non possono interagire durante il normale orario d’ufficio a causa di orari di lavoro precari, responsabilità di assistenza o problemi di salute. I dati derivanti da sperimentazioni nella pubblica amministrazione indicano che le interfacce di intelligenza artificiale fuori orario avvantaggiano in modo sproporzionato i lavoratori a basso reddito , che sono meno in grado di prendersi del tempo libero per usufruire dei servizi di persona.
Un altro vantaggio spesso trascurato è la riduzione dello stigma . Richiedere assistenza sociale, supporto per la salute mentale o consulenza legale comporta costi sociali e psicologici. Interagire con un sistema automatizzato e non giudicante può ridurre gli ostacoli al coinvolgimento iniziale, aumentando l’accesso precoce e riducendo i costi a valle. Nell’assistenza sanitaria e nei servizi sociali, le prime evidenze suggeriscono tassi di divulgazione più elevati nelle valutazioni preliminari mediate dall’intelligenza artificiale rispetto all’assunzione faccia a faccia, in particolare per questioni delicate.
Tuttavia, questi guadagni in termini di inclusione sono condizionati , non automatici. Le interfacce digitali possono facilmente aggravare l’esclusione se sostituiscono, anziché integrare, i canali di accesso tradizionali. Le popolazioni prive di un accesso affidabile a Internet, di dispositivi digitali o di una conoscenza digitale di base sono sistematicamente svantaggiate quando vengono ridotti uffici fisici, linee telefoniche o intermediari umani. I dati della Banca Mondiale indicano che segmenti significativi di popolazioni rurali, anziani e famiglie a basso reddito rimangono marginali dal punto di vista digitale anche nei paesi ad alto reddito.
La fiducia è un’altra variabile critica. Per alcune popolazioni, in particolare quelle con precedenti esperienze negative con le istituzioni statali, i sistemi automatizzati sono percepiti come strumenti di sorveglianza piuttosto che come meccanismi di assistenza. Ciò è particolarmente vero in contesti in cui l’IA è associata a controlli di idoneità, rilevamento di frodi o sanzioni. Senza una comunicazione chiara e garanzie procedurali, le interfacce conversazionali possono ostacolare il coinvolgimento anziché facilitarlo.
L’effetto sociale netto dell’IA conversazionale dipende quindi dalle scelte di progettazione istituzionale . I risultati inclusivi sono più probabili quando l’IA interagisce con:
- Operare insieme a canali umani e non digitali,
- Sono trasparenti riguardo al loro ruolo e ai loro limiti,
- Non fungere da guardiani di diritti o privilegi,
- Sono integrati in strategie di alfabetizzazione digitale più ampie.
In assenza di queste condizioni, le interfacce dell’intelligenza artificiale rischiano di trasformarsi in strumenti di esclusione silenziosa, scaricando l’onere amministrativo sui più vulnerabili, pur preservando un’apparente efficienza.
Oltre all’erogazione dei servizi, l’intelligenza artificiale ha profondamente rimodellato l’ ambiente informativo in cui le società generano comprensioni condivise della realtà. I sistemi di intelligenza artificiale generativa hanno ridotto quasi a zero i costi di produzione di contenuti coerenti, persuasivi e contestualizzati. Ciò rappresenta un cambiamento strutturale, non un aumento marginale, della capacità comunicativa.
Studi empirici condotti da istituti di ricerca sui media e agenzie di sicurezza informatica dimostrano che l’intelligenza artificiale generativa consente la rapida diffusione delle campagne di disinformazione automatizzando la creazione di contenuti, la traduzione, l’adattamento stilistico e il targeting del pubblico. Ciò che in precedenza richiedeva team coordinati e risorse ingenti può ora essere realizzato da piccoli gruppi o persino da singoli individui. Il volume, la velocità e la personalizzazione dei contenuti superano i tradizionali meccanismi di moderazione e fact-checking.
I rischi sociali vanno oltre le palesi falsità. Un effetto più insidioso è l’ erosione della fiducia epistemica , ovvero la fiducia condivisa che gli ecosistemi informativi, seppur imperfetti, siano ampiamente ancorati alla realtà. Quando i contenuti sintetici diventano indistinguibili dal giornalismo prodotto da esseri umani, dall’analisi di esperti o dal resoconto di testimoni oculari, i cittadini si trovano ad affrontare costi cognitivi crescenti nella valutazione della credibilità. Con l’aumento di questi costi, molti si disimpegnano o si ritirano in bolle informative basate sull’identità.
Questa erosione della fiducia influisce direttamente sui processi democratici. L’integrità elettorale è messa a repentaglio non solo da informazioni false, ma anche dal rumore epistemico , un’ondata di contenuti plausibili ma inaffidabili che diluisce i segnali autorevoli. Studi sul comportamento degli elettori indicano che l’esposizione a narrazioni contrastanti generate dall’intelligenza artificiale aumenta il cinismo e riduce la partecipazione, anche quando gli individui non riescono a identificare specifiche affermazioni false.
L’intelligenza artificiale generativa amplifica anche la polarizzazione consentendo la produzione di massa di narrazioni ideologicamente allineate , ciascuna internamente coerente ed emotivamente risonante. Gli algoritmi possono personalizzare i messaggi per rafforzare le identità, le lamentele e le paure del gruppo, accelerando la polarizzazione affettiva. È importante notare che questo non richiede la persuasione in senso tradizionale; si basa sulla ripetizione, sulla salienza emotiva e sul consenso percepito.
Le istituzioni pubbliche si trovano ad affrontare una sfida duplice e complessa. Da un lato, devono impiegare l’IA per migliorare l’efficienza dei servizi, la comunicazione e la reattività. Dall’altro, devono mitigare gli effetti destabilizzanti dell’IA sull’ambiente informativo. Questi obiettivi possono entrare in conflitto quando l’uso istituzionale dell’IA mina la credibilità o confonde il confine tra comunicazione ufficiale e messaggistica automatizzata.
Mantenere la coesione sociale in questo contesto richiede una governance epistemica attiva , non una semplice moderazione dei contenuti. Le principali contromisure includono:
- Etichettatura chiara e autenticazione delle comunicazioni ufficiali,
- Registri pubblici dell’uso istituzionale dell’IA,
- Investimenti nei media indipendenti di interesse pubblico,
- Sostegno all’alfabetizzazione mediatica e all’educazione al ragionamento critico,
- Collaborazione trasparente con piattaforme di rilevamento e risposta.
È fondamentale che queste misure siano percepite come legittime e imparziali. Un controllo eccessivo rischia di rafforzare narrazioni di manipolazione e censura, erodendo ulteriormente la fiducia.
3.5.3 Progettazione dell’interfaccia, potere e allocazione delle responsabilità
Le interfacce digitali non sono canali neutrali; codificano relazioni di potere e allocazione delle responsabilità . Le interfacce mediate dall’intelligenza artificiale possono spostare sottilmente la responsabilità dalle istituzioni agli individui, inquadrando i risultati come il risultato di processi automatizzati piuttosto che di decisioni discrezionali. Quando i cittadini interagiscono con i chatbot anziché con gli assistenti sociali, le opportunità di spiegazione, negoziazione e ricorso sono ridotte, a meno che non siano esplicitamente integrate nel sistema.
Questo cambiamento ha implicazioni legali e psicologiche. I cittadini potrebbero avere difficoltà a identificare chi è responsabile di errori o esiti negativi, indebolendo la giustizia procedurale. La ricerca in diritto amministrativo e fiducia pubblica mostra che l’equità percepita dipende non solo dai risultati, ma anche dalla capacità di contestare ed essere ascoltati . Le interfacce che ottimizzano l’efficienza a scapito della contestabilità minano la legittimità, anche quando tecnicamente accurate.
Su larga scala, queste dinamiche di interfaccia plasmano il modo in cui i cittadini percepiscono lo Stato stesso: come un fornitore di servizi reattivo, una macchina opaca o un regolatore distante. Nel tempo, tali percezioni influenzano la conformità, la cooperazione e l’impegno civico.
Le interfacce digitali basate sull’intelligenza artificiale e i sistemi informativi generativi funzionano come infrastrutture sociali . Mediano l’accesso ai diritti, plasmano il discorso pubblico e condizionano la fiducia. Il loro impatto sull’inclusione e la coesione non è determinato solo dalla tecnologia, ma anche dalla governance, dalla progettazione e dalla responsabilità istituzionale.
Laddove le interfacce dell’IA siano inclusive, plurali e trasparenti, possono ampliare l’accesso e ridurre le disuguaglianze. Laddove siano esclusive, opache o coercitive, amplificano le divisioni esistenti e minano la coesione sociale. L’ambiente informativo amplifica questi effetti, poiché la fiducia, una volta persa, è difficile da ripristinare.
Comprendere l’IA come interfaccia tra individui e istituzioni chiarisce un aspetto centrale di questo capitolo: i risultati sociali emergono nel momento dell’interazione , non solo nell’algoritmo. Progettare tali interazioni in modo responsabile è quindi un compito fondamentale della governance dell’IA, non una considerazione secondaria.
L’intelligenza artificiale rimodella i risultati sociali non solo modificando gli indicatori di performance aggregati, ma ridistribuendo il rischio, l’accesso e l’autonomia tra le popolazioni . Mentre l’adozione dell’IA nei servizi pubblici, nell’amministrazione del welfare, nel triage sanitario, nell’istruzione e nei sistemi giudiziari spesso migliora le metriche di efficienza media – tempi di elaborazione più brevi, costi per caso inferiori, maggiore produttività – aumenta contemporaneamente la dispersione nei risultati individuali . Da una prospettiva di equità, questa varianza è più significativa dei guadagni medi di performance.
L’analisi dell’equità sociale richiede quindi di spostare l’attenzione da “L’intelligenza artificiale migliora i servizi nel complesso?” a “ Chi ne beneficia, chi sopporta il rischio e in quali condizioni? ”. Le prove empiriche in tutte le giurisdizioni dimostrano che i sistemi di intelligenza artificiale interagiscono costantemente con la stratificazione sociale preesistente (istruzione, reddito, etnia, stato migratorio, disabilità, età), producendo effetti distributivi sistematici piuttosto che accidentali .
Questi effetti emergono non perché i sistemi di intelligenza artificiale siano intrinsecamente discriminatori, ma perché operano in contesti istituzionali che già presentano disparità di accesso a risorse, voce e ricorso. L’intelligenza artificiale, standardizzando e adattando i processi decisionali, tende ad amplificare le asimmetrie strutturali, a meno che non sia esplicitamente progettata e gestita per contrastarle.
3.6.1 Impatto differenziale tra le popolazioni
I benefici e i danni sociali dell’IA sono distribuiti in modo non uniforme tra le popolazioni a causa delle differenze di capitale umano, capacità digitale, familiarità istituzionale e potere contrattuale . I gruppi con livelli di istruzione più elevati, un’occupazione stabile, competenze digitali e una precedente esperienza di navigazione nei sistemi burocratici sono in una posizione migliore per estrarre valore dai servizi mediati dall’IA. Comprendono la logica del sistema, riconoscono gli errori e promuovono ricorsi quando necessario. Per questi utenti, l’IA spesso riduce gli attriti e migliora i risultati.
Al contrario, gli individui con un livello di istruzione inferiore, competenze digitali limitate, barriere linguistiche, una situazione legale o lavorativa precaria o precedenti esperienze negative con le istituzioni sono maggiormente esposti ai rischi correlati all’IA . Questo rischio si manifesta in diversi modi empiricamente documentati.
In primo luogo, i tassi di classificazione errata sono più elevati per i gruppi emarginati. I sistemi di ammissibilità automatizzati, basati su dati storici, riflettono le pratiche amministrative del passato, che spesso codificano distorsioni strutturali. Gli studi sui sistemi di welfare, credito e valutazione del rischio mostrano costantemente tassi più elevati di falsi negativi o falsi positivi per alcuni gruppi demografici, in particolare migranti, minoranze etniche e persone con storie lavorative non standard. Sebbene l’accuratezza complessiva possa migliorare, la distribuzione degli errori è asimmetrica .
In secondo luogo, l’esclusione procedurale aumenta quando i sistemi di intelligenza artificiale sostituiscono il giudizio umano discrezionale senza adeguate garanzie. Gli individui che non si conformano ai profili di dati standardizzati – a causa di lavoro informale, documentazione frammentata o percorsi di vita atipici – hanno maggiori probabilità di essere segnalati come anomalie. Senza meccanismi di ricorso accessibili, questi individui subiscono una perdita di accesso piuttosto che di efficienza amministrativa.
In terzo luogo, i differenziali di autonomia si ampliano. Gli utenti più avvantaggiati possono interagire strategicamente con i sistemi di intelligenza artificiale, scegliendo quando affidarsi all’automazione e quando ricorrere all’intervento umano. Gli utenti meno avvantaggiati sono spesso soggetti a decisioni di intelligenza artificiale senza possibilità di scelta, in particolare in contesti di welfare, immigrazione o polizia. Ciò crea un’esperienza stratificata di agency: alcuni cittadini sono assistiti dall’intelligenza artificiale, altri ne sono governati.
L’analisi distributiva su più implementazioni nel settore pubblico rivela uno schema ricorrente: l’intelligenza artificiale migliora le metriche medie del servizio, aumentando al contempo la varianza nei risultati individuali . Ad esempio, i tempi di attesa medi diminuiscono, ma una minoranza di utenti sperimenta risultati significativamente peggiori a causa di errori, classificazione errata o incapacità di gestire i ricorsi. Questi rischi estremi sono socialmente concentrati e colpiscono in modo sproporzionato popolazioni già vulnerabili.
In assenza di politiche correttive, queste dinamiche producono un risultato paradossale: i guadagni di efficienza coesistono con l’aumento delle disuguaglianze . I sistemi amministrativi appaiono più efficaci a livello macro, mentre diventano meno giusti a livello micro. Questa erosione dell’equità percepita mina la fiducia, la conformità e la legittimità a lungo termine, anche quando gli indicatori principali sono positivi.
Per valutare rigorosamente i risultati in termini di equità sociale, questo rapporto si basa su indicatori sensibili alla distribuzione piuttosto che su parametri di performance aggregati. Questi indicatori sono tratti dai quadri di valutazione della pubblica amministrazione utilizzati dall’OCSE, dalla Banca Mondiale e dalle istituzioni nazionali di controllo e sono progettati per rilevare sia l’accesso che l’esperienza.
I tassi di accesso ai servizi e i tempi di attesa per gruppo demografico sono indicatori fondamentali. I dati disaggregati rivelano se i sistemi basati sull’intelligenza artificiale riducono o aggravano i divari di accesso in base a reddito, età, genere, etnia, disabilità e stato migratorio. I dati dimostrano che i sistemi ottimizzati per la produttività spesso migliorano l’accesso mediano, lasciando indietro i valori anomali. Le disparità persistenti sono indice di esclusione strutturale piuttosto che di errori tecnici isolati.
I tassi di errore e di ricorso nelle decisioni automatizzate forniscono una visione diretta dell’equità. Elevati tassi di ricorso tra specifici gruppi demografici indicano un disallineamento sistematico tra la logica del sistema e la realtà vissuta. Ancora più importante, i tassi di successo dei ricorsi rivelano se le istituzioni sono in grado di correggere gli errori dell’IA quando vengono contestati. Un basso successo dei ricorsi, combinato con un basso tasso di avvio dei ricorsi, spesso riflette ostacoli alla contestazione piuttosto che correttezza.
Le misure di soddisfazione e fiducia degli utenti , se disaggregate, catturano l’esperienza soggettiva che le metriche oggettive non rilevano. I sondaggi mostrano costantemente che l’equità e la trasparenza percepite contano più della velocità o della praticità per la fiducia. Le popolazioni che si sentono sorvegliate, incomprese o impotenti segnalano una minore soddisfazione anche quando i risultati sono nominalmente favorevoli. Nel tempo, questo influisce sulla volontà di interagire con le istituzioni in generale.
La copertura e la qualità delle valutazioni d’impatto algoritmiche (AIA) e degli audit indipendenti sono indicatori di governance con un forte valore predittivo per i risultati di equità. Le giurisdizioni che richiedono valutazioni d’impatto ex ante, documentazione pubblica e audit regolari dimostrano una minore varianza nei risultati e una più rapida correzione dei bias sistemici. Laddove l’implementazione dell’IA procede senza tali meccanismi, le disuguaglianze persistono e si aggravano.
Nel loro insieme, questi indicatori mostrano costantemente che la qualità della governance, non la sofisticatezza tecnica, è il fattore determinante per risultati sociali equi . Sistemi di intelligenza artificiale altamente avanzati, implementati senza trasparenza, contestabilità e responsabilità istituzionale, producono risultati di equità peggiori rispetto a sistemi più semplici integrati in solidi quadri di governance.
3.6.3 Mediazione istituzionale degli effetti distributivi
Gli effetti distributivi dell’IA non sono proprietà fisse degli algoritmi; sono mediati istituzionalmente . Le scelte politiche determinano se l’IA diventerà una forza livellatrice o stratificatrice. I principali fattori di mediazione includono:
- Se i sistemi di intelligenza artificiale vengono utilizzati per supportare il processo decisionale o per sostituire la discrezionalità ;
- Se la revisione umana sia significativa o simbolica;
- Se i meccanismi di ricorso sono accessibili, tempestivi e comprensibili;
- Se le popolazioni interessate sono rappresentate nella progettazione e nella valutazione del sistema.
I dati provenienti da studi comparativi nel settore pubblico dimostrano che quando le istituzioni considerano l’equità come un vincolo progettuale – misurando esplicitamente la varianza, monitorando i risultati dei sottogruppi e adattando i sistemi di conseguenza – l’adozione dell’IA può ridurre le disparità. Quando l’equità viene considerata un fattore secondario, le disparità si ampliano, nonostante il miglioramento delle prestazioni complessive.
Ciò rafforza una conclusione analitica fondamentale del rapporto: l’intelligenza artificiale non crea nuove disuguaglianze ex nihilo; accelera l’espressione di quelle esistenti, a meno che non intervenga la governance . I risultati distributivi non sono quindi effetti collaterali, ma segnali di priorità e capacità istituzionali.
Risultati iniqui dell’IA hanno conseguenze che vanno oltre il danno individuale. Quando gruppi specifici subiscono sistematicamente esiti peggiori, la sfiducia si accumula e si diffonde nelle comunità. Ciò mina la coesione sociale e indebolisce la legittimità percepita delle istituzioni pubbliche.
Fondamentalmente, l’erosione della legittimità non è lineare. Un numero relativamente piccolo di fallimenti altamente visibili può superare i guadagni di efficienza più ampi nella percezione pubblica. In questo senso, le code distributive contano più delle medie . Le istituzioni che non affrontano le disuguaglianze causate dall’intelligenza artificiale rischiano di innescare reazioni negative che limitano l’innovazione e le riforme future.
L’equità sociale nell’implementazione dell’IA non è quindi solo un imperativo morale, ma un requisito funzionale per una governance digitale sostenibile . I sistemi che non riescono a garantire equità e efficienza finiscono per perdere la licenza sociale a operare.
| Dimensione | Indicatore | Definizione (quantitativa) | Soglia equa | Soglia di avviso | Soglia critica/iniqua | Benchmark (osservato nella pratica) |
|---|---|---|---|---|---|---|
| Accesso | Lacuna nell’accesso ai servizi | Differenza nel tasso di accesso ai servizi di successo tra i quintili di reddito/istruzione più alti e più bassi (punti percentuali) | ≤ 5 pp | 5–15 pagine | > 15 pagine | Leader dell’e-gov dell’OCSE: 4–7 pp; sistemi debolmente governati: 20–30 pp |
| Accesso | Rapporto tempo di attesa | Tempo di attesa mediano (gruppo svantaggiato) ÷ tempo di attesa mediano (complessivo) | ≤ 1,1 | 1.1–1.4 | > 1.4 | Sistemi di welfare nordici ≈ 1,05; screening automatizzato del welfare nei paesi a basso e medio reddito > 1,6 |
| Precisione | Tasso di errore | Tasso di errore per il gruppo svantaggiato ÷ tasso di errore complessivo del sistema | ≤ 1,5× | 1,5–3× | > 3× | Audit di intelligenza artificiale su credito e welfare: 2–4 volte più comuni senza controlli di distorsione |
| Precisione | Tasso di falsi negativi | Percentuale di individui idonei a cui è stato negato erroneamente il servizio | ≤ 5% | 5–12% | > 12% | I sistemi di idoneità automatizzati hanno segnalato un tasso del 10-18% nelle prime implementazioni |
| Risarcimento | Tasso di avvio del ricorso | % di decisioni AI negative che innescano un ricorso formale | ≥ 30% | 10–30% | < 10% | Sistemi con assistenza legale e spiegazioni: 35-50%; sistemi opachi: < 8% |
| Risarcimento | Tasso di successo dell’appello | % di ricorsi che hanno portato all’annullamento o alla correzione | ≥ 40% | 20–40% | < 20% | Sistemi fiscali e previdenziali ben governati: 45-60%; sanzioni automatizzate: < 15% |
| Autonomia | Disponibilità della revisione umana | % di decisioni AI in cui è possibile accedere a una revisione umana significativa su richiesta | ≥ 90% | 60–90% | < 60% | Progetti pilota del settore pubblico dell’UE: 70-95%; sistemi basati su piattaforme: < 50% |
| Trasparenza | Tasso di comprensione della spiegabilità | % di utenti che dichiarano di aver compreso il motivo per cui è stata presa una decisione | ≥ 70% | 40–70% | < 40% | La maggior parte dei sistemi di intelligenza artificiale pubblici oggi: 30-55% |
| Fiducia | Differenziale di fiducia (SD) | Differenza nella fiducia istituzionale tra gruppi avvantaggiati e svantaggiati (deviazioni standard) | ≤ 0,3 DS | 0,3–0,6 DS | > 0,6 DS | I sistemi di welfare automatizzati spesso superano 0,7 SD |
| Fiducia | Tasso di equità percepita | % di utenti che concordano sul fatto che le decisioni siano “giuste e ragionevoli” | ≥ 65% | 40–65% | < 40% | Amministrazioni ad alta fiducia: 60-70%; utilizzo opaco dell’IA: < 35% |
| Governance | Copertura AIA | % di sistemi di intelligenza artificiale ad alto rischio coperti da valutazioni di impatto algoritmico | ≥ 90% | 50–90% | < 50% | Obiettivo UE ≥ 90%; molte giurisdizioni < 40% |
| Governance | Frequenza di controllo | Tempo medio tra audit indipendenti di sistemi ad alto rischio | ≤ 12 mesi | 12–36 mesi | > 36 mesi / nessuno | Migliore pratica: annuale; molti sistemi: nessun audit |
| Distribuzione | Indice di varianza dei risultati | Punteggio z composito della dispersione tra accesso, errore, appello, fiducia | ≤ 0,5 | 0,5–1,2 | > 1.2 | Stratificazione coerente dei regimi di IA > 1,3 |
L’impatto sociale dell’intelligenza artificiale nei servizi pubblici non è determinato principalmente dall’architettura del modello, dalle metriche di accuratezza o dalla scala computazionale. È determinato dai meccanismi di governance , ovvero dagli accordi istituzionali che determinano il modo in cui i sistemi di intelligenza artificiale vengono selezionati, progettati, implementati, monitorati, corretti e, quando necessario, ritirati. L’evidenza empirica in diverse giurisdizioni mostra che sistemi di intelligenza artificiale simili producono risultati sociali radicalmente diversi a seconda della qualità della governance , anche quando le prestazioni tecniche sono comparabili.
Un’efficace governance dell’IA nel settore pubblico può essere intesa al meglio come un sistema di controlli a più livelli , che combina meccanismi preventivi (ex ante) con meccanismi di rendicontazione correttiva (ex post). Nessuno dei due livelli è sufficiente da solo. I controlli ex ante riducono la probabilità di danni; la rendicontazione ex post ne limita la durata, la portata e la propagazione sistemica.
Classificazione del rischio e valutazioni di impatto obbligatorie
La classificazione del rischio è il meccanismo di governance fondamentale. I sistemi di intelligenza artificiale del settore pubblico operano su un ampio spettro di impatti sociali, dai chatbot informativi a basso rischio ai sistemi ad alto rischio che incidono sullo status giuridico, sul reddito, sulla libertà o sull’accesso ai servizi essenziali. Trattare questi sistemi in modo uniforme è analiticamente ed eticamente scorretto.
Le giurisdizioni dotate di framework di governance dell’IA maturi classificano i sistemi in base al potenziale danno , non alla complessità tecnica. I sistemi ad alto rischio, come quelli utilizzati per l’idoneità al welfare, la polizia predittiva, lo screening dell’immigrazione, il triage sanitario, l’inserimento scolastico o l’accesso ai crediti, attivano valutazioni di impatto algoritmico (AIA) obbligatorie prima dell’implementazione.
Le AIA efficaci vanno oltre i test di bias tecnico. Valutano sistematicamente:
- Popolazioni colpite e profili di vulnerabilità,
- Distribuzione degli errori e rischi di coda,
- Disponibilità e accessibilità della revisione umana,
- Provenienza e rappresentatività dei dati,
- Compatibilità giuridica con gli standard di non discriminazione e di giusto processo,
- Risposte comportamentali previste da utenti e amministratori.
Le verifiche empiriche dimostrano che le AIA sono più efficaci quando sono istituzionalmente vincolanti , documentate pubblicamente e aggiornate durante l’intero ciclo di vita del sistema. Laddove le valutazioni d’impatto siano volontarie, riservate o puramente tecniche, tendono a fungere da artefatti di conformità piuttosto che da strumenti di mitigazione del rischio.
Norme sugli appalti pubblici e definizione del mercato
Gli appalti sono una delle leve di governance più potenti ma sottoutilizzate nell’ambito dell’intelligenza artificiale nel settore pubblico. I governi non sono soggetti passivi, ma attori che plasmano il mercato . Gli standard di approvvigionamento determinano quali fornitori hanno successo, quali architetture prevalgono e quali norme di governance diventano standard di settore.
Le giurisdizioni che realizzano un’implementazione socialmente allineata integrano i requisiti di governance direttamente nei contratti di appalto, tra cui:
- Obblighi di trasparenza (documentazione modello, discendenza dei dati),
- Interoperabilità e portabilità dei dati,
- Diritti di audit e accesso ai registri,
- Chiara ripartizione delle responsabilità tra fornitore e autorità pubblica,
- Divieto di aggiornamenti unilaterali del modello senza preavviso.
I dati provenienti dagli audit sugli appalti pubblici mostrano che quando trasparenza e interoperabilità sono condizioni di appalto non negoziabili, le offerte dei fornitori si adattano rapidamente. Al contrario, gli appalti basati esclusivamente su parametri di costo e performance tendono a consolidare sistemi proprietari e poco trasparenti, difficili da governare una volta implementati.
È importante sottolineare che gli standard di appalto influenzano anche l’autonomia istituzionale a lungo termine . I sistemi che vincolano le agenzie pubbliche a ecosistemi proprietari riducono la capacità dello Stato di adattare le politiche, correggere errori o cambiare fornitore, spostando così il potere verso i fornitori. Una governance socialmente allineata tratta quindi gli appalti non come una funzione di acquisto, ma come una scelta costituzionale sul controllo dell’infrastruttura decisionale pubblica.
Monitoraggio continuo, rilevamento di pregiudizi e governance adattiva
La governance dell’IA non può essere statica. I contesti sociali cambiano, le popolazioni si evolvono e i modelli si modificano con il variare della distribuzione dei dati. Il monitoraggio continuo è quindi essenziale per prevenire il graduale degrado dell’equità e delle prestazioni.
I sistemi di monitoraggio efficaci monitorano non solo l’accuratezza aggregata, ma anche gli indicatori distributivi , tra cui:
- Tassi di errore per gruppo demografico,
- Tassi di appello e risultati,
- Tempi di accesso e di attesa differenziati,
- Cambiamenti nella fiducia e nella soddisfazione degli utenti.
L’evidenza empirica proveniente da giurisdizioni con monitoraggio continuo mostra un rilevamento precoce di distorsioni sistemiche e un’azione correttiva più rapida. Al contrario, i sistemi sottoposti a verifica solo al momento dell’implementazione spesso accumulano silenziosamente danni fino a quando non vengono scoperti da crisi, contenziosi o indagini mediatiche.
Una governance adattiva richiede capacità organizzativa . I dati di monitoraggio devono essere interpretati, elaborati e tradotti in cambiamenti di sistema. Ciò richiede unità di supervisione dedicate all’IA con competenze tecniche, legali e sociali, unità ancora assenti in molte amministrazioni pubbliche.
Trasparenza, segnalazione degli incidenti e azioni correttive
La trasparenza non è solo un principio di comunicazione; è uno strumento di governance operativa. La rendicontazione pubblica dell’uso dell’IA, degli incidenti e delle azioni correttive crea cicli di feedback che migliorano la qualità del sistema e ne sostengono la legittimità.
Le giurisdizioni con regimi di trasparenza maturi mantengono:
- Registri pubblici dei sistemi di intelligenza artificiale implementati,
- Meccanismi di segnalazione degli incidenti per danni e quasi incidenti,
- Relazioni pubbliche periodiche sulle prestazioni del sistema e sui risultati in termini di equità.
Studi empirici dimostrano che la trasparenza è correlata a un minor rischio sociale a lungo termine , anche quando le controversie a breve termine aumentano. Il controllo pubblico incentiva una progettazione migliore, scoraggia l’impiego sconsiderato e fornisce un allarme tempestivo in caso di erosione della legittimità.
Fondamentale è che la trasparenza sia abbinata a una capacità correttiva dimostrabile . Segnalare un danno senza intervenire compromette la fiducia più del silenzio. Una governance socialmente allineata, quindi, non privilegia la perfezione, ma la capacità di risposta e l’apprendimento .
Risultati istituzionali di una governance solida
L’analisi comparativa tra le diverse implementazioni del settore pubblico rivela un modello coerente: le giurisdizioni che istituzionalizzano questi meccanismi di governance ottengono una migliore qualità del servizio senza aumenti proporzionali del rischio sociale . I guadagni di efficienza sono reali, ma non vanno a scapito di equità, fiducia o legittimità.
Questo risultato non è casuale. Riflette il fatto che i meccanismi di governance trasformano l’IA da uno strumento di efficienza ottuso in un sistema socio-tecnico gestito, integrato in strutture di responsabilità democratica.
Le prove raccolte in diversi ambiti di servizio, giurisdizioni e gruppi di popolazione convergono verso una conclusione chiara: l’intelligenza artificiale può migliorare la capacità dei servizi pubblici e l’inclusione sociale, ma solo in condizioni specifiche e impegnative . Queste condizioni sono istituzionali, non tecniche.
In primo luogo, l’intelligenza artificiale deve essere impiegata principalmente come supporto alle decisioni , non come loro sostituto. I sistemi che assistono il giudizio umano – organizzando le informazioni, evidenziando i rischi o suggerendo opzioni – superano costantemente i processi decisionali completamente automatizzati in termini di equità e legittimità. Laddove l’intelligenza artificiale sostituisce la discrezionalità, gli errori diventano sistemici e la contestazione si indebolisce.
In secondo luogo, la supervisione umana e la contestabilità devono essere reali, accessibili ed efficaci. Una supervisione che esiste solo sulla carta non protegge i cittadini. La contestabilità richiede spiegazioni comprensibili, tempi ragionevoli e un’autorità significativa per revocare le decisioni.
In terzo luogo, devono rimanere disponibili canali di accesso alternativi . Le interfacce digitali e mediate dall’intelligenza artificiale dovrebbero ampliare l’accesso, non trasformarsi in canali esclusivi. Mantenere canali umani, telefonici o mediati dalla comunità è essenziale per l’inclusione, in particolare per le popolazioni vulnerabili.
In quarto luogo, l’impatto deve essere misurato costantemente e reso pubblico . L’equità non può essere data per scontata; deve essere monitorata. Le istituzioni che monitorano la varianza, non solo le medie, sono in grado di individuare e correggere gli effetti di stratificazione prima che si consolidino.
In quinto luogo, la capacità istituzionale deve essere all’altezza dell’ambizione tecnologica . L’implementazione di sistemi di intelligenza artificiale avanzati senza un investimento adeguato in governance, personale e supervisione porta prevedibilmente al fallimento. Le carenze di capacità non sono inconvenienti temporanei; sono moltiplicatori di rischio strutturali.
Quando queste condizioni sono soddisfatte, l’IA contribuisce a una trasformazione sociale positiva : riduzione degli oneri amministrativi, maggiore accesso ai servizi, interventi tempestivi e istituzioni più reattive. In assenza di queste condizioni, l’IA tende ad amplificare le disuguaglianze esistenti e a erodere la fiducia , nonostante il miglioramento dei principali indicatori di efficienza.
Questo spiega perché tecnologie simili producono risultati divergenti nei diversi contesti. Il fattore determinante non è il livello di innovazione, ma la maturità istituzionale .
3.9 Transizione del capitolo
L’impatto sociale dell’intelligenza artificiale nei servizi pubblici non può essere compreso separatamente dalle questioni di legittimità, equità e progettazione istituzionale. I sistemi di intelligenza artificiale rimodellano il modo in cui i cittadini interagiscono con lo Stato, come accedono ai diritti e come viene esercitata l’autorità. Si tratta di processi fondamentalmente politici e sociali, non meramente tecnici.
Sebbene l’IA offra concrete opportunità per ampliare l’accesso, migliorare la qualità e alleviare la pressione amministrativa, le sue conseguenze sociali sono frutto di una scelta, piuttosto che di un’inevitabilità . Le scelte di governance determinano se l’IA diventerà uno strumento di inclusione o esclusione, fiducia o alienazione, empowerment o controllo.
La fase successiva dell’analisi si sposta dall’interazione sociale alle dinamiche psicologiche e cognitive , esaminando come l’esposizione prolungata ai sistemi di intelligenza artificiale rimodella il ragionamento, la motivazione, la dipendenza e la fiducia individuali e come questi cambiamenti a livello micro si aggregano in una più ampia trasformazione sociale ed economica.
4.1 Riformulare i servizi pubblici nell’era dell’intelligenza artificiale
L’intelligenza artificiale non è più una tecnologia ausiliaria nell’erogazione dei servizi pubblici; è sempre più un fattore determinante strutturale del modo in cui lo Stato percepisce, categorizza e interagisce con gli individui . Nella fase post-2024, i sistemi di intelligenza artificiale plasmano non solo l’efficienza operativa, ma anche l’ architettura normativa dell’azione pubblica: chi viene visto, come vengono interpretati i bisogni, quali rischi vengono prioritarizzati e come viene esercitata la discrezionalità.
I servizi pubblici hanno storicamente svolto la funzione di istituzioni redistributive e di creazione di legittimità . La loro trasformazione sotto l’egida dell’intelligenza artificiale deve quindi essere valutata simultaneamente lungo tre assi:
- Capacità ed efficienza (i servizi possono fare di più con risorse limitate?),
- Equità e inclusione (chi ne beneficia, chi è escluso e perché?),
- Legittimità democratica (le decisioni sono comprensibili, contestabili e responsabili?).
L’intelligenza artificiale modifica tutti e tre gli assi contemporaneamente. L’impatto sociale dell’intelligenza artificiale nei servizi pubblici è quindi meglio compreso come una riconfigurazione sistemica , non come una sequenza di aggiornamenti tecnologici isolati.
4.2 Trasformazione strutturale della Pubblica Amministrazione
4.2.1 Dalla burocrazia caso per caso alla governance probabilistica
La pubblica amministrazione tradizionale si basa su procedure basate su regole applicate da operatori sociali umani. L’intelligenza artificiale introduce un cambiamento verso una governance probabilistica , in cui le decisioni sono sempre più informate da inferenze statistiche, punteggi di rischio e categorizzazioni predittive.
Questo cambiamento produce guadagni misurabili:
- Maggiore produttività nei casi standardizzati,
- Applicazione più coerente delle regole formali,
- Migliore allocazione dell’attenzione amministrativa limitata.
Tuttavia, la governance probabilistica modifica anche la natura del giudizio amministrativo . Le decisioni diventano:
- Lungimirante piuttosto che reattivo,
- Sulla base di correlazioni a livello di popolazione piuttosto che di narrazioni individuali,
- Meno trasparente per i non specialisti.
L’impatto sociale non deriva dalla previsione in sé, ma dalla traduzione di risultati probabilistici in azioni amministrative vincolanti .
4.2.2 Effetti di scala e amplificazione dell’errore
Nei servizi pubblici, la scala è importante. Anche sistemi altamente accurati generano danni quando vengono implementati su milioni di casi. Un tasso di falsi negativi dell’1-2% nei sistemi di ammissibilità ai sussidi può tradursi in decine o centinaia di migliaia di esclusioni ingiuste all’anno.
Ciò crea un’asimmetria strutturale:
- I benefici dell’efficienza si riversano diffusamente sulle istituzioni,
- I costi dell’errore si concentrano principalmente sui singoli individui.
Senza meccanismi compensativi (ricorsi, revisione umana, correzione proattiva), l’amministrazione guidata dall’intelligenza artificiale rischia di normalizzare i danni poco visibili come un compromesso accettabile per l’efficienza.
4.3.1 Targeting, verifica dei mezzi e sorveglianza comportamentale
I sistemi di intelligenza artificiale sono sempre più utilizzati per perfezionare il targeting nell’erogazione del welfare, combinando dati amministrativi, segnali comportamentali e analisi predittiva. Se da un lato ciò può ridurre le perdite e migliorare la sostenibilità fiscale, dall’altro introduce nuove forme di sorveglianza comportamentale .
Le implicazioni sociali includono:
- Espansione del monitoraggio oltre i criteri formali di ammissibilità,
- Maggiore pressione sui beneficiari affinché si conformino alle norme dedotte algoritmicamente,
- Stigma accentuato associato alla classificazione del rischio.
Le prove fornite dai sistemi di welfare automatizzati indicano che la sorveglianza percepita riduce la fiducia e la volontà di impegnarsi , anche tra le popolazioni idonee.
4.3.2 Onere amministrativo e costo psicologico
L’intelligenza artificiale non riduce automaticamente gli oneri amministrativi per i cittadini. Nei sistemi mal progettati, può aumentarli:
- Richiedendo ripetute interazioni digitali,
- Generare rifiuti opachi senza una guida chiara,
- Spostamento della responsabilità del rilevamento degli errori sugli utenti.
Il costo psicologico – stress, ansia, disimpegno – colpisce in modo sproporzionato i gruppi vulnerabili. La valutazione dell’impatto sociale deve quindi incorporare perdite di benessere non monetarie , non solo l’efficienza fiscale.
4.4.1 L’intelligenza artificiale come custode dell’assistenza
Nei sistemi sanitari sotto pressione, l’intelligenza artificiale svolge sempre più il ruolo di gatekeeper , assegnando priorità ai pazienti, programmando gli appuntamenti e valutando le urgenze. Questo ridistribuisce le responsabilità:
- Dai clinici ai progettisti di sistemi,
- Dal giudizio del medico alle scelte sui dati a monte.
Sebbene l’accesso migliori in media, il rischio sociale emerge quando:
- Alcune popolazioni sono sistematicamente sottorappresentate nei dati di addestramento,
- Le priorità algoritmiche sono in conflitto con le esigenze segnalate dai pazienti,
- I medici si affidano eccessivamente ai risultati del sistema.
L’intelligenza artificiale in ambito sanitario ridefinisce quindi non solo l’efficienza, ma anche l’economia morale dell’assistenza .
4.4.2 Fiducia, consenso e disumanizzazione percepita
L’accettazione da parte dei pazienti delle cure mediate dall’intelligenza artificiale dipende dal fatto che l’intelligenza artificiale sia percepita come:
- Uno strumento di assistenza che migliora l’assistenza umana, o
- Un sostituto che allontana i professionisti dai pazienti.
Gli studi dimostrano che la fiducia diminuisce drasticamente quando i pazienti credono che le decisioni siano automatizzate senza un coinvolgimento umano significativo, anche se i risultati migliorano statisticamente. La legittimità sociale nell’assistenza sanitaria si basa quindi sulla tangibile responsabilità umana , non solo sui parametri di performance.
In ambito giudiziario e di sicurezza pubblica, l’intelligenza artificiale viene utilizzata per valutare il rischio di recidiva, inadempienza o minaccia. Questi sistemi eseguono efficacemente la selezione sociale , categorizzando gli individui in fasce di rischio che determinano esiti che cambiano la vita.
L’impatto sociale è profondo perché:
- Le categorie di rischio sono rigide e auto-rinforzanti,
- Gli individui hanno una capacità limitata di contestare le ipotesi di base,
- Gli errori comportano gravi conseguenze.
Anche quando l’accuratezza migliora, la legittimità ne risente se gli individui interessati non riescono a comprendere o a contestare le basi delle decisioni.
4.5.2 Giusto processo e norme democratiche
Da una prospettiva sociale, la questione centrale non è se l’intelligenza artificiale possa supportare i sistemi giudiziari, ma sotto quali vincoli . Le norme democratiche richiedono:
- Spiegabilità sufficiente per la contestazione legale,
- Chiara attribuzione di responsabilità,
- Proporzionalità tra valutazione del rischio e potere coercitivo.
In assenza di queste condizioni, l’intelligenza artificiale rischia di trasformare la giustizia da un processo deliberativo a uno tecnocratico, indebolendo la fiducia del pubblico nell’equità e nella neutralità.
4.6 Interfacce digitali, inclusione e rimodellamento della cittadinanza
4.6.1 L’intelligenza artificiale conversazionale come nuovo sportello pubblico
I sistemi di intelligenza artificiale conversazionale fungono sempre più da primo, e talvolta unico, punto di contatto tra cittadini e istituzioni pubbliche. Questo ha un potenziale trasformativo:
- Abbassare le barriere linguistiche e cognitive,
- Estensione della disponibilità del servizio,
- Standardizzazione della fornitura di informazioni.
Tuttavia, ridefinisce anche la cittadinanza come interazione con i sistemi piuttosto che con le persone . Per le popolazioni escluse digitalmente, questo può significare un’effettiva esclusione dallo Stato stesso.
L’evidenza dimostra costantemente che i modelli di servizio basati esclusivamente sull’intelligenza artificiale esacerbano l’esclusione , mentre i modelli ibridi la attenuano. Una trasformazione socialmente allineata richiede quindi:
- Canali di accesso paralleli non digitali,
- Servizi digitali assistiti,
- Monitoraggio continuo degli indicatori di esclusione.
L’efficienza digitale senza ridondanza mina la logica universalistica dei servizi pubblici.
4.7 Integrità delle informazioni, disinformazione e fiducia collettiva
4.7.1 L’intelligenza artificiale e la portata del danno informativo
L’intelligenza artificiale generativa ha ridotto quasi a zero il costo marginale della produzione di contenuti persuasivi. Nella sfera pubblica, questo amplifica:
- Campagne di disinformazione,
- Frode amministrativa e sostituzione di persona,
- Erosione della fiducia nella comunicazione ufficiale.
Le istituzioni pubbliche si trovano di fronte a un paradosso: utilizzano l’intelligenza artificiale per comunicare in modo più efficiente, mentre si scontrano con il degrado dell’ambiente informativo causato dall’intelligenza artificiale stessa.
L’intelligenza artificiale generativa ha ridotto quasi a zero il costo marginale della produzione di contenuti persuasivi. Nella sfera pubblica, questo amplifica:
- Campagne di disinformazione,
- Frode amministrativa e sostituzione di persona,
- Erosione della fiducia nella comunicazione ufficiale.
Le istituzioni pubbliche si trovano di fronte a un paradosso: utilizzano l’intelligenza artificiale per comunicare in modo più efficiente, mentre si scontrano con il degrado dell’ambiente informativo causato dall’intelligenza artificiale stessa.
La resilienza sociale dipende meno dalla sola moderazione dei contenuti che da:
- Chiara autenticazione delle comunicazioni ufficiali,
- Strategie proattive di informazione pubblica,
- Investimenti nei media e nell’alfabetizzazione algoritmica.
La mancata attenzione all’integrità delle informazioni compromette tutti gli altri vantaggi dei servizi pubblici resi possibili dall’intelligenza artificiale, corrodendo la fiducia.
4.8 Effetti distributivi ed equità
4.8.1 Cattura di benefici ineguali
L’intelligenza artificiale migliora i risultati medi, aumentando spesso la dispersione. Gli utenti con elevate capacità – alfabetizzati digitalmente e inseriti nelle istituzioni – ne traggono benefici sproporzionati, mentre altri affrontano rischi maggiori.
Senza una politica correttiva, l’intelligenza artificiale nei servizi pubblici tende a:
- Ridurre i tempi medi di attesa,
- Aumentare la varianza nelle esperienze individuali.
Questo modello rispecchia disuguaglianze più ampie e richiede un progetto redistributivo esplicito.
Gli indicatori appropriati includono:
- Variazione dei risultati per gruppo demografico,
- Tassi di errore e di ricorso,
- Frequenza di override umano,
- Sondaggi sulla fiducia e sulla soddisfazione.
Queste metriche rivelano effetti sociali invisibili alle statistiche di efficienza aggregata.
L’evidenza cumulativa dimostra che la qualità della governance prevale sulla complessità tecnica nel determinare i risultati sociali. I sistemi implementati nell’ambito di regimi di governance forti:
- Migliorare l’accesso senza erodere la fiducia,
- Contiene la propagazione degli errori,
- Preservare la legittimità istituzionale.
Al contrario, i sistemi scarsamente governati amplificano i danni indipendentemente dalla qualità del modello.
4.10 Sintesi e implicazioni
La trasformazione dei servizi pubblici guidata dall’intelligenza artificiale non è intrinsecamente benefica o dannosa. Il suo impatto sociale è condizionato , determinato da:
- Scelte progettuali che danno priorità all’aumento rispetto alla sostituzione,
- Capacità istituzionale di vigilanza e di ricorso,
- Impegno per l’inclusione e l’accesso multicanale,
- Misurazione continua dei risultati sociali.
Quando queste condizioni sono soddisfatte, l’IA funziona come un amplificatore di capacità per i servizi pubblici. In assenza di queste condizioni, l’IA accelera l’esclusione, l’opacità e la sfiducia.
4.11 Transizione del capitolo
Dopo aver esaminato l’impatto sociale dell’IA nei servizi pubblici a livello sistemico, il prossimo capitolo analizzerà le dimensioni psicologiche e cognitive dell’adozione dell’IA , concentrandosi sul benessere individuale, la calibrazione della fiducia, la dipendenza, la dequalificazione e le implicazioni sociali a lungo termine per le capacità e l’autonomia umane.
5. Dimensioni psicologiche e cognitive dell’adozione dell’intelligenza artificiale
5.1 Introduzione: l’intelligenza artificiale come ambiente cognitivo, non come strumento
L’intelligenza artificiale, in particolare nelle sue forme generative e di supporto alle decisioni, deve essere intesa non solo come una tecnologia che migliora la produttività, ma come un ambiente cognitivo all’interno del quale gli individui pensano, decidono, apprendono e valutano se stessi. A differenza delle precedenti ondate di automazione che hanno principalmente sostituito compiti fisici o di routine, l’intelligenza artificiale contemporanea interviene direttamente nel ragionamento simbolico, nella produzione linguistica, nella memoria, nell’attenzione e nel giudizio, componenti fondamentali della cognizione umana.
Le dimensioni psicologiche e cognitive dell’adozione dell’IA rappresentano quindi un livello fondamentale dell’impatto sociale. Questi effetti operano a più livelli: individuale (attenzione, motivazione, benessere), organizzativo (composizione delle competenze, strutture di autorità) e sociale (norme di competenza, fiducia nella conoscenza e definizioni di intelligenza). È importante sottolineare che molti di questi effetti sono lenti, cumulativi e difficili da invertire , il che rende le scelte di governance e progettazione precoci particolarmente significative.
Questo capitolo fornisce un’analisi approfondita di come l’intelligenza artificiale rimodella i processi cognitivi, la salute mentale, le dinamiche di apprendimento, l’identità professionale e le strutture epistemiche collettive, basandosi su psicologia empirica, economia comportamentale, ricerca organizzativa e studi sull’interazione uomo-computer.
5.2 Carico cognitivo, attenzione e larghezza di banda mentale
Uno degli effetti più immediati e misurabili dei sistemi assistiti dall’intelligenza artificiale è la riduzione del carico cognitivo . Automatizzando il recupero delle informazioni, la sintesi, la stesura e il riconoscimento di schemi, i sistemi di intelligenza artificiale riducono la quantità di memoria di lavoro e lo sforzo attentivo necessari per completare le attività. In contesti controllati, questa riduzione si traduce in un completamento più rapido delle attività, in un minor numero di errori superficiali e in una minore stanchezza a breve termine.
Tuttavia, la teoria del carico cognitivo distingue tra carico intrinseco (complessità del compito), carico estraneo (modo in cui vengono presentate le informazioni) e carico pertinente (sforzo dedicato all’apprendimento e alla formazione degli schemi). I sistemi di intelligenza artificiale spesso riducono il carico estraneo, ma possono anche ridurre il carico pertinente se gli utenti si disimpegnano dall’elaborazione profonda. Nel tempo, questo può portare a un modello in cui gli utenti diventano efficienti nelle prestazioni ma meno capaci di pensare concettualmente.
A livello di popolazione, questa dinamica solleva preoccupazioni circa la dequalificazione cognitiva : la graduale erosione delle capacità interne di problem solving, scrittura e analisi, man mano che i sistemi esterni sostituiscono lo sforzo interno. Questo non avviene in modo uniforme. Le prove suggeriscono che gli utenti con una solida esperienza pregressa traggono i maggiori benefici dall’aumento dell’IA, mentre i principianti sono più propensi ad accettare acriticamente i risultati dell’IA, inibendo l’acquisizione di competenze.
La frammentazione dell’attenzione è un problema correlato. I sistemi di intelligenza artificiale che forniscono risposte immediate e suggerimenti continui possono rafforzare i cicli di attenzione brevi, ridurre la tolleranza allo sforzo cognitivo e indebolire la concentrazione sostenuta. Questi effetti sono amplificati nei contesti educativi e di lavoro cognitivo, dove il ragionamento prolisso e la gratificazione ritardata sono essenziali per la padronanza.
5.3 Calibrazione della fiducia e pregiudizio dell’automazione
La fiducia nei sistemi di intelligenza artificiale non è binaria, ma si sviluppa su un continuum. Un’interazione efficace tra uomo e intelligenza artificiale richiede una fiducia calibrata : gli utenti dovrebbero affidarsi all’intelligenza artificiale quando è affidabile e disimpegnarsi quando non lo è. La ricerca empirica dimostra costantemente che gli esseri umani hanno difficoltà a gestire questa calibrazione.
Prevalgono due modalità di guasto simmetriche:
- Bias di automazione , per cui gli utenti si fidano eccessivamente dei risultati dell’intelligenza artificiale anche quando sono errati.
- Avversione all’algoritmo , in cui gli utenti rifiutano l’assistenza dell’IA dopo aver osservato degli errori, anche quando le prestazioni sono in media superiori.
L’intelligenza artificiale generativa intensifica il bias dell’automazione perché i risultati sono fluidi, sicuri e contestualmente appropriati, anche quando sostanzialmente errati. La tendenza psicologica a equiparare la coerenza linguistica alla correttezza porta gli utenti a sovrastimare i suggerimenti dell’intelligenza artificiale, in particolare in situazioni di pressione temporale o di affaticamento cognitivo.
In ambienti ad alto rischio – sanità, giurisprudenza, pubblica amministrazione – il bias dell’automazione può avere gravi conseguenze. Gli studi dimostrano che i professionisti sono più propensi a seguire raccomandazioni errate dell’IA quando queste sono in linea con le aspettative precedenti o riducono la responsabilità percepita. Ciò crea un effetto di diffusione della responsabilità , in cui la responsabilità diventa psicologicamente ambigua anche se formalmente assegnata.
Per attenuare il bias dell’automazione non servono solo soluzioni tecniche (indicatori di fiducia, quantificazione dell’incertezza), ma anche interventi organizzativi e culturali : formare gli utenti a mettere in discussione l’intelligenza artificiale, progettare flussi di lavoro che richiedano la giustificazione delle decisioni assistite dall’intelligenza artificiale e rafforzare le norme del giudizio professionale.
5.4 Dipendenza, atrofia delle competenze e perdita di capacità a lungo termine
Un rischio psicologico centrale dell’adozione diffusa dell’IA è la dipendenza . La dipendenza emerge quando gli individui perdono la capacità, o la fiducia, di svolgere compiti senza l’assistenza algoritmica. Non si tratta semplicemente di una questione tecnica, ma di un fenomeno motivazionale e identitario.
La dipendenza si manifesta in diversi modi:
- Ridotta disponibilità a tentare compiti senza aiuto,
- Ansia quando gli strumenti di intelligenza artificiale non sono disponibili,
- Scaricamento progressivo della responsabilità cognitiva.
Nel tempo, la dipendenza può portare all’atrofia delle competenze , in particolare in ambiti che richiedono pratica frequente per mantenere la competenza (scrittura, calcolo mentale, ragionamento diagnostico). A differenza degli strumenti tradizionali, l’intelligenza artificiale si adatta dinamicamente, riducendo ulteriormente la necessità di coinvolgimento dell’utente.
Da una prospettiva sociale, la dipendenza diffusa crea fragilità . I sistemi diventano vulnerabili a interruzioni, manipolazioni o controllo strategico da parte dei fornitori di intelligenza artificiale. A livello individuale, la dipendenza mina l’autoefficacia, un fattore chiave per la motivazione e il benessere.
È importante sottolineare che la dipendenza non è inevitabile. L’evidenza suggerisce che i progetti orientati all’aumento , che richiedono input e riflessione attivi da parte dell’utente, preservano le competenze in modo più efficace rispetto ai progetti orientati alla sostituzione che forniscono soluzioni complete.
5.5 Motivazione, agenzia e significato del lavoro e dell’apprendimento
La motivazione umana è plasmata dalla percezione di agenzia, competenza e scopo. I sistemi di intelligenza artificiale alterano tutti e tre.
Nei contesti lavorativi, l’intelligenza artificiale può aumentare la motivazione quando:
- Rimuove le attività noiose,
- Permette di concentrarsi su attività significative,
- Migliora la competenza percepita.
Al contrario, la motivazione diminuisce quando l’IA:
- Monitora costantemente le prestazioni,
- Sostituisce il giudizio con le metriche,
- Riduce i ruoli a funzioni di supervisione su sistemi opachi.
L’impatto psicologico è particolarmente acuto nelle professioni con forti componenti identitarie (insegnamento, medicina, diritto). Quando l’intelligenza artificiale invade le attività professionali fondamentali, gli individui possono sperimentare una minaccia all’identità , che porta a resistenza, disimpegno o stress, anche se la produttività migliora.
In ambito educativo, l’intelligenza artificiale sfida le strutture motivazionali tradizionali. Gli studenti potrebbero passare da obiettivi orientati alla padronanza (apprendimento) a obiettivi orientati alla prestazione (produzione di risultati accettabili), indebolendo la motivazione intrinseca. Nel tempo, questo rischia di trasformare l’istruzione da un processo di sviluppo a un processo transazionale.
Per preservare la motivazione è necessario riformulare l’intelligenza artificiale come un partner cognitivo , non come un’autorità o un valutatore, e allineare gli incentivi all’apprendimento e al giudizio piuttosto che solo al risultato.
5.6 Salute mentale e benessere
L’impatto dell’intelligenza artificiale sulla salute mentale è indiretto ma significativo. Tra i principali fattori che influenzano la salute mentale figurano:
- Stress sul posto di lavoro causato da aspettative di prestazioni accelerate,
- L’insicurezza lavorativa è legata alla sostituibilità percepita,
- Ansia da sorveglianza derivante dal monitoraggio algoritmico,
- Sovraccarico cognitivo dovuto alla costante interazione mediata dall’intelligenza artificiale.
Sebbene l’intelligenza artificiale possa ridurre lo stress da carico di lavoro in alcuni contesti, può anche intensificare la pressione aumentando i parametri di riferimento delle prestazioni. Prove empiriche suggeriscono che lo stress aumenta quando l’intelligenza artificiale viene utilizzata per valutare i lavoratori, anziché supportarli.
Nei contesti sociali, l’interazione mediata dall’intelligenza artificiale può sia alleviare che esacerbare la solitudine. I sistemi conversazionali offrono compagnia e supporto ad alcuni utenti, ma un’eccessiva dipendenza rischia di causare isolamento sociale e la sostituzione delle relazioni umane.
I risultati sulla salute mentale dipendono quindi in larga misura dai modelli di utilizzo, dalla vulnerabilità individuale e dalle tutele istituzionali.
5.7 Apprendimento, memoria e formazione della conoscenza
L’intelligenza artificiale altera radicalmente il modo in cui la conoscenza viene acquisita, immagazzinata e richiamata. Con l’accesso immediato alle informazioni sintetizzate, la memoria esterna sostituisce sempre più quella interna. Se da un lato questo può liberare risorse cognitive, dall’altro ne indebolisce la ritenzione a lungo termine e l’integrazione concettuale.
La psicologia dell’educazione distingue tra:
- Prestazioni con assistenza , e
- Competenza indipendente .
L’intelligenza artificiale migliora notevolmente il primo aspetto, ma non garantisce il secondo. Senza una progettazione didattica mirata, gli studenti potrebbero dimostrare un’elevata qualità dei risultati senza una corrispondente comprensione.
Le implicazioni sociali a lungo termine includono:
- Conoscenza di base ridotta,
- Maggiore dipendenza da sistemi esterni per il ragionamento,
- Stratificazione tra coloro che comprendono i principi fondamentali e coloro che non li comprendono.
Ciò solleva interrogativi normativi su ciò che le società considerano intelligenza: la comprensione interiorizzata o l’uso efficace del sistema.
5.8 Cognizione collettiva e fiducia epistemica
L’intelligenza artificiale rimodella non solo la cognizione individuale, ma anche l’ architettura cognitiva collettiva delle società , ovvero i processi attraverso i quali la conoscenza viene prodotta, convalidata, diffusa e ritenuta attendibile su larga scala. Le società moderne si basano su complessi ecosistemi epistemici composti da esperti, istituzioni, media, sistemi educativi e norme procedurali che determinano collettivamente cosa si intende per conoscenza credibile. L’intelligenza artificiale, in particolare i modelli linguistici generativi e di grandi dimensioni, interviene direttamente in questo ecosistema alterando il costo, la velocità e l’apparente autorità della produzione di conoscenza .
I sistemi di intelligenza artificiale generativa sintetizzano informazioni provenienti da vasti corpora, producendo output che assomigliano al discorso di un esperto per tono, struttura e sicurezza retorica. Questa capacità annulla le consolidate distinzioni epistemiche tra analisi originale, giudizio di esperti, sintesi editoriale e ricombinazione automatizzata. Per l’utente finale, soprattutto al di fuori di ambiti specialistici, le caratteristiche superficiali della credibilità – fluidità, coerenza, riferimenti citabili – diventano sempre più disgiunte dall’affidabilità epistemica sottostante.
Questo disaccoppiamento ha implicazioni profonde. Storicamente, la fiducia epistemica era mediata da segnali istituzionali: credenziali professionali, revisione paritaria, supervisione editoriale e responsabilità reputazionale. I contenuti generati dall’intelligenza artificiale aggirano molti di questi filtri, imitandone al contempo i risultati. Di conseguenza, i cittadini si imbattono in un volume crescente di informazioni che non sono né chiaramente autorevoli né chiaramente errate, ma epistemicamente ambigue .
In un simile contesto, la domanda “Chi ha prodotto questo?” diventa importante quanto “È corretto?”. Eppure, i sistemi di intelligenza artificiale oscurano la provenienza. Quando gli output sono generati in modo probabilistico anziché intenzionalmente, i modelli tradizionali di responsabilità e competenza vacillano. Questa erosione della provenienza epistemica mina la fiducia non solo negli output dell’intelligenza artificiale, ma anche nelle istituzioni umane , poiché i cittadini faticano a distinguere la voce istituzionale dalla mediazione algoritmica.
Le conseguenze sono cumulative. Quando il consenso degli esperti appare indistinguibile dalla sintesi algoritmica, la fiducia nella competenza si indebolisce. Ciò non produce necessariamente un rifiuto totale della conoscenza, ma piuttosto una stanchezza epistemica , ovvero un ritiro dallo sforzo di valutare le affermazioni. La ricerca empirica sul sovraccarico informativo e sulla scarsità cognitiva suggerisce che, in tali condizioni, gli individui fanno sempre più affidamento su indizi identitari, risonanza emotiva o affiliazione di gruppo piuttosto che sulle prove. L’intelligenza artificiale, accelerando la produzione di informazioni, intensifica questa dinamica.
La polarizzazione è un effetto a valle. I sistemi generativi possono produrre narrazioni internamente coerenti ma reciprocamente incompatibili su larga scala, rafforzando il bias di conferma. Il pensiero cospirazionista prospera in ambienti epistemicamente instabili perché offre spiegazioni semplificate e ripristina un senso di ordine nascosto. È importante sottolineare che l’intelligenza artificiale non crea queste tendenze, ma ne riduce i costi di mantenimento , consentendo un rinforzo continuo attraverso contenuti personalizzati.
Le istituzioni pubbliche si trovano quindi ad affrontare una sfida di governance psicologica che va oltre il controllo della disinformazione. La sfida è preservare la legittimità epistemica , ovvero la convinzione che le istituzioni sappiano cosa stanno facendo, che le loro affermazioni conoscitive siano fondate e che le loro decisioni siano basate su un ragionamento responsabile. In un ambiente saturo di intelligenza artificiale, la legittimità non può basarsi esclusivamente sull’autorità; deve essere attivamente mantenuta attraverso trasparenza, chiarezza procedurale e umiltà epistemica.
Contromisure concrete includono la divulgazione esplicita dell’uso dell’IA nelle comunicazioni pubbliche, l’autenticazione crittografica o procedurale dei contenuti ufficiali e una chiara distinzione tra giudizio umano e assistenza algoritmica. Altrettanto importante è l’educazione pubblica che fornisca ai cittadini gli strumenti per comprendere l’IA come uno strumento con limiti, piuttosto che come un oracolo. Senza tali misure, la fiducia epistemica si erode non perché i cittadini diventino irrazionali, ma perché l’ambiente cognitivo diventa ingestibile .
5.9 Disuguaglianza nei risultati cognitivi
Gli effetti psicologici e cognitivi dell’IA sono distribuiti in modo disomogeneo , generando un nuovo e sottovalutato asse di disuguaglianza. Mentre gran parte del dibattito politico si concentra sull’accesso agli strumenti di IA, il divario più significativo risiede nel modo in cui gli individui interagiscono cognitivamente con tali strumenti . L’IA amplifica le differenze esistenti in termini di metacognizione, background educativo, supporto istituzionale e capitale sociale.
Gli individui con forti capacità metacognitive – coloro che sanno riflettere sul proprio pensiero, valutare le fonti e riconoscere l’incertezza – tendono a utilizzare l’IA come amplificatore cognitivo . Interrogano i risultati, verificano le informazioni e integrano l’assistenza dell’IA in processi di ragionamento più ampi. Per questi utenti, l’IA aumenta la produttività e l’apprendimento senza sostituire il giudizio.
Al contrario, gli individui con basi metacognitive più deboli sono più propensi a considerare i risultati dell’IA come risposte autorevoli piuttosto che come suggerimenti probabilistici. In questi casi, l’IA diventa un sostituto cognitivo piuttosto che un supporto. Questa sostituzione può portare a errori di apprendimento, eccesso di sicurezza e dipendenza, soprattutto quando gli errori sono sottili piuttosto che evidenti. Nel tempo, l’affidamento all’IA per i compiti di ragionamento può ridurre le opportunità di praticare il pensiero critico, indebolendo ulteriormente la resilienza cognitiva.
Il contesto educativo e istituzionale gioca un ruolo decisivo. Gli studenti che lavorano in contesti ben forniti di risorse hanno maggiori probabilità di ricevere indicazioni sull’uso appropriato dell’IA, compresi i suoi limiti. I lavoratori in professioni ad alta autonomia possono integrare l’IA in modo selettivo, mentre coloro che lavorano in ambienti strettamente monitorati possono essere costretti a seguire le raccomandazioni dell’IA senza alcuna discrezionalità. Pertanto, la disuguaglianza cognitiva si riflette sulle gerarchie di potere e autonomia esistenti .
Questa dinamica produce una stratificazione non solo dei risultati, ma anche dell’agenzia cognitiva . Alcuni individui mantengono la capacità di mettere in discussione, reinterpretare e resistere alle decisioni mediate dall’intelligenza artificiale; altri percepiscono tali decisioni come vincoli esterni. Il risultato è un divario crescente nella fiducia in se stessi, nella capacità di ragionamento e nel controllo percepito sul proprio ambiente.
A livello sociale, questa disuguaglianza ha effetti di feedback. I gruppi con maggiore resilienza cognitiva plasmano il discorso, le politiche e l’innovazione, mentre altri si disimpegnano o diventano suscettibili alla manipolazione. Il rischio è l’emergere di una società cognitiva a due livelli : un segmento potenziato dall’intelligenza artificiale, un altro gestito da essa.
In assenza di interventi, è probabile che l’adozione dell’IA rafforzi la stratificazione sociale esistente , non perché la tecnologia sia intrinsecamente elitaria, ma perché la resilienza cognitiva è essa stessa distribuita in modo non uniforme e prodotta istituzionalmente. Per affrontare questo problema, sono necessarie politiche che vadano oltre l’accesso, concentrandosi invece sull’istruzione, l’empowerment e la salvaguardia del giudizio umano nei sistemi mediati dall’IA.
5.10 Sintesi: Condizioni psicologiche per un’integrazione benefica dell’IA
Le prove cumulative a livello individuale e collettivo indicano che l’IA migliora la cognizione umana solo in specifiche condizioni psicologiche e istituzionali . Queste condizioni non sono casuali; devono essere progettate e mantenute attivamente.
In primo luogo, gli utenti devono mantenere un ruolo attivo nel giudizio e nel processo decisionale . I sistemi di intelligenza artificiale che presentano i risultati come risposte definitive scoraggiano la riflessione, mentre i sistemi che espongono fasi di ragionamento, alternative e incertezze invitano al coinvolgimento. Le scelte progettuali, quindi, modellano l’atteggiamento cognitivo.
In secondo luogo, i sistemi devono rendere visibile l’incertezza . La fiducia senza calibrazione è corrosiva a livello cognitivo. Quando l’IA comunica fiducia probabilistica, limiti e potenziali errori, gli utenti sono più propensi a mantenere una distanza critica e un atteggiamento di umiltà epistemica.
In terzo luogo, le istituzioni devono dare più valore all’apprendimento e al ragionamento rispetto alla sola velocità . Le culture organizzative che premiano la rapidità di esecuzione e la conformità incentivano lo scarico cognitivo, mentre le culture che premiano la spiegazione, la giustificazione e la riflessione preservano l’agire umano.
In quarto luogo, le misure di salvaguardia devono limitare la sorveglianza e l’uso coercitivo dell’IA. Il benessere psicologico dipende dall’autonomia percepita. Quando l’IA viene vissuta come uno strumento di monitoraggio e controllo, aumentano stress e disimpegno, minando sia le prestazioni che la fiducia.
In quinto luogo, i sistemi educativi devono insegnare esplicitamente l’alfabetizzazione e la metacognizione in materia di IA . Ciò include la comprensione del funzionamento dei sistemi di IA, dei loro punti deboli e di come integrarli in modo responsabile. Senza tale formazione, gli utenti non possono sviluppare strategie cognitive stabili per l’interazione con l’IA.
Quando queste condizioni sono soddisfatte, l’IA funziona come un’impalcatura cognitiva , estendendo le capacità umane preservando al contempo il giudizio. Quando queste condizioni sono assenti, l’IA rischia di diventare una protesi cognitiva che sostituisce, anziché rafforzare, il ragionamento umano, producendo dipendenza, erosione delle competenze e perdita di capacità di azione.
5.11 Transizione
Le dinamiche psicologiche esaminate in questo capitolo non si limitano all’esperienza individuale. Quando milioni di individui adattano il loro pensiero, la loro attenzione e il loro processo decisionale in risposta ai sistemi di intelligenza artificiale, questi cambiamenti a livello micro si aggregano in trasformazioni strutturali nei mercati del lavoro, nelle gerarchie organizzative e nel potere economico.
La fase successiva dell’analisi si sposta quindi dalla cognizione al lavoro e alla produzione , esaminando come i cambiamenti indotti dall’intelligenza artificiale nel ragionamento, nell’autonomia e nell’espressione delle competenze rimodellino i mercati del lavoro, la produttività e l’assetto istituzionale. In questa transizione, gli effetti psicologici diventano forze economiche e l’adattamento cognitivo individuale diventa un fattore determinante per i risultati sociali collettivi.
6. Mercati del lavoro, competenze e produttività nell’era dell’intelligenza artificiale
L’interazione tra intelligenza artificiale e mercato del lavoro costituisce una delle dimensioni strutturalmente più significative della transizione tecnologica contemporanea. A differenza delle precedenti ondate di automazione che si concentravano principalmente sul lavoro manuale o fisico di routine, l’IA interviene direttamente nella produzione cognitiva , nel giudizio professionale, nel coordinamento e nel lavoro ad alta intensità di conoscenza. Di conseguenza, i suoi effetti si manifestano non solo attraverso la sostituzione o la creazione di posti di lavoro, ma anche attraverso la ricomposizione dei compiti, la rivalutazione delle competenze, la ristrutturazione organizzativa e la ridistribuzione della produttività . Per comprendere queste dinamiche è necessario abbandonare dicotomie semplicistiche – automazione contro occupazione, sostituzione contro potenziamento – ed esaminare invece come l’IA rimodella l’architettura interna del lavoro.
Questo capitolo fornisce un’analisi dettagliata e multistrato di come l’intelligenza artificiale influenzi i mercati del lavoro, le competenze e la produttività in tutti i settori e le regioni. Integra teoria economica, evidenze empiriche, analisi organizzativa e contesto istituzionale per spiegare perché i risultati variano notevolmente e perché le scelte di governance sono decisive.
6.1 I mercati del lavoro come sistemi di mansioni piuttosto che come categorie di lavoro
Un cambiamento analitico fondamentale nell’economia del lavoro contemporanea è il passaggio dalla visione dei mercati del lavoro come insiemi di lavori alla loro comprensione come insiemi di compiti . L’intelligenza artificiale non sostituisce completamente le professioni; automatizza, amplia o riorganizza compiti specifici all’interno delle professioni. Questa distinzione è fondamentale perché la maggior parte dei lavori consiste in attività eterogenee, solo alcune delle quali sono suscettibili di automazione.
Le analisi empiriche a livello di attività dimostrano costantemente che l’intelligenza artificiale è più efficace nell’automazione di:
- Compiti cognitivi di routine (inserimento dati, classificazione, trascrizione),
- Riconoscimento di modelli in condizioni stabili,
- Processo decisionale standardizzato basato su criteri formali.
Al contrario, i compiti che comportano:
- Giudizio contestuale,
- Ragionamento etico,
- Interazione sociale,
- Coordinamento complesso in condizioni di incertezza,
rimangono molto meno inclini alla piena automazione. L’impatto dell’IA sul mercato del lavoro si manifesta quindi come spostamento di compiti all’interno delle mansioni , seguito dalla riassegnazione di compiti a esseri umani (attività di maggior valore) o a ruoli di nuova creazione (supervisione, integrazione, governance).
Questo processo spiega perché non si sono verificati grandi shock occupazionali nonostante la rapida diffusione dell’intelligenza artificiale, mentre l’intensità del lavoro, i requisiti di competenze e la composizione dei ruoli sono cambiati in modo significativo .
6.2 Rivisitazione del cambiamento tecnico basato sulle competenze e sulla routine
I modelli tradizionali di cambiamento tecnico basato sulle competenze (SBTC) postulavano che le nuove tecnologie aumentassero la domanda di manodopera altamente qualificata, riducendo al contempo quella di manodopera poco qualificata. L’intelligenza artificiale complica questo quadro. Sebbene aumenti chiaramente i rendimenti di alcune competenze di alto livello, invade anche compiti precedentemente associati a professioni di livello medio e alto , come la redazione di documenti legali, la scrittura di codice o l’esecuzione di analisi mediche preliminari.
Ciò ha portato a un modello raffinato, spesso descritto come automazione cognitiva basata sulla routine . In questo modello:
- Le competenze non vengono spostate solo in base al livello di istruzione,
- I compiti vengono spostati in base alla routine e alla codificabilità,
- Anche i lavoratori altamente qualificati si trovano ad affrontare la pressione dell’automazione se i loro compiti sono standardizzati.
Di conseguenza, il mercato del lavoro sperimenta una polarizzazione , ma con una dimensione cognitiva. La domanda aumenta per:
- Ruoli altamente adattabili e integrativi che combinano competenze di settore con la supervisione dell’IA,
- Ruoli di servizio personale a bassa automazione che richiedono presenza e interazione umana.
Allo stesso tempo, i ruoli incentrati sulla produzione cognitiva standardizzata subiscono pressioni salariali al ribasso o ristrutturazioni. Questa dinamica aiuta a spiegare perché la dispersione salariale aumenta anche in periodi di occupazione aggregata stabile.
6.3 Trasformazione occupazionale e l’emergere di ruoli ibridi
Uno degli effetti più sottovalutati dell’IA è l’emergere di professioni ibride che combinano competenze professionali tradizionali con l’interazione, la supervisione e la convalida dell’IA. Alcuni esempi includono:
- Analisti potenziati dall’intelligenza artificiale,
- Supervisori del supporto alle decisioni cliniche,
- Responsabili della conformità algoritmica,
- Ingegneri e integratori di flussi di lavoro rapidi.
Questi ruoli non rappresentano professioni completamente nuove, ma piuttosto riconfigurazioni di quelle esistenti . Richiedono ai lavoratori di comprendere sia i contenuti del dominio sia i limiti dei sistemi di intelligenza artificiale, tra cui pregiudizi, incertezza e modalità di errore.
Fondamentalmente, questi ruoli ibridi tendono a essere meglio retribuiti e più resilienti all’automazione, rafforzando la disuguaglianza tra i lavoratori che possono ricoprirli e quelli che non possono. L’accesso alla formazione, al supporto istituzionale e alla capacità di apprendimento organizzativo diventa quindi un fattore decisivo per i risultati del mercato del lavoro.
6.4 Ristrutturazione organizzativa e ridistribuzione dell’autorità
L’adozione dell’intelligenza artificiale rimodella non solo i compiti, ma anche le strutture di potere organizzative . L’autorità decisionale spesso si sposta verso l’alto o verso l’esterno:
- Verso l’alto, man mano che il senior management acquisisce visibilità in tempo reale attraverso dashboard e analisi basate sull’intelligenza artificiale;
- Verso l’esterno, poiché i fornitori e i fornitori di modelli influenzano i flussi di lavoro attraverso sistemi incorporati.
I ruoli di middle management sono particolarmente colpiti. Compiti come reporting, coordinamento e monitoraggio, storicamente svolti da manager di medio livello, sono sempre più automatizzati. Questo porta a:
- Strati di gestione più sottili,
- Aumento degli ambiti di controllo,
- Maggiore affidamento su metriche e segnali algoritmici.
Dal punto di vista del lavoro, questa ristrutturazione può aumentare la produttività, ma anche ridurre la voce e la discrezionalità organizzativa . I lavoratori sperimentano una misurazione più rigorosa delle prestazioni, cicli di feedback più rapidi e una minore tolleranza alle deviazioni, contribuendo allo stress e alla percezione di una perdita di autonomia.
6.5 Produttività: guadagni a livello aziendale e ambiguità aggregata
A livello aziendale, l’evidenza dimostra costantemente che l’adozione dell’intelligenza artificiale può generare significativi guadagni di produttività , in particolare nei settori ad alta intensità di conoscenza. Gli effetti misurati includono:
- Generazione di output più rapida,
- Riduzione dei tassi di errore nelle attività standardizzate,
- Cicli di innovazione più brevi.
Tuttavia, questi guadagni sono molto disomogenei . Le aziende che investono in risorse complementari – formazione, riprogettazione del flusso di lavoro, governance dei dati – ottengono vantaggi sostanziali. Le aziende che adottano l’IA in modo superficiale spesso registrano rendimenti limitati o negativi a causa dei costi di integrazione e degli attriti organizzativi.
A livello macroeconomico, gli incrementi di produttività aggregata rimangono modesti. Questo apparente paradosso riflette diversi fattori:
- Lenta diffusione oltre le imprese di frontiera,
- Sfide di misurazione nei settori dei servizi,
- Costi di riallocazione e inefficienze transitorie.
Storicamente, tali ritardi sono comuni nelle tecnologie di uso generale. Tuttavia, il rischio è che i guadagni di produttività vadano principalmente a vantaggio dei detentori di capitale e dei lavoratori altamente qualificati , mentre i salari ristagnano per gli altri, indebolendo il legame tra produttività e prosperità generalizzata.
6.6 Dinamica salariale e distribuzione del reddito
L’intelligenza artificiale influenza i salari attraverso molteplici canali:
- Aumentare la produttività e il surplus in alcuni ruoli,
- Aumentare la concorrenza e la sostituibilità negli altri,
- Spostare il potere contrattuale verso i datori di lavoro e i proprietari delle piattaforme.
I dati empirici indicano che i lavoratori le cui mansioni sono altamente esposte all’intelligenza artificiale devono affrontare:
- Crescita salariale più lenta,
- Maggiore volatilità del reddito,
- Maggiore pressione per migliorare le proprie competenze o effettuare una transizione.
Al contrario, i lavoratori che ricoprono ruoli complementari subiscono maggiori differenziali salariali. Questa divergenza contribuisce alla disuguaglianza all’interno della stessa professione , non solo tra le professioni.
Inoltre, il monitoraggio e l’analisi delle prestazioni basati sull’intelligenza artificiale possono indebolire la contrattazione collettiva, individualizzando la valutazione e la retribuzione. Senza istituzioni di compensazione, questa dinamica rischia di erodere le tutele del lavoro anche nelle economie ad alto reddito.
6.7 Livelli di occupazione, creazione di posti di lavoro e dinamiche di transizione
Nonostante la persistente ansia pubblica e le narrazioni mediatiche che prevedono una disoccupazione tecnologica su larga scala, le prove empiriche fino al 2024-2025 non supportano l’affermazione che l’intelligenza artificiale abbia causato una massiccia distruzione di posti di lavoro a livello aggregato. Nelle economie dell’OCSE, i tassi di occupazione totali sono rimasti storicamente elevati, anche nei settori con una significativa esposizione all’IA. Al contrario, l’effetto dominante dell’IA sul mercato del lavoro è stata la riallocazione , non l’eliminazione.
Questa riallocazione avviene lungo tre dimensioni simultanee: sostituzione di mansioni , trasformazione del lavoro e creazione di posti di lavoro , spesso all’interno delle stesse aziende e settori. Ad esempio, in ambito finanziario, i sistemi di intelligenza artificiale automatizzano la revisione dei documenti, il rilevamento delle frodi e i controlli di conformità, aumentando al contempo la domanda di analisti del rischio, supervisori di modelli, specialisti normativi e ruoli di consulenza a contatto con i clienti. L’occupazione netta potrebbe rimanere stabile, ma la composizione del lavoro cambia sostanzialmente.
I dati longitudinali sulla forza lavoro dei paesi OCSE mostrano che le occupazioni con un’elevata esposizione a compiti di intelligenza artificiale non si riducono in modo uniforme. Al contrario, subiscono una ristrutturazione interna delle mansioni , con un calo delle mansioni di routine di minore valore e un aumento di quelle di coordinamento, interpretazione e supervisione di maggiore valore. Questo spiega perché la sostituzione appare localizzata e graduale, piuttosto che improvvisa e generalizzata.
La variabile decisiva è la capacità di transizione , ovvero la capacità dei lavoratori e delle istituzioni di assorbire e riallocare il lavoro in modo efficiente. La capacità di transizione non è un attributo tecnologico, ma istituzionale. Dipende da diversi meccanismi interconnessi.
In primo luogo, la velocità del reinserimento lavorativo è più importante dell’incidenza del licenziamento. Studi empirici condotti in paesi con forti politiche attive del mercato del lavoro (ad esempio Danimarca, Germania, Paesi Bassi) mostrano che i lavoratori licenziati dall’automazione in genere rientrano nel mondo del lavoro entro 6-12 mesi, spesso in professioni adiacenti. Al contrario, nei paesi con sistemi di riqualificazione e collocamento deboli, il licenziamento si traduce in una prolungata sottoccupazione o nell’uscita dal mercato del lavoro formale.
In secondo luogo, l’allineamento tra i sistemi di formazione e la domanda emergente di competenze è fondamentale. Laddove i sistemi di istruzione professionale, apprendistato e apprendimento per adulti siano modulari, reattivi e vincolati ai datori di lavoro, le transizioni risultano più fluide. Laddove i sistemi di formazione siano rigidi, sottofinanziati o disconnessi dai segnali del mercato del lavoro, i lavoratori si trovano ad affrontare disallineamenti tra domanda e offerta di competenze, anche in presenza di un aumento dei posti vacanti.
In terzo luogo, il sostegno al reddito durante i periodi di transizione influenza il comportamento. Un’adeguata assicurazione contro la disoccupazione e un’assicurazione salariale consentono ai lavoratori di investire tempo nella riqualificazione e nella ricerca di un lavoro, anziché accettare il primo impiego disponibile di bassa qualità. Laddove il sostegno al reddito è debole, i lavoratori sono spinti verso impieghi informali, precari o non corrispondenti alle esigenze della domanda, con conseguente riduzione della produttività e dei guadagni a lungo termine.
L’evidenza empirica dell’ILO mostra che nelle economie a basso e medio reddito, l’adozione dell’IA tende ad aumentare l’informalizzazione piuttosto che la disoccupazione . I lavoratori che abbandonano i lavori formali di routine spesso si spostano verso servizi informali, lavori saltuari o lavoro autonomo, dove produttività e reddito sono inferiori e le tutele minime. Ciò rafforza la conclusione che l’IA non distrugge il lavoro di per sé; mette invece in luce le debolezze istituzionali nella gestione della transizione .
Pertanto, i risultati occupazionali sono meglio compresi non come una funzione diretta delle capacità dell’IA, ma come il prodotto del cambiamento tecnologico filtrato attraverso le istituzioni del mercato del lavoro . Dove queste istituzioni sono forti, la riallocazione indotta dall’IA viene assorbita. Dove sono deboli, la riallocazione diventa precaria.
6.8 Competenze: dalla competenza tecnica alle meta-competenze
L’intelligenza artificiale trasforma non solo le competenze preziose, ma anche la struttura stessa della domanda di competenze . I modelli tradizionali del capitale umano presupponevano competenze relativamente stabili con lunghi cicli di ammortamento. L’intelligenza artificiale sconvolge questo presupposto. Le competenze tecniche – linguaggi di programmazione, strumenti software, piattaforme specifiche – ora si deprezzano rapidamente con l’evoluzione di modelli e interfacce.
Le prove a livello aziendale indicano che le competenze specifiche per uno strumento possono perdere valore entro 2-3 anni, rispetto ai decenni delle competenze tecniche tradizionali. Di conseguenza, il vantaggio duraturo si sposta verso le meta-competenze , ovvero capacità che governano il modo in cui gli individui apprendono, si adattano e ragionano, piuttosto che ciò che sanno in un dato momento.
Tra queste meta-abilità, alcune spiccano empiricamente.
Imparare a imparare diventa fondamentale. I lavoratori in grado di acquisire autonomamente nuove competenze, interpretare la documentazione e sperimentare strumenti non familiari si adattano più efficacemente al cambiamento guidato dall’intelligenza artificiale. I dati PIAAC dell’OCSE mostrano forti correlazioni tra i punteggi di problem-solving in ambienti tecnologicamente avanzati e la resilienza salariale nelle professioni ad alta automazione.
La valutazione critica dei risultati è sempre più preziosa. I sistemi di intelligenza artificiale generano risultati plausibili ma fallibili. I lavoratori in grado di individuare errori, mettere in discussione le ipotesi e verificare le informazioni riducono il rischio operativo e hanno maggiori probabilità di essere trattenuti e promossi. Al contrario, un affidamento acritico sui risultati dell’intelligenza artificiale porta a volatilità delle prestazioni e a mancate responsabilità.
Il ragionamento interdisciplinare acquisisce importanza man mano che l’intelligenza artificiale riduce i costi di accesso alle informazioni, ma non quelli di integrazione. I ruoli che richiedono la sintesi di considerazioni legali, tecniche, etiche e organizzative si espandono, mentre i ruoli di routine strettamente specializzati si riducono.
Il giudizio etico e contestuale diventa economicamente rilevante, non solo normativamente auspicabile. Poiché i sistemi di intelligenza artificiale operano in ambiti socialmente sensibili, aziende e istituzioni affrontano rischi reputazionali, legali e politici. I lavoratori in grado di anticipare le conseguenze sociali e di esercitare discrezionalità sono quindi complementari, non sostitutivi, dell’intelligenza artificiale.
Le capacità di comunicazione e coordinamento aumentano di valore man mano che il lavoro diventa più interdisciplinare e distribuito. L’intelligenza artificiale gestisce l’elaborazione delle informazioni; gli esseri umani si occupano sempre più di allineamento, spiegazione, negoziazione e creazione di fiducia.
I sistemi educativi e i programmi di formazione aziendale spesso restano indietro rispetto a questi cambiamenti. Molti si concentrano sulla competenza nell’uso degli strumenti (come utilizzare uno specifico sistema di intelligenza artificiale) piuttosto che sulla strategia cognitiva (come lavorare con l’intelligenza artificiale in diversi contesti). Questo produce un paradosso: automazione simultanea delle attività e carenza di personale adeguatamente qualificato.
Fondamentalmente, la competenza in materia di intelligenza artificiale diventa una competenza civica ed economica di base , non specialistica. I lavoratori che non comprendono il funzionamento dei sistemi di intelligenza artificiale – come vengono addestrati, dove falliscono, come vengono valutati – sono svantaggiati nelle trattative salariali, nelle valutazioni delle prestazioni e nelle controversie. Non possono contestare efficacemente le decisioni mediate dall’intelligenza artificiale o esprimere il proprio valore rispetto all’automazione.
6.9 Piattaformizzazione, precarietà e gestione algoritmica
L’intelligenza artificiale accelera la piattaformalizzazione del lavoro , estendendo logiche precedentemente confinate al ride-hailing e alla consegna a domicilio, al lavoro professionale, creativo e della conoscenza. La piattaformalizzazione è resa possibile dalla capacità dell’intelligenza artificiale di scomporre il lavoro in micro-attività, allocarle dinamicamente e monitorarne le prestazioni in tempo reale.
Nei mercati del lavoro mediati dalle piattaforme, gli algoritmi:
- Assegnare attività in base alla disponibilità e alle metriche delle prestazioni,
- Stabilire prezzi o salari in modo dinamico,
- Valutare continuamente i risultati e il comportamento,
- Attiva automaticamente sanzioni, disattivazioni o promozioni.
Questo modello offre efficienza e flessibilità su larga scala, ma riconfigura anche rischio e potere . Il rischio economico – volatilità della domanda, instabilità del reddito, tempi di inattività – viene trasferito dalle aziende ai lavoratori. I criteri decisionali sono opachi, incorporati in algoritmi proprietari che i lavoratori non possono ispezionare o contestare. I meccanismi tradizionali di espressione e rappresentanza risultano indeboliti.
La gestione algoritmica riduce la discrezionalità manageriale umana, ma non elimina la gestione; sostituisce il giudizio umano con regole codificate . La responsabilità diventa diffusa. Quando un lavoratore viene penalizzato o escluso, la responsabilità viene attribuita al “sistema”, creando un vuoto di governance.
Studi empirici documentano un elevato livello di stress, una ridotta soddisfazione lavorativa e un senso di disumanizzazione tra i lavoratori sottoposti a gestione algoritmica, anche quando i guadagni sono paragonabili a quelli di un impiego tradizionale. L’impatto psicologico non è casuale; si ripercuote sulla produttività, sul turnover e sulla fiducia sociale.
Senza un intervento normativo, la piattaformezzazione tende a una corsa al ribasso delle condizioni di lavoro , in particolare nei settori con eccedenza di manodopera. Laddove il diritto del lavoro non estende le tutele ai lavoratori delle piattaforme, la precarietà si espande, anche se i dati sull’occupazione rimangono stabili.
6.10 Divergenza regionale nei risultati del mercato del lavoro
L’impatto dell’intelligenza artificiale sul mercato del lavoro varia notevolmente da regione a regione a causa delle differenze nella forza istituzionale, nella struttura demografica e nella composizione economica.
Nelle economie avanzate con solide istituzioni del lavoro, l’adozione dell’intelligenza artificiale produce una trasformazione graduale . I livelli di occupazione rimangono elevati, ma la disuguaglianza aumenta poiché i lavoratori altamente qualificati ottengono guadagni mentre altri ristagnano. I costi di adeguamento sono reali ma gestibili.
Nelle economie emergenti e in via di sviluppo, l’intelligenza artificiale presenta una duplice sfida. Da un lato, l’automazione minaccia i lavori di routine nei servizi, negli uffici e in outsourcing che in precedenza garantivano una maggiore mobilità sociale. Dall’altro, l’accesso limitato a capitali, formazione e infrastrutture di intelligenza artificiale limita l’accesso a ruoli di maggior valore.
Allo stesso tempo, l’intelligenza artificiale può generare guadagni di produttività in contesti caratterizzati da carenza di manodopera, infrastrutture deboli o servizi limitati. In agricoltura, sanità e pubblica amministrazione, l’intelligenza artificiale può estendere la propria portata e ridurre i costi. Se questi guadagni si traducano in un miglioramento dei mezzi di sussistenza dipende dalla progettazione delle politiche , non solo dalla loro adozione.
6.11 Produttività, potere e distribuzione dei guadagni
L’intelligenza artificiale rilancia una domanda classica dell’economia politica: chi si occupa degli incrementi di produttività? I dati a livello aziendale mostrano miglioramenti sostanziali della produttività grazie all’adozione dell’intelligenza artificiale, ma la crescita salariale a livello macroeconomico rimane debole in molte economie.
La ragione risiede nelle asimmetrie di potere . Il controllo sull’infrastruttura di intelligenza artificiale, sui dati e sulla proprietà intellettuale conferisce potere contrattuale. Le aziende che ottengono vantaggi iniziali si appropriano delle rendite, mentre i lavoratori devono affrontare una concorrenza e un monitoraggio più intensi.
L’evidenza storica – dalla meccanizzazione, all’elettrificazione e alle ICT – dimostra che la crescita della produttività non si traduce automaticamente in una prosperità generalizzata. Le istituzioni determinano la distribuzione. Dove sindacati, politiche di concorrenza e assicurazioni sociali sono forti, i guadagni vengono condivisi. Dove sono deboli, il capitale cattura rendimenti sproporzionati.
In assenza di intervento, l’intelligenza artificiale rischia di rafforzare il predominio del capitale e di erodere la quota di reddito del lavoro, nonostante l’aumento della produzione totale.
6.12 Sintesi: Condizioni per una trasformazione inclusiva del mercato del lavoro
Le prove accumulate nei diversi paesi, settori e orizzonti temporali portano a una conclusione chiara: l’intelligenza artificiale può aumentare la produttività e creare lavoro significativo, ma solo in determinate condizioni istituzionali .
Tra questi rientrano la riqualificazione continua e il supporto alla transizione, la partecipazione dei lavoratori alle decisioni sull’implementazione dell’intelligenza artificiale, limiti applicabili al monitoraggio intrusivo, politiche efficaci in materia di concorrenza e antitrust e solide reti di sicurezza sociale che attenuano il rischio.
Laddove queste condizioni si verifichino, l’IA diventa uno strumento di accrescimento e di prosperità condivisa. In caso contrario, accelera la polarizzazione, la precarietà e la concentrazione del potere economico.
Il futuro del mercato del lavoro sotto l’intelligenza artificiale non è quindi predeterminato dalla tecnologia. È scelto, implicitamente o esplicitamente, attraverso politiche, governance e progettazione istituzionale .
7. Sistemi educativi, capitale umano e formazione di capacità a lungo termine nell’era dell’intelligenza artificiale
La trasformazione dei sistemi educativi sotto l’influenza dell’intelligenza artificiale costituisce una delle dimensioni più significative e condizionanti della transizione verso l’IA. A differenza dei mercati del lavoro, dove gli adulti possono compensare parzialmente la disruption tecnologica attraverso la mobilità, la negoziazione o l’esperienza, l’istruzione plasma le future dotazioni di capacità in modi cumulativi, irregolarmente reversibili e profondamente intrecciati con la stratificazione sociale. Le decisioni prese in materia di politiche e pratiche educative durante gli anni ’20 determineranno quindi non solo l’efficacia con cui le società utilizzano l’IA, ma anche chi manterrà capacità di azione, autonomia e resilienza cognitiva in un mondo saturo di IA .
L’intelligenza artificiale influenza l’istruzione simultaneamente a livello pedagogico, di valutazione, di organizzazione istituzionale, di norme epistemiche e di significato sociale dell’apprendimento . Il suo impatto non può essere inteso come l’introduzione di un singolo strumento o piattaforma; piuttosto, l’IA funziona come una meta-tecnologia che riorganizza il modo in cui la conoscenza viene prodotta, trasmessa, valutata e interiorizzata. Questo capitolo esamina queste trasformazioni in profondità, enfatizzando la formazione del capitale umano a lungo termine piuttosto che le metriche di performance a breve termine.
A livello più fondamentale, i sistemi educativi svolgono tre funzioni interconnesse: la trasmissione della conoscenza, lo sviluppo delle competenze cognitive e sociali e l’allocazione sociale delle opportunità. L’IA interviene in tutte e tre. Amplia l’accesso alle informazioni modificando gli incentivi a interiorizzarle; accelera l’acquisizione di competenze, indebolendo potenzialmente la comprensione profonda; e rimodella i meccanismi di certificazione e selezione che governano le opportunità di vita. La questione centrale non è quindi se l’IA possa migliorare i risultati educativi in contesti isolati – i dati suggeriscono di sì – ma se la sua integrazione rafforzi o eroda le fondamenta delle capacità umane da cui dipendono società democratiche, innovative e resilienti.
Uno degli impatti più visibili dell’IA nell’istruzione è l’introduzione di sistemi di apprendimento adattivi e personalizzati . Questi sistemi adattano contenuti, ritmo e feedback in risposta alle prestazioni degli studenti, spesso utilizzando modelli di apprendimento automatico addestrati su ampi set di dati sul comportamento degli studenti. In linea di principio, tale personalizzazione affronta un limite di lunga data dell’istruzione di massa: la necessità di insegnare a studenti eterogenei utilizzando curricula e tempi standardizzati. Studi empirici indicano che sistemi adattivi ben progettati possono migliorare l’efficienza dell’apprendimento a breve termine, in particolare in materie fondamentali come matematica, alfabetizzazione e acquisizione del linguaggio.
Tuttavia, la personalizzazione introduce compromessi complessi. L’apprendimento non è solo un processo cognitivo individuale, ma anche sociale e di sviluppo. Un’eccessiva personalizzazione rischia di frammentare i curricula condivisi, indebolire i punti di riferimento collettivi e ridurre l’esposizione a prospettive diverse. Inoltre, i sistemi adattivi ottimizzano per risultati misurabili – risposte corrette, tassi di completamento, punteggi dei test – che potrebbero non cogliere appieno lo sviluppo cognitivo di ordine superiore come l’astrazione, il trasferimento e il ragionamento critico. Quando gli obiettivi di ottimizzazione sono ristretti, i sistemi possono inavvertitamente incoraggiare strategie di apprendimento superficiale che massimizzano le prestazioni, minando al contempo la profondità concettuale.
La dimensione psicologica dell’apprendimento assistito dall’intelligenza artificiale è altrettanto importante. Gli studenti che interagiscono con i tutor di intelligenza artificiale ricevono un feedback immediato e non giudicante, che può aumentare il coinvolgimento e ridurre l’ansia, in particolare tra coloro che hanno difficoltà nei contesti scolastici tradizionali. Allo stesso tempo, la disponibilità costante di assistenza può ridurre le difficoltà produttive, un fattore chiave per un apprendimento duraturo. La psicologia dell’educazione ha da tempo stabilito che il recupero approfondito, la correzione degli errori e il feedback ritardato svolgono un ruolo cruciale nel consolidamento della conoscenza. I sistemi di intelligenza artificiale che riducono al minimo l’attrito possono quindi barattare la fiducia a breve termine con la fragilità della comprensione a lungo termine.
La valutazione rappresenta un secondo asse di profonda trasformazione. L’intelligenza artificiale generativa ha reso molti formati di valutazione tradizionali – saggi da svolgere a casa, esercizi, compiti di programmazione – insufficienti come indicatori di competenza individuale. Non si tratta di una questione marginale, ma strutturale: i sistemi di valutazione plasmano gli incentivi all’apprendimento. Quando gli studenti sanno che è possibile generare risultati di alta qualità con il minimo sforzo, il legame tra impegno, apprendimento e valutazione si indebolisce. Ciò mina la funzione di segnalazione dell’istruzione e rischia di svalutare le credenziali.
Le istituzioni educative hanno risposto in modo disomogeneo. Alcune hanno tentato il proibizionismo, spesso senza successo. Altre si sono mosse verso una riprogettazione della valutazione , enfatizzando la valutazione in classe, gli esami orali, l’apprendimento basato su progetti e la valutazione orientata ai processi. Questi approcci catturano meglio il ragionamento e la comprensione, ma richiedono molte risorse e sono difficili da adattare. Il rischio è che le istituzioni d’élite si adattino con successo, mentre i sistemi con risorse insufficienti si rifugiano in un’adesione superficiale, esacerbando la disuguaglianza educativa.
L’intelligenza artificiale altera anche l’ ambiente epistemico dell’istruzione. Storicamente, scuole e università fungevano da porte d’accesso privilegiate alla conoscenza, filtrando le informazioni attraverso programmi di studio, libri di testo e istruzioni impartite da esperti. I sistemi di intelligenza artificiale invertono questo modello fornendo accesso immediato a conoscenze sintetizzate in tutti i settori. Se da un lato ciò democratizza l’accesso alle informazioni, dall’altro indebolisce l’autorità epistemica tradizionale. Gli studenti potrebbero avere difficoltà a distinguere tra conoscenza convalidata, sintesi probabilistica e risultati apparentemente sicuri ma errati.
Questo cambiamento pone nuove esigenze ai sistemi educativi: devono insegnare non solo la materia, ma anche l’alfabetizzazione epistemica , ovvero la capacità di valutare le fonti, comprendere l’incertezza e riconoscere i limiti dei sistemi automatizzati. Senza questo, gli studenti rischiano di diventare consumatori efficienti di output dell’IA senza sviluppare un giudizio indipendente. La conseguenza a lungo termine è una popolazione abile nell’uso degli strumenti ma vulnerabile alla manipolazione, alla propagazione degli errori e alla confusione epistemica.
Gli insegnanti occupano un ruolo fondamentale in questa trasformazione. L’intelligenza artificiale ha il potenziale per ridurre gli oneri amministrativi, supportare la pianificazione delle lezioni e fornire informazioni diagnostiche sui progressi degli studenti. Se utilizzata come strumento di supporto, può migliorare l’efficacia degli insegnanti e la soddisfazione lavorativa. Tuttavia, un’adozione mal gestita può anche dequalificare l’insegnamento, ridurre l’autonomia professionale e riformulare gli educatori come supervisori di sistemi algoritmici piuttosto che come autorità pedagogiche.
L’identità professionale degli insegnanti è quindi in gioco. I sistemi educativi che trattano l’IA come un sostituto delle competenze pedagogiche rischiano di erodere il morale e di diminuire l’attrattiva della professione. Al contrario, i sistemi che investono nella formazione degli insegnanti, nella progettazione condivisa e nel giudizio professionale possono sfruttare l’IA come moltiplicatore di forza. La differenza non sta nella tecnologia in sé, ma nel posizionamento degli insegnanti come agenti attivi o operatori passivi .
La formazione del capitale umano a lungo termine dipende non solo dalle competenze cognitive, ma anche dalle capacità sociali, emotive e civiche . L’istruzione mediata dall’intelligenza artificiale rischia di restringere la definizione di competenza a ciò che può essere facilmente misurato e ottimizzato. Competenze come l’empatia, la collaborazione, il ragionamento etico e l’impegno civico sono più difficili da quantificare, ma non per questo meno essenziali. Gli ambienti educativi sempre più mediati da schermi e algoritmi possono ridurre le opportunità di apprendimento sociale, a meno che non siano esplicitamente controbilanciati.
La disuguaglianza emerge come una preoccupazione centrale in tutte queste dinamiche. Gli studenti che hanno accesso a strumenti di intelligenza artificiale di alta qualità, educatori di supporto e ambienti di apprendimento stabili ne beneficiano in modo sproporzionato. Imparano a utilizzare l’intelligenza artificiale in modo critico, creativo e strategico. Altri potrebbero percepire l’intelligenza artificiale principalmente come una scorciatoia o un meccanismo di sorveglianza, rafforzando la dipendenza piuttosto che le capacità. Questo crea una nuova stratificazione tra coloro che apprendono con l’intelligenza artificiale e coloro che sono gestiti dall’intelligenza artificiale .
A livello sistemico, i sistemi educativi si trovano di fronte a una scelta strategica. Possono considerare l’IA come un mezzo per ottimizzare le strutture esistenti – curricula standardizzati, valutazione orientata all’efficienza, riduzione dei costi – oppure come un’opportunità per riorientare l’istruzione verso una formazione più approfondita delle competenze. Il primo approccio produce guadagni misurabili a breve termine, ma rischia di erodere il capitale umano a lungo termine. Il secondo richiede investimenti, sperimentazione e capacità istituzionale, ma offre un percorso verso la resilienza in un’economia cognitiva in rapida evoluzione.
Il capitale umano nell’era dell’intelligenza artificiale deve essere compreso in modo dinamico. Non si tratta di un bagaglio fisso di conoscenze acquisite in età precoce, ma di una capacità di apprendimento, adattamento e giudizio continui . I sistemi educativi che enfatizzano la flessibilità, la metacognizione e il ragionamento etico preparano gli individui a navigare nell’incertezza tecnologica. Quelli che si concentrano esclusivamente sulla competenza negli strumenti rischiano di produrre gruppi le cui competenze si deprezzano rapidamente con l’evoluzione delle tecnologie.
Le implicazioni vanno oltre i risultati individuali, fino alla stabilità macroeconomica e democratica. Le società con una debole formazione delle capacità affrontano un adattamento più lento, una maggiore disuguaglianza e una maggiore suscettibilità alla disinformazione e al controllo autoritario. Al contrario, le società che integrano con successo l’intelligenza artificiale nell’istruzione, preservando al contempo l’agire umano, rafforzano la loro capacità innovativa e civica a lungo termine.
In questo senso, l’istruzione è il fulcro della transizione verso l’intelligenza artificiale. Le politiche del mercato del lavoro possono mitigare gli spostamenti e i quadri di governance possono limitarne l’uso improprio, ma solo l’istruzione determina se le generazioni future rimarranno cognitivamente autonome in un mondo di macchine sempre più capaci. Le scelte fatte in termini di progettazione dei curricula, riforma della valutazione, formazione degli insegnanti e governance istituzionale durante questo decennio plasmeranno quindi la distribuzione di potere, opportunità e capacità di azione per i decenni a venire.
L’analisi che segue si sposterà dai sistemi educativi alla questione più ampia della tecnologia, delle infrastrutture e della governance operativa , esaminando come le scelte architettoniche nei sistemi di intelligenza artificiale (modelli, pipeline di dati, MLOps e sicurezza) interagiscono con i risultati sociali e la capacità istituzionale.
Gli impatti sociali, economici e psicologici dell’intelligenza artificiale analizzati nei capitoli precedenti vengono spesso discussi come se fossero principalmente la conseguenza di modelli o algoritmi . Questa inquadratura è analiticamente incompleta. In pratica, i fattori determinanti più decisivi degli effetti dell’IA nel mondo reale risiedono nell’architettura tecnologica, nella proprietà dell’infrastruttura e nella governance operativa , collettivamente compresi nell’ambito dell’ingegneria dei sistemi di IA e delle MLOps (Machine Learning Operations). Questi livelli determinano non solo cosa possono fare i sistemi di IA, ma anche chi li controlla, chi può verificarli, chi si assume il rischio e chi ne ricava valore .
L’IA non esiste come un singolo artefatto. Esiste come un insieme di elementi : infrastrutture fisiche, pipeline di dati, architetture di modelli, sistemi di orchestrazione, interfacce di distribuzione, meccanismi di monitoraggio e processi di governance umana. Ogni livello introduce vincoli e incentivi che modellano il comportamento su larga scala. Questo capitolo tratta quindi la tecnologia e le MLOps non come questioni di back-office tecnico, ma come infrastrutture politico-economiche e sociali con implicazioni a lungo termine per l’autonomia, la resilienza, l’equità e il controllo democratico.
Alla base dello stack di intelligenza artificiale c’è l’infrastruttura di calcolo . L’addestramento e l’implementazione di moderni sistemi di intelligenza artificiale richiedono ingenti risorse di calcolo, tra cui hardware specializzato (GPU, TPU, acceleratori di intelligenza artificiale), data center, fornitura di energia, sistemi di raffreddamento e connettività di rete. Si tratta di risorse ad alta intensità di capitale con elevati costi fissi e forti economie di scala. Di conseguenza, l’infrastruttura di calcolo è strutturalmente soggetta a concentrazione. Solo un numero limitato di aziende e stati può finanziare, costruire e gestire infrastrutture di intelligenza artificiale di frontiera.
Questa concentrazione ha profonde implicazioni sociali. Il controllo sul calcolo determina chi può addestrare i modelli di frontiera, chi imposta le architetture predefinite e chi definisce i benchmark delle prestazioni. Determina anche chi dipende da chi . Istituzioni pubbliche, PMI, scuole, ospedali e ONG fanno sempre più affidamento su risorse di calcolo di proprietà esterna, accessibili tramite piattaforme cloud. Ciò crea asimmetrie di potere che non sono facilmente visibili a livello applicativo, ma diventano decisive in momenti di crisi, variazioni di prezzo o conflitti politici.
I vincoli energetici e ambientali complicano ulteriormente questo quadro. L’elaborazione dell’IA è ad alta intensità energetica e la sua espansione si interseca con le politiche climatiche, la resilienza della rete e lo sviluppo regionale. I data center si concentrano in regioni con energia a basso costo e una regolamentazione favorevole, creando dipendenze geografiche. Le società prive di infrastrutture energetiche o di stabilità della rete si trovano ad affrontare barriere strutturali alla sovranità dell’IA, indipendentemente dal loro capitale umano. Pertanto, la politica energetica diventa politica dell’IA e la pianificazione delle infrastrutture diventa un fattore determinante per l’inclusione digitale.
Al di sopra del calcolo si trova il livello dati , spesso descritto come il “carburante” dell’IA. In realtà, i dati non sono una risorsa omogenea, ma un artefatto socialmente radicato. I dati riflettono disuguaglianze storiche, pratiche istituzionali e relazioni di potere. La progettazione delle pipeline di dati – cosa viene raccolto, come viene etichettato, chi vi ha accesso, per quanto tempo viene conservato – influenza direttamente il comportamento del modello e gli effetti sociali a valle.
La governance dei dati occupa quindi una posizione centrale nello stack dell’IA. Una governance debole porta a violazioni della privacy, amplificazione dei pregiudizi e opacità. Una governance forte richiede quadri giuridici, standard tecnici e capacità istituzionale. È importante sottolineare che la governance dei dati non riguarda solo la protezione, ma anche l’allocazione del valore . I dati generati da cittadini, lavoratori e studenti spesso alimentano sistemi di IA commerciali senza un corrispondente ritorno pubblico. Ciò solleva questioni relative alla proprietà dei dati, ai trust dei dati e al beneficio collettivo che si estendono oltre la progettazione tecnica fino all’economia politica.
Il livello del modello , in cui risiedono i modelli di base, i sistemi ottimizzati e gli algoritmi specifici per ogni attività, è la parte più visibile dello stack di intelligenza artificiale, ma è spesso frainteso. La scelta del modello non è semplicemente una decisione tecnica; codifica ipotesi su generalità, controllo, adattabilità e rischio. I modelli di base di grandi dimensioni offrono flessibilità e prestazioni, ma sono opachi, richiedono molte risorse e sono difficili da verificare. I modelli più piccoli e specifici per ogni attività sono più interpretabili e controllabili, ma meno versatili.
La tendenza verso i modelli di base ha spostato il potere a monte, dagli sviluppatori di applicazioni e dagli utenti finali ai fornitori di modelli. Ciò crea una dinamica di integrazione verticale : le entità che controllano i modelli controllano sempre più gli ecosistemi a valle attraverso API, termini di licenza e policy di utilizzo. Dal punto di vista della governance, ciò solleva preoccupazioni circa il lock-in del fornitore, le modifiche unilaterali al comportamento dei modelli e le limitate possibilità di ricorso per gli utenti interessati.
La generazione con recupero aumentato (RAG), il fine-tuning e le architetture agentiche vengono spesso presentate come soluzioni a questi problemi. Pur migliorando la base fattuale e la specificità delle attività, aumentano anche la complessità del sistema. La complessità, a sua volta, complica la responsabilità. Quando un sistema di intelligenza artificiale produce un risultato dannoso, la responsabilità può essere distribuita tra curatori di dati, formatori di modelli, integratori di sistema e utenti finali. Senza strutture di governance esplicite, questa diffusione di responsabilità mina sia la responsabilità legale sia la fiducia del pubblico.
È qui che MLOps diventa centrale. MLOps comprende le pratiche, gli strumenti e i processi organizzativi utilizzati per sviluppare, implementare, monitorare e governare i sistemi di intelligenza artificiale durante il loro ciclo di vita. Nelle implementazioni mature, MLOps determina se i sistemi di intelligenza artificiale sono verificabili, resilienti e correggibili , oppure opachi e fragili.
Una funzione fondamentale di MLOps è la tracciabilità . La tracciabilità consente alle organizzazioni di rispondere a domande fondamentali: quali dati sono stati utilizzati per addestrare questo modello? Quale versione ha prodotto questo output? Quali modifiche sono state apportate, quando e da chi? Senza tracciabilità, l’analisi degli errori e la responsabilità sono impossibili. Nelle applicazioni del settore pubblico e ad alto rischio, la mancanza di tracciabilità si traduce direttamente in un fallimento della governance.
Il monitoraggio è un’altra funzione fondamentale di MLOps. I sistemi di intelligenza artificiale non sono statici; si degradano nel tempo a causa della deriva dei dati, della deriva dei concetti e dei cambiamenti nel comportamento degli utenti. I sistemi non monitorati possono fallire silenziosamente, producendo output distorti o errati molto tempo dopo l’implementazione. Il monitoraggio continuo, combinato con soglie predefinite e protocolli di escalation, è essenziale per prevenire danni latenti. Tuttavia, il monitoraggio richiede investimenti, competenze e impegno istituzionale, risorse spesso carenti nelle istituzioni pubbliche sottofinanziate.
La supervisione umana è spesso invocata nel discorso sulla governance dell’IA, ma scarsamente operativa. MLOps fornisce i meccanismi attraverso i quali la supervisione diventa reale: flussi di lavoro con coinvolgimento umano, capacità di override, canali di escalation e procedure di fallback. La supervisione non è una casella da spuntare; è una pratica organizzativa continua che deve essere supportata da strumenti, formazione e strutture di autorità. Senza questi, la “supervisione umana” diventa simbolica anziché efficace.
Sicurezza e robustezza rappresentano un’altra dimensione sottovalutata. I sistemi di intelligenza artificiale sono vulnerabili ad attacchi avversari, avvelenamento dei dati, estrazione di modelli e manipolazione tempestiva. Queste vulnerabilità hanno conseguenze sociali quando i sistemi di intelligenza artificiale mediano l’accesso ai servizi, allocano risorse o influenzano il comportamento. Un sistema compromesso può produrre danni sistemici su larga scala. MLOps robusti includono red-teaming, stress test e piani di risposta agli incidenti, pratiche che rimangono adottate in modo non uniforme al di fuori delle grandi aziende tecnologiche.
Anche le strutture dei costi e il costo totale di proprietà (TCO) influenzano i risultati sociali. L’implementazione dell’IA comporta non solo investimenti iniziali, ma anche costi ricorrenti: utilizzo del computer, archiviazione dei dati, monitoraggio, conformità e supervisione umana. Le organizzazioni che sottovalutano questi costi potrebbero tagliare sulla governance, aumentando il rischio. Al contrario, le entità con ingenti risorse finanziarie possono assorbire i costi e mantenere standard elevati, rafforzando la disuguaglianza tra istituzioni con risorse adeguate e istituzioni con vincoli.
L’interoperabilità e gli standard sono fondamentali per prevenire il lock-in e consentire il controllo democratico. I sistemi proprietari che non possono interagire con le alternative intrappolano utenti e istituzioni nella dipendenza. Standard aperti, architetture modulari e meccanismi di portabilità aumentano la resilienza e il potere contrattuale. Tuttavia, il raggiungimento dell’interoperabilità richiede coordinamento, regolamentazione e allineamento tecnico tra attori con incentivi divergenti.
Da una prospettiva sociale, l’infrastruttura di intelligenza artificiale funziona come una nuova forma di infrastruttura critica , paragonabile alle reti energetiche, alle reti di trasporto o ai sistemi finanziari. Tuttavia, a differenza delle infrastrutture tradizionali, gran parte di esse è di proprietà privata, distribuita a livello globale e scarsamente regolamentata. Ciò crea lacune di governance che gli attuali quadri istituzionali non sono in grado di colmare.
Gli investimenti pubblici nelle infrastrutture di intelligenza artificiale (calcolo pubblico, spazi dati condivisi, modelli aperti) rappresentano un potenziale contrappeso. Tali investimenti possono ridurre la dipendenza, supportare l’innovazione e allineare lo sviluppo dell’intelligenza artificiale ai valori pubblici. Tuttavia, richiedono impegno a lungo termine e capacità tecnica. In assenza di tali investimenti, le istituzioni pubbliche rischiano di diventare clienti permanenti dei fornitori privati di intelligenza artificiale, con un potere decisionale limitato su termini e risultati.
In definitiva, il livello tecnologico e MLOps determina se i sistemi di intelligenza artificiale rimangono strumenti sotto il controllo umano o si evolvono in infrastrutture opache che modellano il comportamento senza responsabilità . I risultati sociali attribuiti all’intelligenza artificiale – guadagni di efficienza, esclusione, dequalificazione, disuguaglianza – sono spesso effetti a valle di decisioni architetturali a monte. Trattare queste decisioni come neutrali o puramente tecniche ne oscura il significato normativo.
La traiettoria a lungo termine dell’IA sarà quindi decisa non solo nei laboratori di ricerca o nei dibattiti politici, ma anche nelle decisioni di ubicazione dei data center, nei contratti di appalto, nelle architetture di sistema e nei protocolli operativi. Le società che comprendono e governano proattivamente questi livelli possono allineare l’IA con gli obiettivi pubblici. Quelle che non rischiano di cedere il controllo sull’infrastruttura sociale fondamentale a un ristretto gruppo di attori i cui incentivi potrebbero divergere dal benessere collettivo.
La fase successiva dell’analisi si sposta dalle infrastrutture e dalle operazioni alla geopolitica e al potere , esaminando come il controllo sugli stack di intelligenza artificiale rimodella le relazioni globali, la sovranità e la dipendenza strategica in un mondo sempre più multipolare.
9. Struttura del mercato, potere e geopolitica nell’era dell’intelligenza artificiale
L’intelligenza artificiale non è solo un sistema tecnologico e non è solo una forza sociale; è anche un meccanismo di ristrutturazione dei mercati e dei rapporti di potere a livello nazionale, regionale e globale. La distribuzione delle capacità di intelligenza artificiale, la proprietà delle infrastrutture, il controllo degli standard e il predominio lungo le catene del valore stanno producendo una riconfigurazione del potere economico paragonabile per scala alle precedenti rivoluzioni industriali, ma che si sta sviluppando a una velocità significativamente maggiore. Questo capitolo esamina l’intelligenza artificiale come motore di concentrazione del mercato, dipendenza strategica e riallineamento geopolitico , sottolineando come le caratteristiche strutturali dei mercati dell’intelligenza artificiale si traducano in leva politica e asimmetrie a lungo termine.
Fondamentalmente, i mercati dell’IA non si comportano come i tradizionali mercati tecnologici competitivi. Presentano forti rendimenti di scala crescenti, effetti di rete, integrazione verticale e dipendenza dal percorso , che insieme producono una concentrazione persistente a meno che non vengano contrastati da politiche deliberate. Queste caratteristiche rendono l’IA non solo un’arena di competizione, ma un dominio strategico in cui il predominio economico può essere convertito in influenza politica, potere normativo e capacità di definizione dell’agenda.
Al centro della struttura del mercato dell’IA c’è la natura stratificata della catena del valore dell’IA. A differenza dei mercati del software consumer, dove la concorrenza può verificarsi a livello applicativo con barriere all’ingresso relativamente basse, la creazione di valore dell’IA è sempre più concentrata a monte. Semiconduttori, progettazione avanzata di chip, impianti di fabbricazione, infrastrutture cloud iperscalabili, training di modelli di frontiera e set di dati proprietari formano uno stack in cui il controllo a un livello amplifica il potere su tutti gli altri . Le aziende che dominano i livelli a monte possono plasmare i mercati a valle attraverso prezzi, condizioni di accesso, vincoli tecnici e termini contrattuali.
La produzione di semiconduttori rappresenta il collo di bottiglia più rigido. I chip di intelligenza artificiale avanzati richiedono processi di fabbricazione all’avanguardia, investimenti in conto capitale elevati e un know-how altamente specializzato. Ciò crea un oligopolio di fatto in cui un piccolo numero di aziende e giurisdizioni controlla la produzione di chip ad alte prestazioni. Le conseguenze vanno ben oltre il prezzo. Gli Stati che non hanno un accesso sicuro ai semiconduttori avanzati si trovano ad affrontare limiti strutturali alla loro capacità di sviluppare o implementare sistemi di intelligenza artificiale competitivi, indipendentemente dal talento o dalla domanda. L’offerta di semiconduttori diventa quindi una leva geopolitica , consentendo controlli sulle esportazioni, divieti strategici e accesso condizionato.
Al di sopra dell’hardware si trova l’infrastruttura di cloud computing, dove le economie di scala sono ancora più pronunciate. La gestione di data center iperscalabili richiede investimenti continui in approvvigionamento energetico, sistemi di raffreddamento, networking e ridondanza. Una volta consolidate, queste infrastrutture beneficiano di vantaggi economici che i nuovi entranti non possono facilmente eguagliare. Ciò produce elevati tassi di concentrazione e dipendenza a lungo termine per gli utenti. Istituzioni pubbliche, startup e persino grandi aziende dipendono sempre più da un numero limitato di provider cloud per l’implementazione dell’IA. Questa dipendenza ha implicazioni per la sovranità, la resilienza e il potere contrattuale , in particolare quando i provider operano in giurisdizioni con regimi giuridici diversi.
I modelli di base intensificano le dinamiche di concentrazione. L’addestramento di modelli all’avanguardia richiede non solo capacità di calcolo, ma anche enormi set di dati, team di ricerca specializzati e sperimentazione iterativa. Il costo del fallimento è elevato, favorendo gli operatori storici con flussi di fatturato diversificati. Di conseguenza, lo sviluppo di modelli di frontiera è dominato da un numero limitato di aziende, molte delle quali sono integrate verticalmente con infrastrutture cloud. Questa integrazione consente ai provider di internalizzare sinergie, indebolire la concorrenza e modellare ecosistemi attorno ad API e piattaforme proprietarie.
Dal punto di vista della struttura del mercato, i modelli di base funzionano come piattaforme piuttosto che come prodotti . Attraggono sviluppatori, vincolano gli utenti attraverso strumenti e flussi di lavoro e generano cicli di feedback sui dati che rafforzano il predominio. La concorrenza a livello di applicazione rimane vivace, ma si verifica su piattaforme le cui regole sono stabilite da attori a monte. Questo rispecchia le precedenti economie di piattaforma, ma con una posta in gioco più alta, poiché le piattaforme di intelligenza artificiale mediano sempre più cognizione, comunicazione e processo decisionale.
Il potere di mercato nell’IA non si limita quindi al potere di determinazione dei prezzi. Include il potere architetturale , ovvero la capacità di definire standard tecnici, convenzioni di interfaccia e usi consentiti. Il potere architetturale plasma le traiettorie di innovazione determinando quali applicazioni sono facili o difficili da realizzare, quali dati possono essere integrati e quali caratteristiche di sicurezza o conformità sono opzionali o obbligatorie. Questa forma di potere è sottile ma duratura e spesso sfugge ai tradizionali quadri antitrust incentrati sui prezzi al consumo piuttosto che sulla dipendenza sistemica.
La concentrazione dei mercati dell’IA ha implicazioni dirette sulla distribuzione del lavoro e del reddito. Le aziende che controllano asset chiave dell’IA catturano una quota sproporzionata di valore, mentre le aziende e i lavoratori a valle operano con margini più ristretti e un potere contrattuale ridotto. Ciò contribuisce alla riduzione della quota di reddito del lavoro e all’aumento dei rendimenti del capitale e della proprietà intellettuale. Nel tempo, tali dinamiche possono indebolire le basi industriali nazionali, in particolare nei paesi che fanno affidamento sulle capacità di IA importate piuttosto che sulla produzione nazionale.
Dal punto di vista geopolitico, l’IA è diventata un elemento centrale della competizione strategica. Gli Stati considerano sempre più la capacità dell’IA come un fattore determinante per la crescita economica, l’efficacia militare e l’influenza politica. Le strategie nazionali in materia di IA enfatizzano gli investimenti in informatica, attrazione di talenti, accesso ai dati e definizione di standard. Tuttavia, la capacità di implementare queste strategie varia notevolmente. Le economie avanzate con ecosistemi tecnologici esistenti possono mobilitare le risorse in modo più efficace, mentre altre si trovano ad affrontare vincoli strutturali che limitano la loro autonomia strategica.
Gli Stati Uniti occupano una posizione dominante su più livelli dello stack dell’IA, in particolare nell’infrastruttura cloud, nello sviluppo di modelli e negli ecosistemi software. Questa posizione dominante si traduce in un potere decisionale in termini di standard tecnici, norme di ricerca e persino quadri etici. Allo stesso tempo, crea tensioni interne tra leadership nell’innovazione e responsabilità normativa, poiché la portata globale delle aziende nazionali complica la governance nazionale.
La Cina rappresenta un modello distinto, caratterizzato da un forte coordinamento statale, ampi mercati interni e integrazione tra lo sviluppo dell’intelligenza artificiale civile e militare. Pur essendo limitata dall’accesso esterno a semiconduttori avanzati, la Cina ha investito massicciamente in alternative nazionali, nell’aggregazione dei dati e nell’implementazione su scala applicativa. Il suo approccio enfatizza il controllo, la scala e l’allineamento politico , producendo una rapida diffusione all’interno dei confini nazionali e aumentando il disaccoppiamento tecnologico dagli ecosistemi occidentali.
L’Unione Europea occupa una posizione intermedia. Non ha una posizione dominante nelle infrastrutture di IA a monte, ma esercita un notevole potere normativo grazie alle dimensioni del suo mercato interno e ai suoi quadri giuridici. L’EU AI Act esemplifica una strategia di leadership normativa , che mira a plasmare le pratiche globali di IA definendo standard di sicurezza, trasparenza e responsabilità. Sebbene questo approccio aumenti l’influenza normativa, rischia di creare uno svantaggio competitivo se non è integrato da investimenti industriali e infrastrutturali.
Le economie emergenti si trovano ad affrontare sfide diverse. Molte sono importatrici nette di tecnologia AI e dipendono da piattaforme esterne e provider cloud. Questa dipendenza limita l’autonomia politica e le espone alla volatilità dei prezzi, all’estrazione di dati e alle ricadute normative. Allo stesso tempo, l’AI offre l’opportunità di aggirare i vincoli infrastrutturali in settori come la sanità, l’agricoltura e l’istruzione. La tensione tra opportunità e dipendenza definisce il loro dilemma strategico.
La governance globale dell’IA rimane frammentata. Sebbene esistano principi internazionali, i meccanismi di controllo sono deboli e gli interessi strategici divergono. I controlli sulle esportazioni, lo screening degli investimenti e le alleanze tecnologiche influenzano sempre di più la diffusione dell’IA. Questi strumenti, pur essendo inquadrati come misure di sicurezza, fungono anche da strumenti di modellamento del mercato , influenzando gli attori che ottengono l’accesso a risorse critiche.
La definizione degli standard emerge come un campo di battaglia chiave. Gli standard tecnici determinano l’interoperabilità, le soglie di sicurezza e i requisiti di conformità. Gli Stati e le aziende che dominano gli organismi di normazione possono integrare le proprie preferenze nei sistemi globali, ottenendo un vantaggio a lungo termine. Questo processo è lento, tecnico e spesso poco chiaro, ma i suoi effetti sono duraturi. Il controllo sugli standard può vincolare percorsi tecnologici ed escludere modelli alternativi.
Il rischio di un’eccessiva concentrazione non è solo economico, ma sistemico. Gli ecosistemi di intelligenza artificiale altamente centralizzati sono vulnerabili a singoli punti di errore, siano essi tecnici, politici o ambientali. Inoltre, concentrano il potere decisionale in un numero limitato di organizzazioni, i cui incentivi potrebbero non essere in linea con il benessere pubblico. Da una prospettiva di resilienza, la diversità di fornitori, architetture e modelli di governance è un bene pubblico.
In questo contesto, le politiche antitrust e di concorrenza si trovano ad affrontare sfide significative. Gli strumenti tradizionali sono inadatti ad affrontare il predominio basato su piattaforme, integrazione verticale e dati. Un intervento efficace potrebbe richiedere approcci innovativi, tra cui:
- Separazione strutturale degli strati infrastrutturali e applicativi,
- Interoperabilità obbligatoria e portabilità dei dati,
- Obblighi di accesso pubblico alle risorse informatiche critiche,
- Maggiore controllo delle fusioni verticali e dei contratti esclusivi.
Tali misure sono politicamente controverse e tecnicamente complesse, ma in loro assenza è probabile che i mercati dell’intelligenza artificiale consolidino le gerarchie esistenti.
A un livello più profondo, l’intelligenza artificiale rimodella il rapporto tra potere economico e politico. Il controllo sulle infrastrutture cognitive – sistemi che generano conoscenza, plasmano narrazioni e guidano le decisioni – conferisce un’influenza che si estende oltre i mercati, fino alla governance e alla cultura. Ciò solleva interrogativi fondamentali sulla responsabilità democratica in un mondo mediato dall’intelligenza artificiale . Quando i principali sistemi informativi e di supporto alle decisioni sono di proprietà privata e distribuiti a livello globale, i meccanismi tradizionali di controllo democratico faticano a funzionare.
La dimensione geopolitica dell’IA è quindi inscindibile dalle questioni di sovranità e legittimità. Gli Stati devono decidere se trattare le infrastrutture di IA come un asset strategico, analogo a quello energetico o della difesa, soggetto a supervisione pubblica e pianificazione a lungo termine, oppure come una tecnologia commerciale governata principalmente dalle forze di mercato. Questa scelta plasmerà non solo la competitività, ma anche la distribuzione del potere tra cittadini, aziende e Stati.
In sintesi, la struttura del mercato dell’IA è caratterizzata da profonda concentrazione, integrazione verticale e rilevanza strategica. Queste caratteristiche si traducono in un potere geopolitico e in asimmetrie a lungo termine che non possono essere affrontate solo attraverso aggiustamenti incrementali delle politiche. Gli impatti sociali ed economici dell’IA sono sempre più mediati da chi controlla l’infrastruttura e gli standard sottostanti, piuttosto che dalle sole prestazioni dei modelli.
Comprendere l’IA come un dominio di potere strutturale piuttosto che di innovazione neutrale è un prerequisito per una governance efficace. Senza tale comprensione, le società rischiano di confondere i guadagni di efficienza a breve termine con una perdita di autonomia a lungo termine. Il capitolo seguente passerà dall’analisi del potere ai quadri di governance e ai modelli normativi , esaminando come gli stati e le istituzioni tentino di rivendicare l’agenzia sui sistemi di IA che plasmano sempre più la vita sociale, economica e politica.
10. Quadri di governance e modelli normativi nell’era dell’intelligenza artificiale
La governance costituisce il livello di mediazione decisivo tra l’intelligenza artificiale come capacità tecnica e l’intelligenza artificiale come forza sociale. Sebbene i capitoli precedenti abbiano dimostrato come l’IA rimodelli la cognizione, il lavoro, l’istruzione, le infrastrutture, i mercati e il potere geopolitico, nessuna di queste trasformazioni è determinata meccanicamente dalla tecnologia stessa. Sono filtrate, amplificate, limitate o reindirizzate dai quadri di governance , intesi qui come l’insieme di leggi, istituzioni di regolamentazione, standard, pratiche organizzative, meccanismi di applicazione e aspettative normative che modellano il modo in cui l’IA viene progettata, implementata e controllata.
La governance dell’IA deve essere analizzata come un sistema multilivello e multiattore . Opera simultaneamente a livello di norme internazionali, regimi normativi regionali, sistemi giuridici nazionali, autorità settoriali, politiche organizzative e procedure operative integrate nei sistemi tecnici. Fallimenti o debolezze a qualsiasi livello si propagano attraverso lo stack, producendo risultati sociali spesso erroneamente attribuiti all’IA piuttosto che alle scelte di progettazione della governance. Questo capitolo tratta quindi la governance non come un vincolo esterno all’IA, ma come una componente integrante del sistema di IA stesso .
In sostanza, la governance dell’IA si confronta con una tensione strutturale tra velocità e controllo . Le tecnologie di IA si evolvono rapidamente, spinte dalle pressioni competitive, mentre i sistemi legali e istituzionali si evolvono lentamente, vincolati dalla deliberazione democratica, dal giusto processo e dai limiti di capacità. Questa discrepanza crea lacune di governance che vengono sfruttate – a volte deliberatamente, a volte involontariamente – da attori dotati di risorse, informazioni o potere contrattuale superiori. Una governance efficace non elimina questa tensione, ma cerca di gestirla integrando adattabilità, proporzionalità e responsabilità nella progettazione normativa.
Una delle caratteristiche distintive della governance dell’IA è il passaggio da un’etica basata sui principi a una regolamentazione operativa . Tra la fine degli anni 2010 e l’inizio degli anni 2020, la governance dell’IA era dominata da principi etici di alto livello – equità, trasparenza, responsabilità, supervisione umana – articolati da organizzazioni internazionali, ordini professionali e aziende. Sebbene questi principi abbiano svolto un importante ruolo di definizione dell’agenda, si sono rivelati insufficienti a plasmare il comportamento su larga scala. Senza applicabilità, metriche e titolarità istituzionale, gli impegni etici sono rimasti un obiettivo ambizioso.
La governance post-2024 riflette uno spostamento verso modelli normativi basati sul rischio . Questi modelli classificano i sistemi di intelligenza artificiale in base alla gravità e alla probabilità di danno, imponendo obblighi graduali anziché regole generali. La logica di fondo è che non tutti i sistemi di intelligenza artificiale presentano lo stesso rischio e che la governance deve essere proporzionata all’impatto sociale. Questo approccio riconosce l’intelligenza artificiale come una tecnologia di uso generale, utilizzata in contesti eterogenei, dalle applicazioni consumer a basso rischio ai processi decisionali pubblici ad alto rischio.
La governance basata sul rischio introduce le sue complessità. Il rischio non è una proprietà oggettiva di un sistema; è dipendente dal contesto, socialmente costruito e in continua evoluzione. La classificazione dei sistemi richiede valutazioni circa il danno accettabile, le popolazioni vulnerabili e i compromessi tra innovazione e protezione. Queste valutazioni sono intrinsecamente politiche, anche quando espresse in un linguaggio tecnico. Di conseguenza, i framework basati sul rischio spostano il potere verso coloro che definiscono categorie, soglie ed esenzioni.
Il modello normativo dell’Unione Europea per l’IA esemplifica questo approccio. Definendo categorie come rischio inaccettabile, rischio elevato, rischio limitato e rischio minimo, crea una gerarchia strutturata di obblighi. I sistemi ad alto rischio, ovvero quelli utilizzati in settori quali lavoro, istruzione, credito, forze dell’ordine e pubblica amministrazione, sono soggetti a requisiti che includono la gestione del rischio, la governance dei dati, la supervisione umana, la documentazione e il monitoraggio post-commercializzazione. Questo quadro mira a integrare la governance nel ciclo di vita dei sistemi di IA, anziché basarsi esclusivamente sulla responsabilità ex post.
Tuttavia, la governance del ciclo di vita richiede capacità istituzionale . La conformità non è un processo automatico. Richiede autorità competenti, competenze tecniche, meccanismi di audit e risorse per l’applicazione delle normative. In mancanza di tale capacità, la regolamentazione rischia di diventare simbolica o di essere applicata in modo non uniforme. Le grandi aziende con team legali e tecnici riescono a conformarsi, mentre gli attori più piccoli faticano, rafforzando potenzialmente la concentrazione del mercato. Pertanto, la progettazione della governance interagisce direttamente con la struttura del mercato, a volte in modi involontari.
Gli Stati Uniti presentano un modello di governance contrastante, caratterizzato da una regolamentazione settoriale e da un’applicazione ex post . Piuttosto che da una legge completa sull’IA, la governance emerge attraverso la guida delle agenzie, gli standard di appalto, l’applicazione dei diritti civili, la tutela dei consumatori e il contenzioso. Questo modello privilegia flessibilità e innovazione, ma produce protezioni frammentate e incertezza normativa. Attribuisce maggiore importanza ai tribunali e alle agenzie di regolamentazione nel valutare i danni causati dall’IA dopo che si sono verificati, piuttosto che prevenirli sistematicamente.
Questo approccio ex post è in linea con una più ampia tradizione normativa americana, ma si scontra con le sfide del contesto dell’IA. I danni algoritmici sono spesso diffusi, cumulativi e difficili da attribuire. Gli individui interessati potrebbero non avere la legittimazione, le informazioni o le risorse per ottenere un risarcimento. Di conseguenza, molti danni rimangono irrisolti e gli effetti deterrenti sono deboli. L’onere della governance si sposta sui controlli interni delle organizzazioni, che variano notevolmente in termini di qualità e responsabilità.
Il modello di governance cinese diverge in modo più radicale. Integra la governance dell’IA in un più ampio sistema di controllo incentrato sullo Stato , enfatizzando la stabilità politica, la regolamentazione dei contenuti e l’allineamento con gli obiettivi nazionali. La governance è applicata attraverso licenze, controlli sui contenuti, localizzazione dei dati e supervisione diretta. Sebbene questo modello consenta una rapida implementazione e un’applicazione centralizzata, subordina i diritti individuali alle priorità collettive e politiche. I risultati sociali sono quindi mediati dall’autorità statale piuttosto che dal mercato o dalla contestazione legale.
Questi modelli divergenti dimostrano che la governance dell’IA non è semplicemente una regolamentazione tecnica, ma un riflesso di valori politici e tradizioni istituzionali . I quadri di governance codificano assunti sulla fiducia nei mercati, sulla fiducia nello Stato e sul ruolo dei diritti individuali. Determinano anche come vengono risolti i conflitti tra innovazione, sicurezza e protezione sociale.
Oltre alla regolamentazione formale, gli organismi di normazione svolgono un ruolo cruciale nella governance dell’IA. Gli standard tecnici definiscono come i sistemi vengono costruiti, testati, verificati e integrati. Traducono principi astratti in specifiche concrete: parametri per la valutazione dei bias, procedure per la valutazione del rischio, formati per la documentazione. Gli standard sono spesso sviluppati da consorzi di esperti, aziende e rappresentanti nazionali, che operano al riparo dal controllo pubblico. Eppure il loro impatto è profondo: la conformità agli standard diventa spesso un requisito di fatto per l’accesso al mercato o la difendibilità legale.
Gli standard possono migliorare la sicurezza e l’interoperabilità, ma possono anche consolidare pratiche e attori dominanti. Le aziende che esercitano un’influenza precoce sullo sviluppo degli standard possono modellare i requisiti in modo da allinearli alle proprie architetture esistenti, innalzando barriere per la concorrenza. Pertanto, la definizione degli standard è un luogo di soft power e competizione strategica , non di coordinamento tecnico neutrale.
Un’altra dimensione critica della governance dell’IA risiede nella governance organizzativa e operativa . Leggi e standard si concretizzano in ultima analisi attraverso policy interne, flussi di lavoro e diritti decisionali all’interno delle organizzazioni. Ciò include regole di approvvigionamento, processi di approvazione dei modelli, protocolli di escalation, funzioni di audit e strutture di responsabilità. Molti danni causati dall’IA non derivano dall’assenza di regole, ma dalla loro mancata integrazione nelle decisioni operative quotidiane.
La governance operativa determina se le valutazioni del rischio siano significative o superficiali, se la supervisione umana sia autorizzata o simbolica e se il monitoraggio porti ad azioni correttive o a segnalazioni ignorate. In questo senso, la qualità della governance dipende tanto dalla cultura organizzativa e dagli incentivi quanto dalla conformità formale. Le organizzazioni che premiano la velocità e la riduzione dei costi rispetto alla cautela e alla responsabilità minano sistematicamente gli obiettivi di governance, indipendentemente dal testo normativo.
La governance del settore pubblico si trova ad affrontare sfide aggiuntive. Le istituzioni pubbliche spesso mancano di competenze tecniche, hanno difficoltà con i sistemi legacy e si affidano a fornitori esterni per le soluzioni di intelligenza artificiale. Ciò crea relazioni asimmetriche in cui i fornitori plasmano la progettazione dei sistemi e le pratiche di governance. Gli appalti diventano una leva di governance fondamentale. I contratti che specificano trasparenza, verificabilità, diritti sui dati e opzioni di uscita possono preservare il controllo pubblico; i contratti che danno priorità ai risparmi sui costi a breve termine possono vincolare le istituzioni a sistemi opachi e inflessibili.
La governance deve anche tenere conto degli effetti transfrontalieri . I sistemi di intelligenza artificiale non rispettano i confini nazionali. I flussi di dati, le infrastrutture cloud e i servizi di piattaforma operano a livello globale, mentre l’autorità di regolamentazione rimane limitata a livello territoriale. Ciò crea lacune nell’applicazione delle normative e opportunità di arbitraggio normativo. Le aziende potrebbero localizzare lo sviluppo, la formazione o l’implementazione in giurisdizioni con una supervisione più debole, con conseguenti ripercussioni sugli utenti altrove.
Il coordinamento internazionale è quindi essenziale ma difficile. Gli strumenti internazionali esistenti – principi, raccomandazioni, codici volontari – garantiscono un allineamento normativo, ma mancano di attuazione. Accordi più vincolanti sono politicamente sensibili, poiché toccano la sovranità, la sicurezza e la politica industriale. Il risultato è un mosaico di regimi sovrapposti e talvolta contrastanti, che aumentano la complessità della conformità e la disomogeneità della protezione.
Un’ulteriore sfida di governance riguarda la responsabilità e l’allocazione delle responsabilità . I sistemi di intelligenza artificiale distribuiscono l’agenzia tra progettisti, fornitori di dati, implementatori e utenti. I tradizionali quadri di responsabilità presuppongono attori identificabili e catene causali. L’intelligenza artificiale complica entrambi. Determinare chi è responsabile del danno richiede di tracciare le decisioni a tutti i livelli, sia tecnici che organizzativi. Senza chiare regole di responsabilità, gli incentivi a investire in sicurezza e responsabilità si indeboliscono.
Alcuni modelli di governance tentano di affrontare questo problema attraverso la responsabilità oggettiva per determinati usi, regimi di responsabilità condivisa o assicurazioni obbligatorie. Ogni approccio presenta dei compromessi. La responsabilità oggettiva può scoraggiare applicazioni vantaggiose; la responsabilità condivisa può diluire la responsabilità; l’assicurazione può valutare il rischio ma non prevenire i danni. La scelta tra questi modelli riflette preferenze sociali più ampie in termini di tolleranza al rischio e innovazione.
La trasparenza è spesso invocata come rimedio alle sfide di governance, ma da sola non è sufficiente. Rendere i sistemi spiegabili o divulgare schede modello non garantisce comprensione o responsabilizzazione. Una trasparenza efficace deve essere mirata : diversi stakeholder – utenti, autorità di regolamentazione, revisori, soggetti interessati – richiedono informazioni diverse a diversi livelli di dettaglio. Un’eccessiva divulgazione può oscurare anziché chiarire.
Infine, la governance deve affrontare il problema dell’adattabilità nel tempo . I sistemi di intelligenza artificiale si evolvono attraverso aggiornamenti, riqualificazione e cambiamenti nei contesti d’uso. Un’approvazione normativa statica è quindi inadeguata. I quadri di governance enfatizzano sempre di più il monitoraggio continuo, la valutazione post-implementazione e i cicli di feedback. Questo sposta la governance da un esercizio di conformità una tantum a un processo continuo, con implicazioni per la capacità istituzionale e i costi.
Nel complesso, la governance dell’IA non è una singola scelta politica, ma un sistema di scelte distribuite tra testi giuridici, modelli istituzionali, standard tecnici, pratiche organizzative e relazioni internazionali. La sua efficacia dipende dalla coerenza tra questi livelli. Una governance frammentata crea lacune che gli attori più potenti sfruttano, mentre una governance eccessivamente rigida rischia di soffocare l’innovazione e l’adattamento utili.
L’intuizione centrale di questo capitolo è che la governance determina se l’IA amplifica le asimmetrie di potere esistenti o diventa uno strumento per il beneficio collettivo. Una governance ben progettata può allineare gli incentivi, distribuire i guadagni in modo più equo e preservare l’agire umano. Una governance mal progettata o poco applicata consente alla concentrazione, alla dipendenza e all’erosione della responsabilità di accelerare sotto le mentite spoglie del progresso tecnologico.
L’analisi si concentra ora sulla dimensione futura della governance: scenari decennali e traiettorie strategiche , esaminando come le diverse scelte di governance interagiscono con i fattori tecnologici ed economici per produrre risultati divergenti per le società, le economie e la qualità della vita.
11. Scenari decennali e risultati sulla qualità della vita in un mondo mediato dall’intelligenza artificiale
L’orizzonte decennale è analiticamente critico per l’intelligenza artificiale perché si colloca all’intersezione tra maturazione tecnologica, adattamento istituzionale e ricambio generazionale . Orizzonti più brevi enfatizzano eccessivamente i cicli transitori di hype e gli effetti dei primi utilizzatori; orizzonti più lunghi si trasformano in speculazioni slegate dalle attuali scelte politiche. Un decennio è sufficiente affinché i sistemi di intelligenza artificiale si integrino profondamente nelle infrastrutture sociali, affinché i sistemi del lavoro e dell’istruzione si riconfigurino e affinché i fallimenti o i successi della governance si comprimano in traiettorie durature. Questo capitolo esamina quindi come diverse configurazioni di tecnologia, struttura di mercato, governance e capacità sociale interagiscano nel periodo 2025-2035 per plasmare i risultati della qualità della vita , intesi in senso lato come benessere materiale, autonomia, sicurezza psicologica, fiducia sociale e opportunità.
Fondamentalmente, questi scenari non sono previsioni . Sono narrazioni strutturate e basate su prove che mappano futuri plausibili condizionati da fattori e decisioni identificabili. Lo scopo dell’analisi di scenario non è prevedere un singolo risultato, ma chiarire percorsi causali , evidenziare compromessi e identificare punti di leva in cui le scelte politiche e istituzionali possono modificare le traiettorie.
La qualità della vita nell’era dell’intelligenza artificiale non può essere ridotta alla crescita del PIL o alla produttività aggregata. Sebbene la performance economica rimanga importante, l’impatto distintivo dell’intelligenza artificiale risiede nel modo in cui ridistribuisce tempo, attenzione, capacità di azione e rischio . Una società con una produttività più elevata ma una minore autonomia, una sorveglianza più elevata e un maggiore stress psicologico può ragionevolmente essere giudicata in condizioni peggiori rispetto a una con una produttività leggermente inferiore ma una maggiore coesione sociale e un maggiore controllo individuale. Di conseguenza, questo capitolo valuta scenari utilizzando una concezione multidimensionale della qualità della vita che integra dimensioni economiche, sociali, psicologiche e politiche.
L’analisi è strutturata da quattro scenari archetipici. Sono volutamente stilizzati per evidenziare i contrasti, ma ognuno contiene variazioni interne e possibilità ibride. Il passaggio da uno scenario all’altro è possibile; nessuno è inevitabile. Ciò che li distingue non è solo la capacità tecnologica, ma l’ interazione tra l’intensità di adozione dell’IA e la qualità della governance .
Il primo scenario può essere descritto come una traiettoria di base regolamentata , in cui la diffusione dell’IA continua sostanzialmente lungo le linee attuali, accompagnata da un’implementazione normativa incrementale e da un apprendimento istituzionale disomogeneo. In questo scenario, l’IA diventa pervasiva nei servizi pubblici, nei luoghi di lavoro e nei sistemi educativi, ma senza un ripensamento radicale della struttura del mercato o della capacità pubblica. Esistono quadri di governance, ma l’applicazione è disomogenea e spesso reattiva. Le aziende si conformano formalmente, ma ottimizzano in base ai requisiti. Le istituzioni pubbliche adottano l’IA per gestire i vincoli delle risorse piuttosto che per trasformare i modelli di servizio.
In questa traiettoria, la crescita della produttività è positiva ma moderata. L’intelligenza artificiale migliora l’efficienza nel lavoro intellettuale, nella logistica, nell’amministrazione sanitaria e in alcune funzioni educative. Tuttavia, i guadagni vanno a vantaggio in modo sproporzionato di aziende e lavoratori già in grado di trarne beneficio: grandi imprese, professionisti altamente qualificati e regioni con infrastrutture solide. La dispersione salariale aumenta e i mercati del lavoro rimangono polarizzati. I livelli di occupazione rimangono sostanzialmente stabili, ma la qualità del lavoro diverge notevolmente.
I risultati in termini di qualità della vita in un contesto di base regolamentato sono contrastanti. Molti individui riscontrano risparmi di tempo, un migliore accesso ai servizi e una maggiore comodità. Allo stesso tempo, altri si trovano ad affrontare una maggiore sorveglianza sul lavoro, un processo decisionale poco trasparente nei sistemi di welfare e di credito e una crescente pressione ad adattarsi continuamente ad ambienti mediati algoritmicamente. La fiducia nelle istituzioni si stabilizza, ma non migliora in modo significativo. Lo stress psicologico associato al monitoraggio delle prestazioni e all’obsolescenza delle competenze si normalizza. La disuguaglianza sociale aumenta lentamente ma in modo persistente.
Questo scenario è politicamente sostenibile nel medio termine perché evita la crisi, ma incorpora fragilità strutturale . La dipendenza da un numero limitato di fornitori di infrastrutture di IA si aggrava. La capacità pubblica di verificare e contestare le decisioni in materia di IA è in ritardo rispetto alla sua implementazione. Nel tempo, il divario tra capacità tecnologica e controllo istituzionale aumenta, aumentando il rischio di improvvisi shock di legittimità innescati da fallimenti o abusi di alto profilo.
Il secondo scenario rappresenta una traiettoria incentrata sull’uomo e ad alta governance , caratterizzata da investimenti pubblici mirati, una regolamentazione solida e una riprogettazione istituzionale orientata al miglioramento delle capacità piuttosto che alla mera efficienza. In questo scenario, l’adozione dell’IA è esplicitamente legata a obiettivi sociali: ridurre gli oneri amministrativi preservando la discrezionalità, aumentare il giudizio professionale anziché sostituirlo e rafforzare la formazione del capitale umano.
Le caratteristiche principali includono investimenti sostenuti in infrastrutture di elaborazione pubbliche, spazi dati interoperabili regolati da chiari mandati pubblici e una rigorosa applicazione dei requisiti di trasparenza, verificabilità e contestabilità. I sistemi educativi sono oggetto di una riforma sostanziale, che pone l’accento sulla metacognizione, sull’alfabetizzazione all’intelligenza artificiale e sulla valutazione basata sui processi. Le politiche del mercato del lavoro si concentrano sulla riqualificazione continua, sul supporto alla transizione e sulla protezione dalla gestione algoritmica invasiva.
In questo scenario, la performance economica è solida, ma non ottimale nel breve termine. I costi di conformità e gli investimenti pubblici rallentano alcune forme di implementazione. Tuttavia, nel corso del decennio, gli incrementi di produttività diventano più ampi, con il miglioramento della diffusione delle competenze e l’accelerazione dell’apprendimento organizzativo. Le piccole e medie imprese ottengono l’accesso a risorse di intelligenza artificiale condivise, riducendo gli effetti di concentrazione. L’innovazione rimane forte, ma è più incrementale e distribuita.
I risultati in termini di qualità della vita migliorano su più fronti. Gli individui sperimentano una maggiore autonomia negli ambienti mediati dall’intelligenza artificiale grazie a diritti chiari, supervisione umana e meccanismi di ricorso. La sicurezza psicologica migliora man mano che le transizioni lavorative diventano più prevedibili e supportate. La fiducia nelle istituzioni aumenta man mano che i sistemi di intelligenza artificiale vengono percepiti come operanti all’interno di quadri trasparenti e responsabili. La disuguaglianza si riduce leggermente, non perché i mercati smettano di premiare le competenze, ma perché aumentano le capacità e le tutele di base.
Questo scenario richiede un impegno politico costante e competenza amministrativa. Il rischio principale risiede nella mancanza di coordinamento: se investimenti, regolamentazione e riforma dell’istruzione non sono allineati, i benefici diminuiscono mentre i costi permangono. Ciononostante, rappresenta l’equilibrio più favorevole tra innovazione e stabilità sociale.
Il terzo scenario è quello di estrema concentrazione e governance debole , in cui l’adozione dell’IA accelera rapidamente sotto la pressione del mercato, mentre la capacità normativa e la volontà politica non riescono a tenere il passo. In questa traiettoria, il controllo sulle infrastrutture, sui modelli e sulle piattaforme di IA si consolida ulteriormente nelle mani di un numero limitato di attori globali. Le istituzioni pubbliche diventano clienti dipendenti piuttosto che implementatori autonomi. La governance esiste in gran parte solo di nome, con un’applicazione limitata e ampie esenzioni.
In questo scenario, la crescita della produttività è inizialmente elevata. Le aziende automatizzano in modo aggressivo le attività cognitive, ristrutturano le organizzazioni e ampliano i servizi basati sull’intelligenza artificiale. I costi diminuiscono, la produzione aumenta e l’innovazione di frontiera continua. Tuttavia, i guadagni sono altamente concentrati. La quota di reddito del lavoro diminuisce e la qualità del lavoro peggiora per ampi segmenti della forza lavoro. La gestione algoritmica diventa pervasiva e la sorveglianza si intensifica come mezzo per estrarre le prestazioni.
Nonostante la crescita aggregata, la qualità della vita peggiora per molti. L’autonomia si erode man mano che le decisioni che riguardano occupazione, credito, istruzione e welfare diventano sempre più opache e difficili da contestare. Lo stress psicologico aumenta a causa di valutazioni continue e percorsi occupazionali precari. La fiducia sociale diminuisce man mano che le istituzioni sembrano incapaci o non disposte a proteggere gli individui dai danni algoritmici. La disuguaglianza aumenta drasticamente, producendo polarizzazione politica e disordini episodici.
Questo scenario è instabile nel lungo periodo. La concentrazione crea un rischio sistemico: fallimenti o abusi da parte degli attori dominanti hanno un impatto smisurato. La reazione politica si intensifica, ma le risposte della governance sono reattive e frammentate. Nel corso del decennio, cresce il rischio di un brusco intervento normativo, di un disaccoppiamento tecnologico o di una crisi sociale. La qualità della vita diventa fortemente stratificata, con una minoranza che ne trae notevoli benefici mentre la maggioranza subisce un calo della sicurezza e dell’agire.
Il quarto scenario prevede un percorso aperto e federato orientato ai beni comuni , in cui gli ecosistemi di intelligenza artificiale evolvono verso l’interoperabilità, gli standard aperti e il controllo distribuito. Questo scenario è guidato da una combinazione di investimenti pubblici, innovazione open source e collaborazione internazionale. I modelli di base coesistono con sistemi più piccoli, specifici per attività, sviluppati e governati localmente. I dati vengono condivisi tramite trust e cooperative piuttosto che tramite piattaforme centralizzate.
I risultati economici in questo scenario sono eterogenei. L’innovazione è diffusa ma di qualità non uniforme. Persistono alcune inefficienze dovute alla frammentazione e ai costi di coordinamento. Tuttavia, le barriere all’ingresso sono basse, il che consente la sperimentazione e l’adattamento locale. Gli incrementi di produttività sono moderati ma ampiamente distribuiti, in particolare in settori come l’istruzione, la sanità e la pubblica amministrazione.
I risultati in termini di qualità della vita sono generalmente positivi, ma dipendono dalla maturità della governance. Autonomia e capacità di azione sono elevate, poiché individui e istituzioni mantengono il controllo sui sistemi di intelligenza artificiale. Il benessere psicologico beneficia di una minore sorveglianza e di una maggiore trasparenza. La fiducia sociale migliora laddove la governance dei beni comuni è efficace, ma può risentirne laddove la garanzia della qualità è debole. Il rischio principale è l’affidabilità: senza standard e supervisione rigorosi, le prestazioni del sistema variano e possono emergere danni da implementazioni mal gestite.
In tutti gli scenari, diversi fattori trasversali influenzano i risultati in termini di qualità della vita. Il primo è la capacità di apprendimento istituzionale . Le società in grado di monitorare i risultati, imparare dagli errori e adattare i quadri di governance sono più resilienti, indipendentemente dalle condizioni iniziali. Il secondo è la distribuzione delle capacità . Laddove i sistemi di istruzione e formazione forniscono agli individui gli strumenti per comprendere e influenzare i sistemi di intelligenza artificiale, l’autonomia e il benessere migliorano. Dove ciò non avviene, dipendenza e alienazione aumentano.
Un terzo fattore determinante è la distribuzione del potere all’interno dei mercati dell’IA. Un controllo concentrato è fortemente correlato a risultati negativi sulla qualità della vita, a meno che non sia controbilanciato da istituzioni pubbliche solide. Infine, le scelte di progettazione psicologica – il modo in cui i sistemi di IA comunicano l’incertezza, allocano le responsabilità e strutturano l’interazione umana – hanno effetti cumulativi che rivaleggiano per importanza con i fattori economici.
La qualità della vita nell’era dell’IA non è quindi un sottoprodotto dell’innovazione, ma il risultato di una progettazione intenzionale che coinvolge ambiti tecnici, istituzionali e sociali . Dieci anni sono sufficienti perché piccole differenze nella qualità della governance si trasformino in grandi differenze nell’esperienza vissuta. Le società che trattano l’IA come uno strumento neutrale di efficienza rischiano di imboccare traiettorie che minano l’autonomia e la fiducia. Le società che trattano l’IA come una forma di infrastruttura sociale, soggetta a supervisione democratica e investimenti a lungo termine, mantengono la capacità di orientare i risultati.
Gli scenari delineati qui non esauriscono tutte le possibilità, ma chiariscono un’intuizione fondamentale: la futura qualità della vita sotto l’IA dipende dal percorso, ma non è predeterminata . Le decisioni prese oggi negli uffici appalti, nei comitati per gli standard, nei ministeri dell’istruzione, nelle trattative del lavoro e nella pianificazione delle infrastrutture determineranno se l’IA diventerà una forza di empowerment collettivo o un meccanismo di controllo concentrato. La fase finale dell’analisi si concentrerà quindi sulla traduzione di queste intuizioni di scenario in indicatori concreti, leve politiche e raccomandazioni strategiche in grado di influenzare la traiettoria prevalere.
12. Condizioni politiche, compromessi e scelte strategiche nella transizione all’intelligenza artificiale
Il fattore determinante di come l’intelligenza artificiale modellerà le società nel prossimo decennio non sarà la capacità tecnologica, l’andamento del mercato o persino la rivalità geopolitica isolatamente, ma le condizioni politiche in cui l’IA viene sviluppata, implementata e governata . La politica, intesa in senso lato, comprende non solo la legislazione formale, ma anche le scelte fiscali, la progettazione istituzionale, le pratiche di appalto, la riforma dell’istruzione, la regolamentazione del lavoro, le politiche sulla concorrenza e le priorità implicite codificate negli investimenti pubblici. Queste scelte strutturano incentivi e vincoli che canalizzano gli effetti dell’IA verso particolari risultati sociali, precludendone altri.
Questo capitolo esamina, in modo approfondito, le condizioni in cui l’IA può migliorare o peggiorare la qualità della vita , gli inevitabili compromessi che i decisori politici devono affrontare e le scelte strategiche che distinguono le società adattive e resilienti da quelle che diventano tecnologicamente dipendenti, socialmente frammentate o politicamente destabilizzate. L’analisi parte dalla premessa stabilita in tutto il rapporto: l’IA è una tecnologia generica e path-dependent, i cui effetti sociali sono emergenti , cumulativi e distribuiti in modo non uniforme. Le politiche non determinano i risultati con precisione, ma influenzano fortemente le distribuzioni di probabilità nei possibili futuri.
Una condizione politica di primo ordine riguarda la capacità pubblica . La governance dell’IA richiede un livello di competenza tecnica, organizzativa e analitica all’interno delle istituzioni pubbliche che molti stati attualmente non possiedono. Senza questa capacità, anche leggi e principi ben progettati rimangono inapplicati o vengono implementati in modi che favoriscono gli attori privati più potenti. La capacità pubblica include non solo le competenze tecniche, ma anche la capacità di acquisire, verificare, monitorare e adattare i sistemi di IA nel tempo. Include anche la capacità di coordinamento tra ministeri, agenzie e livelli di governo, poiché l’impatto dell’IA trascende i tradizionali compartimenti stagni burocratici.
L’investimento in capacità pubblica non è quindi accessorio, ma fondamentale. Gli Stati che trattano la governance dell’IA come una funzione di conformità marginale tendono a esternalizzare sia l’implementazione che la supervisione ai fornitori, creando dipendenza e asimmetria informativa. Nel tempo, questo erode l’autonomia politica. Al contrario, gli Stati che investono in competenze interne – data scientist, ingegneri di sistema, revisori, esperti di etica e specialisti di settore – sono in una posizione migliore per allineare l’implementazione dell’IA agli obiettivi pubblici. Questo investimento ha costi opportunità, ma l’alternativa è la perdita di controllo a lungo termine sulle infrastrutture sociali critiche.
Una seconda condizione politica riguarda la sovranità infrastrutturale , in particolare nel settore dell’elaborazione, dei dati e dei beni pubblici digitali. Come affermato nei capitoli precedenti, l’infrastruttura di intelligenza artificiale è ad alta intensità di capitale e soggetta a concentrazione. Lasciata interamente alle forze di mercato, questa concentrazione si traduce in una dipendenza strutturale per i servizi pubblici, le PMI e gli istituti scolastici. Le scelte politiche relative all’elaborazione pubblica o condivisa, agli spazi dati nazionali o regionali e alle infrastrutture digitali aperte hanno quindi implicazioni a lungo termine per la resilienza economica e la responsabilità democratica.
Il compromesso in questo caso è tra efficienza a breve termine e autonomia a lungo termine. L’esternalizzazione delle infrastrutture di intelligenza artificiale a fornitori globali dominanti appare spesso più economica e rapida nel breve termine. Tuttavia, espone le istituzioni al potere di determinazione dei prezzi, al lock-in contrattuale e a regimi giuridici extraterritoriali. Costruire infrastrutture pubbliche o sovrane è costoso e complesso, ma preserva l’opzionalità strategica. La scelta politica non è binaria; sono possibili modelli ibridi. Ciò che conta è se gli Stati gestiscono consapevolmente la dipendenza o se vi si abbandonano automaticamente.
Una terza condizione riguarda la politica della concorrenza e della struttura del mercato . I mercati dell’IA mostrano una naturale tendenza alla concentrazione dovuta alle economie di scala, ai vantaggi dei dati e agli effetti della piattaforma. Se non controllate, queste dinamiche minano la diversità dell’innovazione, il potere contrattuale del lavoro e la leva politica. Le politiche della concorrenza nell’era dell’IA non possono quindi basarsi esclusivamente sulle tradizionali metriche basate sui prezzi. Devono affrontare il controllo su dati, elaborazione, interfacce e standard.
Ciò introduce difficili compromessi. Un intervento antitrust aggressivo può rallentare alcune forme di innovazione o ridurre la competitività globale delle imprese nazionali. Al contrario, approcci permissivi possono consolidare strutture monopolistiche la cui inversione è politicamente ed economicamente costosa. La scelta strategica implica la decisione su quali livelli dello stack di intelligenza artificiale debbano rimanere contendibili , quali debbano essere regolamentati come quasi-infrastrutture e quali forme di integrazione siano accettabili. Si tratta di decisioni normative sulla struttura economica, non di giudizi puramente tecnici.
Le politiche del mercato del lavoro rappresentano un altro ambito critico di compromessi. L’intelligenza artificiale può aumentare la produttività e creare nuove forme di lavoro, ma accelera anche la sostituzione delle mansioni, l’obsolescenza delle competenze e la volatilità del reddito. Le scelte politiche determinano se queste transizioni siano vissute come opportunità o come minaccia. Politiche attive del mercato del lavoro, sostegno al reddito durante le transizioni, quadri di contrattazione collettiva adattati alla gestione algoritmica e limiti al monitoraggio intrusivo influenzano tutti i risultati.
Il compromesso fondamentale risiede tra flessibilità e sicurezza. I mercati del lavoro altamente flessibili possono adattarsi rapidamente, ma impongono elevati costi di adattamento agli individui, aumentando lo stress e la disuguaglianza. I sistemi altamente protettivi possono preservare la stabilità, ma rallentare l’adattamento. La sfida strategica è progettare una sicurezza adattiva : sistemi che consentano il movimento attenuando al contempo il rischio. Ciò richiede finanziamenti costanti e consenso politico, poiché i benefici sono diffusi mentre i costi sono visibili.
Le politiche educative sono forse la leva più influente a lungo termine. Come discusso in precedenza, l’intelligenza artificiale ridefinisce il significato di essere qualificati, competenti e competenti. Le scelte politiche riguardanti curricula, valutazione, formazione degli insegnanti e accesso agli strumenti di intelligenza artificiale determinano se le future generazioni svilupperanno autonomia, giudizio critico e capacità di apprendimento, o se diventeranno dipendenti da sistemi cognitivi esterni.
Qui il compromesso è tra prestazioni misurabili e capacità approfondite . La personalizzazione e l’automazione basate sull’intelligenza artificiale possono migliorare i risultati a breve termine, ma possono minare la comprensione a lungo termine se non progettate con attenzione. La scelta strategica richiede di resistere alla tentazione di ottimizzare l’istruzione esclusivamente per l’efficienza o i punteggi dei test, e di investire invece in modelli pedagogici che coltivino la metacognizione, il ragionamento etico e l’adattabilità. I ritorni di tali investimenti sono tardivi ma sostanziali, influendo sulla resilienza economica e sulla stabilità democratica decenni dopo.
La governance dell’IA nei servizi pubblici introduce ulteriori dilemmi strategici. L’IA può ampliare l’accesso e ridurre gli oneri amministrativi, ma può anche spersonalizzare i servizi e amplificare l’esclusione se implementata senza garanzie. Le politiche devono bilanciare efficienza e giustizia procedurale. Ciò implica scelte in termini di supervisione umana, contestabilità, trasparenza e accesso multicanale. I sistemi completamente automatizzati sono più economici e veloci; i sistemi ibridi preservano legittimità e fiducia. Questi ultimi sono più costosi, ma la loro assenza può generare una reazione sociale che in ultima analisi mina l’efficacia istituzionale.
Un’altra dimensione politica critica è la tolleranza al rischio e la precauzione . I sistemi di intelligenza artificiale comportano danni incerti e potenzialmente irreversibili, in particolare quando implementati su larga scala in ambiti sensibili. I decisori politici devono decidere quanta incertezza sia accettabile e chi abbia l’onere della prova. Gli approcci precauzionali danno priorità alla sicurezza e alla tutela dei diritti, ma possono rallentare l’implementazione. Gli approcci permissivi accelerano l’innovazione, ma rischiano di causare danni sistemici.
Queste scelte non sono meramente tecniche; riflettono valori sociali in materia di dignità, autonomia e rischio accettabile. È importante sottolineare che la tolleranza al rischio è spesso distribuita in modo asimmetrico: coloro che beneficiano maggiormente della rapida adozione dell’IA sono raramente coloro che si assumono i rischi maggiori. Un’azione politica efficace richiede quindi meccanismi per rappresentare e proteggere le popolazioni vulnerabili, le cui voci vengono altrimenti emarginate nei dibattiti sull’innovazione.
Il coordinamento internazionale introduce un ulteriore livello di complessità. I sistemi di intelligenza artificiale operano a livello transfrontaliero, mentre la governance rimane radicata a livello nazionale. Regimi normativi divergenti creano sfide di conformità e opportunità di arbitraggio. Le scelte strategiche implicano la decisione su dove l’armonizzazione è essenziale (ad esempio, standard di sicurezza, tutela dei diritti umani) e dove la diversità può essere tollerata o addirittura vantaggiosa. Un’eccessiva frammentazione indebolisce l’applicazione delle norme e aumenta i costi; un’armonizzazione eccessiva può privilegiare i modelli dominanti e sopprimere l’innovazione locale.
Considerazioni geopolitiche limitano ulteriormente lo spazio politico. Gli Stati sono sottoposti a pressioni per competere tecnologicamente, gestendo al contempo rischi per la sicurezza e preoccupazioni etiche. I controlli sulle esportazioni, lo screening degli investimenti e le alleanze tecnologiche sono sempre più utilizzati come strumenti politici. Questi strumenti possono proteggere interessi strategici, ma anche frammentare gli ecosistemi di innovazione globali ed esacerbare le disuguaglianze tra le regioni. I decisori politici devono soppesare il vantaggio nazionale con la stabilità e la cooperazione globali, riconoscendo che i rischi legati all’IA – disinformazione, vulnerabilità informatiche, impatto ambientale – sono transnazionali.
Alla base di tutte queste scelte c’è un compromesso fondamentale tra centralizzazione e pluralismo . I sistemi di intelligenza artificiale centralizzati promettono efficienza, coerenza e controllo. I sistemi pluralistici, caratterizzati da più fornitori, standard aperti e adattamento locale, offrono resilienza, diversità e partecipazione democratica. La centralizzazione semplifica la governance ma concentra il potere; il pluralismo disperde il potere ma complica il coordinamento. La scelta strategica implica decidere dove la centralizzazione è giustificata (ad esempio, infrastrutture critiche per la sicurezza) e dove il pluralismo dovrebbe essere preservato come salvaguardia contro il predominio e il fallimento sistemico.
Anche le condizioni politiche determinano compromessi temporali . I cicli politici a breve termine incentivano guadagni visibili e immediati, mentre molti benefici di una buona governance dell’IA – fiducia, sviluppo delle capacità, resilienza – si accumulano su orizzonti più lunghi. Ciò crea una tendenza a sottoinvestire in prevenzione e capacità. La leadership strategica richiede meccanismi che estendano gli orizzonti temporali, come organismi di controllo indipendenti, impegni di finanziamento a lungo termine e accordi interpartitici sulle politiche fondamentali dell’IA.
In definitiva, la sfida politica dell’IA non è quella di eliminare i compromessi, ma di renderli espliciti, deliberati e democraticamente responsabili . Molti risultati negativi dell’IA non derivano da una scelta consapevole, ma da disattenzione, frammentazione o deferenza alle dinamiche del mercato. Al contrario, le società che articolano priorità chiare – in termini di autonomia, equità, resilienza e sviluppo umano – possono orientare l’IA in modi che riflettano valori collettivi piuttosto che incentivi predefiniti.
L’analisi cumulativa di questo rapporto porta a una conclusione fondamentale: l’intelligenza artificiale amplifica i punti di forza e di debolezza istituzionali esistenti. Laddove la governance è coerente, inclusiva e lungimirante, l’IA migliora la qualità della vita e le capacità collettive. Laddove la governance è debole, frammentata o dominata da interessi ristretti, l’IA accelera la concentrazione, la dipendenza e la tensione sociale. Il fattore decisivo non è se l’IA venga adottata, ma a quali condizioni e a beneficio di chi .
Le condizioni politiche non sono quindi aggiustamenti periferici, ma strumenti primari di azione nella transizione verso l’IA. Le scelte strategiche fatte ora – in termini di infrastrutture, istruzione, lavoro, concorrenza e governance – plasmeranno l’esperienza vissuta per decenni. La finestra temporale per plasmare queste traiettorie è limitata. Man mano che i sistemi di IA diventano più profondamente radicati, l’inversione di tendenza diventa costosa e politicamente difficile. La responsabilità di decisori politici, istituzioni e società non è quindi quella di prevedere il futuro, ma di scegliere deliberatamente tra futuri plausibili , consapevoli dei compromessi coinvolti e impegnati a preservare l’azione umana, la dignità e il benessere collettivo in un mondo sempre più automatizzato.
Copyright di debugliesintel.com
La riproduzione anche parziale dei contenuti non è consentita senza previa autorizzazione – Riproduzione riservata
