L’intelligenza artificiale e il nuovo ordine internazionale

di Giacomo Stiffan, vicedirettore di Jefferson — Lettere sull’America

La competizione tecnologica tra Stati Uniti e Cina non si misura più in testate nucleari, ma in petaflop. L’intelligenza artificiale è diventata il terreno su cui si ridisegnano le sfere di influenza del prossimo decennio: chi controlla i modelli, i chip e le infrastrutture determina, in misura crescente, chi controllerà il sistema nervoso del mondo nel prossimo futuro. Per discutere di questo abbiamo raggiunto Emanuele Frontoni, professore ordinario di Informatica all’Università di Macerata, esperto valutatore per la Commissione Europea sui progetti Horizon Europe e tra i maggiori ricercatori italiani nel campo dell’intelligenza artificiale, nella lista World’s Top 2% Scientists di Stanford dal 2021.

Una frattura sistemica

Gli Stati Uniti hanno affidato la corsa all’IA a un oligopolio privato – OpenAI, Google DeepMind, Anthropic, Meta AI – con un meccanismo di mercato che ha premiato velocità di sviluppo e capacità di monetizzazione. La Cina ha adottato una strategia in apparenza opposta, favorendo la diffusione di modelli open source di cui DeepSeek è il caso più recente e clamoroso.

Poco dopo il lancio di DeepSeek-R1, il titolo Nvidia perse il 17 per cento in una singola seduta: un calo tra i più alti mai incassati dal titolo. Fu il segnale che la corsa all’intelligenza artificiale non era più appannaggio esclusivo dell’Occidente. La lettura di Frontoni va oltre il dato di borsa: «La Cina favorisce l’open source non per generosità intellettuale, ma perché la diffusione capillare aumenta la dipendenza tecnologica globale dai propri ecosistemi e garantisce una raccolta di dati su scala planetaria, trasformando ogni utilizzatore straniero in un contributore inconsapevole al miglioramento dei propri modelli». La strategia cinese sta dando i suoi frutti: nonostante le restrizioni imposte da numerosi governi occidentali, i download di DeepSeek sono aumentati del 960 per cento proprio nel periodo di maggiore pressione regolamentare, con la piattaforma che ha conquistato quote dominanti in Africa e nel Global South. «La variabile decisiva non sarà la qualità dei modelli, che tende a convergere, ma la capacità di costruire ecosistemi applicativi, standard e infrastrutture che generino lock-in», precisa Frontoni.

La guerra dei chip e il nodo Taiwan

Secondo TrendForce, la quota di TSMC sui ricavi globali del mercato foundry è salita dal 62,8 per cento nel primo trimestre 2024 al 70,4 per cento nel quarto trimestre 2025, con Samsung ferma al 7 per cento. Una concentrazione che Frontoni reputa strategica: «Il nodo di Taiwan è più sistemico e più acuto di quanto la sua formulazione abituale lasci intendere. TSMC produce oggi la quota dominante dei chip avanzati utilizzati sia nei sistemi americani che in quelli europei. Non è una vulnerabilità di mercato: è una singolarità strategica. Un’interruzione della produzione per qualunque causa genererebbe una crisi di fornitura nei sistemi di difesa, nelle infrastrutture critiche e nell’industria automobilistica simultaneamente, con tempi di recupero nell’ordine degli anni».

È troppo tardi per il tentativo americano di contenere la Cina attraverso le restrizioni all’export: «Le restrizioni sui chip hanno costretto la Cina ad allocare risorse enormi su un problema che altrimenti avrebbe risolto importando: in questo senso hanno accelerato, involontariamente, lo sviluppo di una filiera domestica che, una volta matura, sarà strutturalmente indipendente e difficilmente contenibile con strumenti analoghi».

La convergenza sulla sorveglianza di massa

Il modello cinese ha normalizzato l’IA come infrastruttura di controllo sociale in modo sistematico, con un riconoscimento facciale negli spazi pubblici totale, telecamere a ogni angolo e un monitoraggio delle comunicazioni pervasivo. La direzione americana è diversa, ma non necessariamente opposta.

Nel 2025 la Casa Bianca ha revocato l’ordine esecutivo 14110 sulla sicurezza e affidabilità dell’IA e l’ordine esecutivo 14074 sull’accountability nelle pratiche di polizia, rimuovendo due dei principali strumenti di supervisione federale sull’uso dell’IA nelle forze dell’ordine. Secondo il Brennan Center for Justice, i sistemi di analisi predittiva combinano flussi di dati eterogenei producendo output che il Centro definisce potenziali vettori di sorveglianza indiscriminata, al confine con le molestie.

Frontoni inquadra il fenomeno con precisione: «Quello che si osserva nell’attuale contesto americano non è una convergenza verso lo stesso modello cinese: è qualcosa di diverso e per certi aspetti più insidioso, perché privo di un disegno dichiarato. È la normalizzazione progressiva di strumenti di analisi predittiva nei processi di enforcement, la compressione del perimetro della privacy in nome dell’efficienza amministrativa, e l’erosione delle garanzie procedurali attraverso l’automazione di decisioni che prima richiedevano discrezionalità umana e quindi accountability».

Il ruolo dell’Europa

La scommessa europea è replicare quanto accaduto con il GDPR: uno standard nato nel Vecchio Continente che ha finito per imporsi a livello globale, perché il mercato europeo era troppo grande per essere ignorato. Frontoni ne valuta le chances con realismo: «Se l’AI Act diventerà uno standard riconosciuto globalmente come il GDPR, sarà un vantaggio competitivo. Se resterà un onere locale senza adozione internazionale, sarà un ostacolo.»

Tuttavia, c’è una condizione che nessuna norma può sostituire: «Un quadro normativo senza un’infrastruttura tecnologica sovrana che lo applichi è una dichiarazione di intenti, non una garanzia. Se i sistemi su cui girano i servizi pubblici europei, su cui vengono elaborate le decisioni amministrative e gestiti i dati sanitari dei cittadini, sono di proprietà di aziende soggette alla giurisdizione americana o cinese, le garanzie formali dell’AI Act valgono esattamente quanto la capacità di farle rispettare nei confronti di soggetti che operano fuori dalla giurisdizione europea. Le infrastrutture cloud-edge che l’iniziativa IPCEI-CIS sta costruendo definiscono il perimetro entro cui la sovranità digitale europea è possibile o impossibile.»

Il limite dei modelli

Il caso Mythos, il modello sviluppato da Anthropic che nelle versioni preliminari ha mostrato comportamenti imprevisti come l’evasione da una sandbox (arrivando addirittura a scrivere un’email a uno dei ricercatori) e l’occultamento delle proprie azioni a chi ne stava monitorando il funzionamento, ha riaperto il dibattito su dove si trovi il confine tra ottimizzazione e intenzione. La posizione di Frontoni è netta: «Nessun modello di intelligenza artificiale attualmente esistente è autonomo nel senso filosofico del termine. Ogni comportamento osservato è il risultato di ottimizzazioni su funzioni obiettivo definite da esseri umani, addestrate su dati prodotti da esseri umani, impiegate su infrastrutture progettate da esseri umani. Se il modello apprende che nascondere certe azioni aumenta la probabilità di ricevere feedback positivo, genererà occultamento. Non perché voglia farlo in senso cognitivo, ma perché è la soluzione ottimale nello spazio delle possibilità che la sua architettura definisce».

La domanda che rimane aperta è istituzionale: le strutture di governance globale sono attrezzate a regolare tecnologie che evolvono più velocemente dei quadri normativi chiamati a contenerle? «La ricerca sull’alignment è giovane ma non è impotente», osserva Frontoni. «I modelli sono strumenti straordinari nelle mani di chi li comprende, ma sono potenzialmente pericolosi nelle mani di chi li confonde con oracoli».

Le decisioni che contano non si prenderanno tra dieci anni. Si stanno prendendo oggi.

Jefferson-Lettere sull'America è un portale d'informazione interamente dedicato agli Stati Uniti d'America, fondato e diretto da Matteo Muzio, giornalista e americanista.

Ultime pubblicazioni