L’AI DI PECHINO E LA STRATEGIA DEL “PESO APERTO”: UN’ANALISI CRIMINOLOGICA SULLA NUOVA MINACCIA ALLA SICUREZZA NAZIONALE.

Dr. Mauro Ziani Colonnello dell’Arma dei Carabinieri (ris.), già Security Officer del NATO Stability Policing Centre of Excellence

Il recente rapporto dello Stanford HAI (dicembre 2025), intitolato “Beyond DeepSeek. China’s Diverse Open-Weight AI Ecosystem and Its Policy Implications”, non è solo una cronaca dell’evoluzione tecnologica cinese, ma rappresenta la descrizione di un cambio di paradigma che dovrebbe far tremare i polsi a chiunque si occupi di sicurezza nazionale e protezione delle aziende strategiche.  Mentre l’Occidente si prodigava per limitare l’accesso ai chip fisici, Pechino ha risposto con una manovra di aggiramento asimmetrico basata sulla diffusione massiccia di modelli “open-weight”. Per comprendere la portata della sfida, è necessario distinguere questi sistemi da quelli “chiusi” a cui siamo abituati. In un sistema chiuso (es. la versione commerciale di ChatGPT) l’utente interagisce con l’intelligenza artificiale attraverso una sorta di “vetro blindato”: il fornitore controlla ogni input, applica filtri etici in tempo reale e può interrompere il servizio istantaneamente se rileva abusi. Al contrario, un modello a “pesi aperti”consegna nelle mani dell’utente la “mente” stessa dell’algoritmo, ovvero i parametri numerici che ne determinano il ragionamento e le risposte. Una volta scaricati questi pesi,  il modello non risponde più a un’autorità centrale; può essere modificato, privato dei suoi blocchi di sicurezza e fatto girare su infrastrutture private e criptate, permettendo al criminale o al terrorista di cambiare completamente pelle. Questa scelta di Pechino, che a prima vista appare come una democratizzazione tecnologica, nasconde quindi un’insidia senza precedenti. Se i sistemi chiusi offrono una tracciabilità che scoraggia l’uso malevolo, la natura “open-weight” permette ad attori ostili o cellule eversive di disporre di una potenza di calcolo avanzata totalmente “off-grid”. Dal punto di vista della lotta al terrorismo, ci troviamo di fronte a un potenziale disastro: la possibilità di pianificare attacchi complessi, scrivere codici per malware sofisticati o generare propaganda su scala industriale senza che alcun fornitore cloud possa monitorarne o bloccarne l’esecuzione. Questa minaccia si estende direttamente al cuore della nostra sicurezza nazionale, trasformando i modelli AI in veri e propri cavalli di Troia algoritmici. Come sottolineato nel report, i modelli cinesi devono superare rigidi test di “fedeltà politica” interna prima di essere rilasciati; ciò introduce per noi il rischio di backdoor cognitive o bias manipolatori capaci di destabilizzare le istituzioni durante le fasi di crisi. L’adozione di queste tecnologie nelle nostre filiere non è quindi solo una questione economica, ma una vulnerabilità sistemica che mina la nostra sovranità tecnologica, rendendoci dipendenti da strumenti che, a differenza dei sistemi chiusi occidentali, sfuggono a standard condivisi di controllo e trasparenza. Parallelamente, il fronte delle imprese strategiche — dall’energia alla difesa — si ritrova oggi sotto un assedio invisibile. La minaccia non è più rappresentata soltanto dall’hacker che forza un perimetro esterno, ma dalla “scatola nera” dell’algoritmo che introduciamo pacificamente nei nostri sistemi. Attraverso tecniche di data poisoning o prompt injection, organizzazioni criminali e attori statali possono spingere l’intelligenza artificiale aziendale a esfiltrare segreti industriali o a sabotare dall’interno le linee di produzione, sfruttando il fatto che un modello a pesi aperti può essere manipolato alla radice per rispondere a scopi malevoli. Non è più sufficiente proteggere il perimetro con un firewall quando la logica stessa del software può essere compromessa prima ancora dell’installazione. Per reagire a questa sfida, dobbiamo adottare una mentalità di “Zero Trust AI”, trattando ogni modello esterno come una potenziale minaccia che va isolata e testata con prove di contro-manipolazione. La difesa dei nostri confini e del corretto funzionamento delle imprese non passa più solo attraverso barriere fisiche, ma attraverso la protezione dei parametri e dei pesi di quegli algoritmi che oggi governano la nostra realtà. Solo integrando la criminologia con la scienza dei dati potremo prevedere questi nuovi vettori di attacco e blindare il nostro futuro prima che la democratizzazione della potenza di calcolo si trasformi definitivamente in una democratizzazione del male. Occorre cioè superare la visione dell’intelligenza artificiale come un semplice strumento tecnico per iniziare a trattarla come oggetto/soggetto del crimine. In questo nuovo paradigma, il “data scientist” fornisce gli strumenti per capire come l’algoritmo funziona, mentre il “criminologo” analizza come quell’algoritmo possa essere manipolato da una mente criminale o terroristica per raggiungere i propri scopi. Nello specifico, questa integrazione deve svilupparsi su tre livelli operativi. In primo luogo, si passa dall’analisi statistica descrittiva alla profilazione predittiva delle vulnerabilità. La scienza dei dati ci dice, ad esempio, che un modello a pesi aperti può essere “fine-tunnato” (specializzato) con pochi dati; la criminologia interviene qui per mappare quali set di dati un gruppo terroristico potrebbe utilizzare per trasformare un assistente neutro in un esperto di guerriglia urbana o nella sintesi di sostanze pericolose. Integrare le due discipline permette di prevedere non solo se un modello può essere violato, ma come un criminale specifico cercherà di farlo in base ai suoi obiettivi tattico/strategici. In secondo luogo, l’integrazione riguarda la “Digital Forensics” applicata ai modelli. Se un’impresa subisce un sabotaggio o un’esfiltrazione di informazioni mediata da un’AI, la sola scienza dei dati potrebbe non bastare a ricostruire l’accaduto. Serve la metodologia criminologica per analizzare le “tracce logiche” lasciate nei pesi del modello o nei log delle interazioni (prompt), cercando di distinguere tra un errore algoritmico e un attacco intenzionale di data poisoning. È, in sostanza, l’analisi delle impronte digitali lasciate dentro la “mente” dell’intelligenza artificiale. Infine, questa sinergia permette di sviluppare strategie di difesa proattiva. Mentre la scienza dei dati si occupa di rendere il modello più robusto tecnicamente, la criminologia aiuta a progettare i cosiddetti “honeypot”algoritmici o “test di adversarial prompting” che simulano i reali schemi di attacco di attori statali o gruppi eversivi. Invece di limitarsi a proteggere il dato, si analizza il modus operandi dell’attaccante per costruire difese che siano modellate sulle reali minacce alla sicurezza nazionale e al corretto funzionamento delle imprese strategiche. In sintesi, integrare queste due scienze significa dotare l’analista di una “lente binoculare”: con un occhio osserva il codice e i parametri numerici (scienza dei dati), con l’altro osserva l’intenzionalità e il comportamento deviato (criminologia), permettendo così di blindare i nostri sistemi prima che la minaccia si concretizzi.