
Le leggi della sicurezza dell’IA
Come in ogni altro ambito della nostra vita, anche il settore della sicurezza nazionale è sempre più influenzato dalla tecnologia, inclusa l’intelligenza artificiale (IA). Sebbene l’assunto secondo cui la tecnologia sia neutrale — né “buona” né “cattiva” di per sé — sia particolarmente vero in questo campo, la natura sensibile delle questioni di sicurezza richiede grande attenzione all’impatto che tali tecnologie possono avere sulla tutela dei diritti e delle libertà e, in ultima analisi, sulle caratteristiche fondamentali dello Stato di diritto.
Affrontiamo le conseguenze giuridiche della tecnologia avanzata nella sicurezza nazionale da due prospettive principali: da un lato, la tecnologia è uno strumento potente nelle mani dei terroristi, sfruttato da loro e dalle loro organizzazioni per fini criminali; dall’altro, è un alleato essenziale per le autorità pubbliche — e per altri attori che con esse collaborano — nella prevenzione e nel contrasto al terrorismo. Esaminare questi due lati in parallelo è cruciale per comprendere appieno sia la dimensione positiva sia quella negativa della tecnologia.
In questa prospettiva, e con un approccio comparato, riflettiamo su ciò che il diritto — cioè la regolamentazione legale — può o non può (e dovrebbe o non dovrebbe) fare, quali siano le sue potenzialità e i suoi limiti e come debba interagire con soggetti diversi dalle tradizionali autorità regolatorie, come le piattaforme digitali e le cosiddette big tech.
Per quanto riguarda il rapporto tra diritti e sicurezza, evidenziamo che questo diventa sempre più spesso una questione in mano ad attori privati, perdendo la tradizionale connessione con la sovranità e la sfera pubblica. Non si tratta di un problema meramente teorico, poiché i soggetti privati operano secondo logiche del tutto diverse dalle autorità pubbliche; in particolare, sono mossi da obiettivi di mercato e di competizione, che possono distorcere, o quantomeno modificare, il modo in cui si bilancia la sicurezza con i diritti.
Sul piano regolatorio, è noto che esistono diversi approcci: da tentativi di regolamentazione onnicomprensiva centrata sui diritti, come nell’Unione Europea con il recente AI Act, fino alla deregolamentazione statunitense, passando per la visione statocentrica cinese. Tutti questi modelli, derivanti da diverse culture giuridiche e scelte politiche, condividono lo stesso limite: non stabiliscono regole chiare, né principi generali, per i casi in cui l’IA sia cruciale per scopi di sicurezza. Per questo suggeriamo un approccio più settoriale, con una sorta di lex specialis dedicata alle tecnologie avanzate nel contrasto al terrorismo. Tale approccio, però, non deve lasciare indietro le big tech, che non possono essere i leader nella regolamentazione di IA e sicurezza, ma devono diventare attori chiave in un quadro equilibrato e realistico. Alcuni segnali in questa direzione si intravedono già — ad esempio nell’UE — ma lo sforzo può essere rafforzato.
Dal punto di vista geopolitico, i diversi approcci alla regolamentazione di tecnologia, diritti e sicurezza in varie aree del mondo hanno alimentato una competizione per la predominanza in questo campo. L’UE ha cercato di assumere la leadership attraverso il cosiddetto Brussels effect, che tuttavia rischia di ridimensionarsi, alla luce dei recenti eventi in cui i poteri privati hanno assunto un ruolo sempre più rilevante, specialmente in alcune aree del mondo.
In questo contesto, è difficile prevedere un “modello vincente” nella gestione del rapporto tra tecnologia, sicurezza e diritti, poiché esso è strettamente legato al potere politico degli attori e al contesto socioeconomico. Tuttavia, sosteniamo la necessità di un approccio che massimizzi la tutela dei diritti a livello globale, invece di perseguire solo una leadership di mercato, mantenendo così il rapporto tra diritti e sicurezza entro la cornice dello Stato di diritto.
Per rafforzare questo processo complesso, proponiamo alcune linee di intervento. Ad esempio, il dialogo tra rappresentanti dell’UE e dei paesi terzi potrebbe favorire un cambiamento culturale verso standard extra-UE più elevati. Parallelamente, l’introduzione di incentivi come sgravi fiscali per le imprese che offrono servizi nell’UE — accompagnati dall’obbligo di rispettare la normativa europea a tutela dei diritti — potrebbe compensare i costi di conformità, che altrimenti renderebbero il mercato europeo meno attrattivo per le aziende straniere.
In sintesi, l’obiettivo finale dovrebbe essere quello di evitare lotte per una leadership unilaterale, a favore di un approccio di governance equilibrato, che tenga conto di tutti gli attori coinvolti.