Il potere dei volti
L’intelligenza artificiale (IA) pone sfide profonde e senza precedenti al diritto costituzionale. Tra queste, la tecnologia di riconoscimento facciale (FRT) rappresenta una delle più emblematiche, perché mostra come si stia ricalibrando il rapporto verticale di potere tra individuo e Stato nel contesto dell’IA. Partendo da questo quadro, la mia ricerca, “Constitutional Safeguards in the Age of AI. A Study on the Fundamental Rights Impact Assessment of Facial Recognition Technology”, utilizza la FRT come laboratorio per analizzare le tensioni tra sicurezza, diritti fondamentali e governance dell’IA.
L’intuizione centrale di questa ricerca è che gli abusi di potere possono verificarsi non nonostante la legge, ma attraverso la legge. Il vero rischio della FRT non risiede soltanto nel suo uso improprio, ma nella sua normalizzazione tramite una legislazione che regola in modo inadeguato le procedure di autorizzazione, applicazione e controllo. Se la legge è debole, vaga o eccessivamente discrezionale, anche un impiego formalmente corretto della tecnologia può svuotare le tutele dei diritti. Questa prospettiva ha guidato la tesi: verificare se la regolamentazione europea, e in particolare l’AI Act, incorpori davvero garanzie in grado di resistere alla pressione costituzionale della sorveglianza biometrica.
Due casi esemplificano le questioni in gioco. Lo scandalo di Clearview AI — in cui miliardi di immagini sono state raccolte senza consenso per costruire banche dati biometriche — ha spinto a interventi regolatori e sanzioni in Europa e ha catalizzato la stesura dell’AI Act. La sentenza Glukhin v. Russia, pronunciata dalla Corte europea dei diritti dell’uomo, ha confermato i pericoli dell’uso indiscriminato della FRT nella sorveglianza pubblica, evidenziando non solo gravi interferenze, ma anche effetti dissuasivi sull’esercizio delle libertà democratiche.
In questo contesto, l’AI Act rappresenta il primo tentativo di risposta, introducendo una lex specialis per i sistemi di identificazione biometrica. Tra gli altri obblighi, per alcuni usi ad alto rischio dell’IA — in particolare quando coinvolgono autorità pubbliche — è previsto un Fundamental Rights Impact Assessment (FRIA), cioè una valutazione d’impatto sui diritti fondamentali. Tuttavia, lo strumento, così come concepito, attribuisce la responsabilità principalmente ai deployers, ossia a coloro che utilizzano la tecnologia. Rischia così di trasformarsi in una formalità procedurale effettuata quando le tecnologie sono già state integrate nelle pratiche di polizia o amministrative. Di conseguenza, la tesi sostiene che questo approccio è insufficiente. Un FRIA che intervenga solo nella fase di applicazione arriva troppo tardi: non può correggere un quadro legislativo che non ha stabilito limiti sostanziali in origine.
Per questo motivo, il lavoro riconcettualizza il FRIA come uno strumento normativo. Deve essere integrato già nella fase di elaborazione delle leggi, guidando gli Stati membri mentre recepiscono l’AI Act nelle proprie procedure nazionali. Nel prossimo anno, i legislatori dovranno stabilire chi autorizza l’uso della FRT, a quali condizioni, con quali limiti e sotto quali forme di controllo. Il modello che propongo offre criteri costituzionali per questo compito. Esso richiede un test ex ante di legalità e necessità prima che siano progettati i regimi di autorizzazione. Insiste sulla necessità di mappare i diritti più esposti, riconoscendo la vulnerabilità particolare di alcuni diritti fondamentali, come la protezione dei dati e il diritto a un ricorso effettivo (articoli 8 e 47 della Carta dei diritti fondamentali dell’UE). Integra inoltre la capacità di tutela direttamente nella struttura della legge, garantendo che gli individui possano conoscere, contestare e ottenere una revisione dell’uso della FRT.
L’analogia con le intercettazioni è illuminante. Anche in quel caso, la legge richiede un’autorizzazione giudiziaria preventiva e garanzie procedurali, proprio perché il potere esercitato è troppo invasivo per essere lasciato alla discrezionalità amministrativa. La sorveglianza biometrica richiede la stessa “costituzionalizzazione”. Limitarsi a regolare solo l’uso da parte dei deployers, senza incorporare garanzie nel disegno legislativo, significherebbe ripetere l’errore di considerare la legalità formale come sufficiente, mentre la giustizia sostanziale potrebbe essere negata.
Il riconoscimento facciale è quindi più di una sfida tecnologica: è un banco di prova per capire se il diritto costituzionale sia in grado di prevenire l’erosione dei diritti attraverso una progettazione anticipatoria. Un FRIA “costituzionalizzato”, collocato a livello legislativo, permette agli Stati membri di evitare che la legge stessa diventi il canale attraverso cui, nell’era dell’IA, le garanzie costituzionali vengono svuotate del loro contenuto.