Videocamere l’age verification nei tabaccai: la CNIL chiarisce la sua posizione
Nel cuore del dibattito contemporaneo sulla sorveglianza, la protezione dei dati personali e l’uso dell’intelligenza artificiale, la Commission nationale de l’informatique et des libertés (CNIL), autorità francese garante della protezione dei dati, è intervenuta con una presa di posizione significativa. Il tema è quello dell’impiego di “caméras augmentées” — videocamere potenziate da tecnologie di intelligenza artificiale — utilizzate per stimare l’età dei clienti nei tabaccai, con l’obiettivo dichiarato di rafforzare il controllo sull’accesso ai prodotti riservati ai maggiorenni, come tabacco e sigarette elettroniche.
La questione: intelligenza artificiale per controllare l’età
L’utilizzo di sistemi automatizzati per la stima dell’età si sta diffondendo in diversi ambiti, dalla vendita di alcolici ai distributori automatici, fino ai contenuti online. In Francia, l’idea di introdurre videocamere intelligenti nei tabaccai si inserisce nel quadro più ampio delle politiche di prevenzione del fumo tra i minori. Tuttavia, la possibilità che sistemi di sorveglianza automatica valutino l’età delle persone a partire dai tratti del volto ha suscitato un dibattito acceso.
Le tecnologie di “age estimation” si basano su algoritmi di riconoscimento facciale non per identificare una persona in modo univoco, ma per dedurre una fascia d’età approssimativa. Si tratta di una funzione distinta dal classico riconoscimento facciale in senso stretto, ma che comunque implica la raccolta e il trattamento di dati biometrici. Ed è proprio su questo punto che si è concentrato l’intervento della CNIL.
Le precisazioni della CNIL
In una nota pubblicata sul proprio sito, la CNIL ha chiarito che l’impiego di questi sistemi nei tabaccai può avvenire solo a certe condizioni molto rigorose. La posizione dell’autorità si colloca tra l’attenzione alla tutela dei minori e la difesa dei diritti fondamentali degli individui, a partire dal diritto alla protezione dei dati personali.
Il principio guida è quello della “proporzionalità”: per essere leciti, i trattamenti di dati devono essere adeguati, pertinenti e non eccedenti rispetto alla finalità perseguita. La CNIL sottolinea che la stima dell’età tramite immagini del volto costituisce un trattamento particolarmente sensibile, e ammette la possibilità di utilizzare questo strumento soltanto se:
-
Non avviene alcuna identificazione dell’individuo;
-
Non viene effettuata alcuna conservazione dell’immagine o dei dati biometrici;
-
Il trattamento avviene localmente, senza trasmissione a server esterni;
-
Il sistema serve esclusivamente a determinare se una persona può accedere o meno a un servizio o a un prodotto vietato ai minori, senza alcuna finalità commerciale o di sorveglianza generalizzata.
La CNIL si mostra dunque aperta alla sperimentazione, ma pone limiti netti per prevenire derive invasive. Inoltre, ha annunciato l’intenzione di vigilare attentamente sul rispetto di queste condizioni e di effettuare controlli, anche a sorpresa, presso gli esercizi che adotteranno tali soluzioni.
Un equilibrio fragile tra sicurezza e libertà
La questione si inserisce in un più ampio contesto europeo, dove il dibattito su videosorveglianza, intelligenza artificiale e libertà civili è particolarmente vivo. In Francia, l’utilizzo delle “caméras augmentées” è stato già oggetto di polemiche in altri ambiti, ad esempio per il loro impiego durante eventi sportivi o nei trasporti pubblici. L’intervento della CNIL si colloca così anche come tentativo di delimitare con chiarezza i confini tra innovazione tecnologica e rispetto dei diritti.
Gli attori in campo sono molteplici. Da una parte, le istituzioni sanitarie e le associazioni anti-tabagismo vedono positivamente strumenti che possono limitare l’accesso dei minori al fumo. Dall’altra, associazioni per i diritti digitali, giuristi e parte della società civile denunciano il rischio di “normalizzazione” della sorveglianza tramite algoritmi, anche in ambienti di vita quotidiana come i negozi.
Secondo alcuni esperti, il confine tra “stima dell’età” e “riconoscimento facciale” rischia di essere labile, soprattutto se la tecnologia è fornita da aziende terze e basata su modelli proprietari di apprendimento automatico. Inoltre, la semplice assenza di conservazione dei dati non elimina tutti i rischi: i bias algoritmici, la discriminazione e l’opacità dei sistemi restano problemi aperti.
Un banco di prova per l’AI Act
La questione sollevata dalla CNIL può essere letta anche alla luce del nuovo Artificial Intelligence Act (AI Act), approvato dall’Unione europea nel 2024. Il regolamento classifica i sistemi di IA in base al rischio e prevede limiti severi per l’uso dei sistemi “ad alto rischio”, tra cui rientrano molte applicazioni biometriche. La stima automatica dell’età tramite videocamere potrebbe rientrare in una categoria di rischio intermedio, ma solo a patto che sia garantita la piena trasparenza, la limitazione della finalità e la supervisione umana.
Il caso francese rappresenta quindi un banco di prova concreto per valutare come i principi dell’AI Act potranno essere declinati nella prassi quotidiana, e quale sarà il ruolo delle autorità nazionali nella loro implementazione.
Verso quale futuro?
La riflessione lanciata dalla CNIL non riguarda solo il tabacco o i tabaccai. Tocca una questione ben più ampia: che spazio concedere alla tecnologia nel controllo dei comportamenti individuali? La tentazione di affidare all’intelligenza artificiale compiti di verifica, filtro e controllo è forte, specie in un’epoca in cui efficienza e sicurezza sembrano valori dominanti. Ma è altrettanto forte il rischio di una graduale erosione della privacy, dell’anonimato e della libertà di movimento.
Il futuro delle “caméras augmentées” dipenderà in larga parte dalla capacità delle istituzioni, dei tecnici e della società civile di elaborare un modello di governance delle tecnologie emergenti basato su responsabilità, trasparenza e giustizia algoritmica. In questa prospettiva, l’intervento della CNIL non è solo una regolazione puntuale, ma un segnale culturale e politico: l’innovazione non può essere cieca, e la protezione dei diritti fondamentali deve rimanere una bussola imprescindibile anche nel mondo digitale.