Il recente approccio regolatorio del Regno Unito in materia di tecnologie emergenti: il quadro di etica, trasparenza e responsabilità per il processo decisionale automatizzato
Il governo del Regno Unito ha recentemente pubblicato, con il supporto del Cabinet Office in collaborazione con il Central Digital and Data Office e l’Office for Artificial Intelligence, il suo quadro di “Ethics, Transparency and Accountability Framework for Automated Decision-Making”, in conformità alle linee guida generali dettate dal Data Ethics Framework, per garantire, in funzione di una possibile implementazione operativa della strategia generale in materia di tecnologie emergenti, «un uso sicuro, sostenibile ed etico dei sistemi decisionali automatizzati o algoritmici» applicabili al settore pubblico, mediante la formulazione di una serie di principi fondamentali – unitamente integrata dalla descrizione pratica dei relativi usi – cui gli sviluppatori dovrebbero attenersi nell’elaborazione dei sistemi decisionali automatizzati.
La scelta governativa di formulare i predetti principi – allo stato attuale in termini di mere raccomandazioni non cogenti, prive di valore giuridicamente vincolante – ispirandosi al rapporto del Consiglio d’Europa “Intelligenza artificiale e protezione dei dati: sfide e rimedi possibili” – e in attuazione dei Principi dell’IA OCSE – sembra derivare dalla percepita sfiducia collettiva nell’attuale standard di regolamentazione dedicata al settore tecnologico avanzato, così come rilevata da un studio realizzato, a livello europeo, dall’Organizzazione europea dei consumatori (BEUC), ulteriormente confermato dalle evidenze statistiche formalizzate nel sondaggio pubblicato dall’ente di ricerca britannico BCS, da cui si evince che più della metà (53%) delle persone del Regno Unito non si fida degli algoritmi utilizzati per effettuare analisi predittive e predisporre giudizi destinati ad incidere sulla propria libertà di scelta, a fronte di un residuale 7% di utenti più ottimisticamente propenso all’uso degli algoritmi nei settori pubblici (il grado di maggiore fiducia risulta attestato soprattutto nella fascia di età anagrafica tra i 18-24enni ove si riscontra un atteggiamento generalmente più favorevole e recettivo, rispetto al ritardo – anche cognitivo – registrato tra gli over 55, che incide sullo stato di scarsa consapevolezza e di tendenziale diffidenza circa i possibili effetti derivanti dallo sviluppo delle tecnologie).
Per tale ragione, il governo britannico ha predisposto la guida, prendendo in considerazione la discriminazione algoritmica mediante un’indispensabile attività di supervisione politico-istituzionale funzionale ad assicurare il rispetto dei canoni di uguaglianza ed equità nel settore pubblico, riducendo il rischio di distorsioni storiche (“Historical bias”) determinate da un processo decisionale opaco precedentemente distorto da disuguaglianze sociali o storiche, nonché alterato dal modo in cui i dati vengono raccolti e selezionati (“Data selection bias”), da sistemi di progettazione algoritmica (“Algorithmic design bias”), o da giudizi umani (“Human overshight”) che influenzano la programmazione delle operazioni di output nella codifica di un pregiudizio inserito nel funzionamento del sistema e quindi destinato a sfociare nella decisione finale, con conseguente violazione della disciplina contenuta nell’Equality Act 2010, che vieta qualsivoglia discriminazione posta in essere sulla base di determinate caratteristiche protette (età, razza, sesso, disabilità) nelle funzioni pubbliche e nella fornitura di beni e servizi, sia nella forma di una “discriminazione diretta”, sia come “discriminazione indiretta” frequentemente prodotto dall’utilizzo di algoritmi tecnologici.
Peraltro, come ulteriore criticità tecnologicamente rilevante, gli algoritmi non risultano connotati da una ragionevole elasticità di giudizio, a differenza dei processi decisionali umani che consentono di temperare la rigidità delle regole applicabili al caso concreto mediante il ricorso al canone dell’equità per ponderare il bilanciamento delle circostanze individuali specifiche esistenti.
In tale prospettiva, è emersa la necessità di predisporre, nell’ambito della complessiva revisione degli standard tecnici IA, una guida operativa più chiara e semplificata sull’uso etico degli algoritmi nel settore pubblico, in un’ottica esplicativa pratica, evitando l’enunciazione di orientamenti astratti e tecnologicamente complessi, che impediscono la completa ed esaustiva comprensione del funzionamento tecnico dei relativi sistemi, come rilevante “vulnus” ostativo al proficuo e pervasivo sviluppo dell’innovazione digitale in condizioni diffusamente trasparenti e inclusive, anche alla luce di quanto auspicato dal Digital, Data and Technology ( DDaT ), che individua, come prioritario miglioramento del livello di alfabetizzazione digitale generale del processo decisionale automatizzato e/o algoritmico proprio la specificazione normativa, in sede di definizione regolatoria, di informazioni chiare e comprensibili, al pari dell’individuazione di concrete implicazioni pratiche del quadro giuridico applicabile al settore tecnologico: ricorrere, infatti, ad una tecnica legislativa eccessivamente sofisticata aggrava i problemi di normazione – già complessi – esistenti in materia.
Il quadro UK di etica, trasparenza e responsabilità ricostruisce in senso ampio e generale la nozione applicativa di “processo decisionale automatizzato”, per indicare, in applicazione dell’art. 22 del Regolamento 679/2016/UE in combinato disposto con il considerando 43 GDPR, non solo le operazioni algoritmiche decisionali integralmente automatizzate (senza nessuna incidenza valutativa umana nel relativo esito e, pertanto, dalle più problematiche implicazioni regolatorie), ma anche il processo decisionale automatizzato assistito (ove sussiste la presenza di un controllo umano nel funzionamento dei relativi sistemi tecnologici).
Alla luce di un articolato insieme di rischi connessi all’applicazione pratica delle tecnologie, il quadro sollecita l’adozione di una preventiva valutazione ricognitiva ex ante di tutti i possibili risvolti derivanti dalla progettazione di uno specifico sistema automatizzato, compresa la valutazione dell’impatto sulla protezione dei dati e la valutazione dell’impatto sull’uguaglianza, tenuto conto del contesto di riferimento, per verificare, in una prospettiva “relativistica” da compiere caso per caso, tutte le opzioni esistenti rispetto all’individuazione della migliore e più efficace soluzione in grado di soddisfare le concrete esigenze degli utenti, in ragione del fatto che i rischi algoritmici risultano particolarmente insidiosi per eventuali criticità di sviluppo tecnico e/o di obsolescenza operativa, compresi difetti di sicurezza e criticità varie non rilevabili nei test di sperimentazioni, e suscettibili di determinare – spesso – impercettibili ripercussioni discriminatorie determinate da logiche codificate di “bias” errate o intenzionalmente orientate a privilegiare veri e propri “pregiudizi” sottesi all’applicazione di operazioni deliberatamente difettosi, come effetti distorti, nonché causare danni, anche involontari, in assenza di adeguati e costanti interventi di supervisione in termini di accuratezza, sicurezza, affidabilità, equità, spiegabilità del sistema sviluppato.
In altri termini, lungi dall’avallare una generalizzata applicazione delle tecnologie nel settore pubblico, il processo decisionale algoritmico e automatizzato «non dovrebbe essere visto come la soluzione a tutti i problemi», ricorrendo, pertanto, alle scelte concrete più sostenibili per garantire il raggiungimento di risultati efficaci in un panorama tecnologico in continua evoluzione e cambiamento.
Resta, quindi, centrale la necessità di verificare in maniera auspicabilmente precisa e corretta il concreto impatto dei pregiudizi “ingiusti” del processo decisionale, spesso trascurato o non adeguatamente ponderato come emerge nella concreta prassi, ove, ad esempio, recentemente il governo olandese è stato costretto alle dimissioni a seguito dello scandalo sui sussidi sociali, denunciato da un rapporto parlamentare, per aver ingiustamente accusato di sospetta frode fiscale numerosi individui, a causa di controlli automatizzati produttivi di generalizzati effetti discriminatori in applicazione del software antifrode “project 1043” basato sulla profilazione dei dati compilati nelle dichiarazioni dei redditi registrate nel sistema SyRI (Systeem Risico Indicatie), prospettando altresì anche una possibile violazione della privacy connessa alla conservazione dei predetti elenchi recanti la raccolta e la registrazione di dati governativi provenienti da fascicoli fiscali e previdenziali, archivi catastali, registri contenenti informazioni occupazionali e commerciali, sistemi di immatricolazione di veicoli processati da sistemi di deep learning non accessibili, in contrasto con la normativa vigente in materia (segnatamente con l’art. 8 CEDU e con i principi di trasparenza e di minimizzazione di cui al Regolamento UE 2016/679) sino a provocare addirittura una formale presa di posizione delle Nazioni Unite per il riscontro di «significative minacce potenziali per i diritti umani, in particolare per i più poveri della società».
Inoltre, come ulteriore conferma del dilagante impatto discriminatorio provocato dagli algoritmi, secondo uno studio dal titolo “Auditing for Discrimination in Algorithms Delivering Job Ads”, anche la pubblicità “personalizzata” utilizzata nei social network per ottenere target “mirati” di utenti potrebbe essere «distorta dal sesso o dalla razza a causa dell’ottimizzazione algoritmica nascosta da parte delle piattaforme, anche quando ciò non sia direttamente richiesto dagli inserzionisti», con differenze significative nella fruizione dei relativi risultati soprattutto a discapito delle categorie protette. Emblematico, a tal fine, anche un recente approfondimento del MIT, che rileva la visualizzazione di dati demografici diversificati associati alla sponsorizzazione delle medesime offerte lavorative con qualifiche professionali identiche, alimentando il rischio di stereotipi lavorativi, come nuove preoccupanti forme sistemiche di discriminazione etnica, razziale e di genere destinate ad avere un impatto predittivo sempre più negativo sul mercato del lavoro, in ragione del crescente impatto dell’intelligenza artificiale sulle procedure di assunzioni, così come delineato dal report “Discrimination in the Age of Algorithms”.
In tale prospettiva, il processo decisionale automatizzato si sta espandendo rapidamente grazie alla proliferazione di sofisticati algoritmi che, tuttavia, non consentono sempre di verificare, secondo adeguati standard di accessibilità e prevedibilità, i pregiudizi (consci e inconsci) concretamente prodotti, al punto da determinare un pericoloso “effetto boomerang” a danno delle persone, rendendosi pertanto necessaria la formulazione di raccomandazioni generali e trasversali in grado di contribuire, secondo un approccio regolatorio multidisciplinare, allo sviluppo di sistemi tecnologici basati sull’utilizzo di algoritmi che migliorino, piuttosto che peggiorare, il processo decisionale.
Alla luce di tali coordinate, di fronte al rapido sviluppo evolutivo del progresso tecnologico, tenuto conto del modello britannico, più in generale è interessante valutare, come tecnica di intervento legislativo nel settore tecnologico, l’opportunità di realizzare un’organica riforma legislativa della materia per adeguare il quadro normativo vigente con la consapevolezza di ricorrere alle ordinarie procedure di approvazione degli atti normativi che rendono generalmente superata la disciplina adottata già nel momento stesso in cui entra in vigore rispetto alla rapidità dell’innovazione digitale, o se sia preferibile limitarsi a mantenere l’attuale approccio regolatorio soft” auspicando al riguardo, mediante una semplice azione di sensibilizzazione culturale, il progressivo recepimento delle prescritte raccomandazioni nel settore pubblico sempre più influenzato dalle tecnologie emergenti.
Angelo Alù