Draghi suggerisce di mettere in pausa l’AI Act
- Categorie News, Proposte di regolamentazione
- Data 17 Settembre 2025
Introduzione
L’adozione dell’Artificial Intelligence Act (AI Act) da parte dell’Unione europea rappresenta uno dei tentativi più ambiziosi al mondo di regolamentare l’intelligenza artificiale in modo sistematico e proporzionato al rischio. Entrato in vigore nell’agosto 2024, il regolamento prevede una piena applicazione entro il 2027 e si fonda su un approccio risk-based, che distingue tra sistemi a rischio inaccettabile, sistemi ad alto rischio, e applicazioni a rischio limitato o minimo. In questo contesto, la recente presa di posizione di Mario Draghi, ex primo ministro italiano, ha riaperto il dibattito sull’opportunità di procedere senza modifiche lungo il percorso già tracciato o di introdurre una sospensione temporanea per valutare meglio le conseguenze del nuovo impianto normativo.
La proposta di Draghi
L’intervento di Draghi si concentra sulla necessità di “pausare” l’implementazione delle disposizioni più stringenti del regolamento, in particolare quelle relative ai sistemi di intelligenza artificiale classificati come ad alto rischio. Secondo l’ex premier, se le norme già operative – quali i divieti per le pratiche considerate di rischio inaccettabile, le linee guida della Commissione e i codici di condotta volontari sottoscritti da sviluppatori e imprese – non hanno generato particolari problematiche, la fase successiva richiede una maggiore cautela. Draghi sottolinea come la regolazione dei sistemi ad alto rischio (ad esempio in ambito sanitario o nelle infrastrutture critiche) debba essere calibrata per non compromettere la capacità innovativa e competitiva dell’Europa.
Motivazioni e contesto
Tra le motivazioni principali vi è il ritardo nella predisposizione delle linee guida riguardanti le General Purpose AI (GPAI), come i modelli di intelligenza artificiale generativa. Tale lacuna avrebbe generato incertezza, poiché le imprese non dispongono di riferimenti chiari su come conformarsi agli obblighi normativi. Parallelamente, alcune grandi aziende europee e internazionali – tra cui ASML, Philips, Siemens e Mistral – hanno richiesto una sospensione biennale dell’applicazione delle disposizioni più gravose, al fine di disporre di un margine temporale sufficiente per adeguarsi e per promuovere una semplificazione amministrativa.
Draghi rimarca inoltre l’importanza di un approccio proporzionato, in particolare nei settori ad alto rischio, dove un’eccessiva rigidità potrebbe tradursi in effetti negativi inattesi. In altri termini, la regolazione deve bilanciare la necessità di protezione degli utenti con la salvaguardia della capacità innovativa delle imprese europee.
Reazioni critiche
La proposta ha suscitato significative perplessità tra associazioni per i diritti digitali, organizzazioni a tutela dei consumatori e gruppi che promuovono la trasparenza e la responsabilità nell’uso delle tecnologie emergenti. Secondo tali attori, un rinvio delle disposizioni più rigorose rischierebbe di indebolire i meccanismi di accountability faticosamente introdotti con l’AI Act. Il timore principale è che la richiesta di semplificazione finisca per tradursi in un allentamento sostanziale delle regole, con conseguente riduzione delle garanzie per i cittadini.
Queste posizioni sottolineano che non mancano strumenti già disponibili per governare l’innovazione in sicurezza, come i sandbox normativi previsti dallo stesso regolamento. Inoltre, viene rilevato che esistono prove abbondanti dei rischi concreti derivanti da sistemi di IA non regolamentati, che spaziano dalla discriminazione algoritmica ai malfunzionamenti in ambiti critici. Per tali ragioni, la sospensione delle regole appare, secondo i critici, non solo inopportuna ma anche potenzialmente dannosa.
Questioni istituzionali irrisolte
Un ulteriore elemento di complessità riguarda la mancata definizione delle autorità nazionali competenti a livello europeo. La Commissione non ha ancora reso noto un elenco esaustivo delle istituzioni che avranno il compito di vigilare sull’applicazione del regolamento nei diversi Stati membri. Tale incertezza istituzionale contribuisce a rafforzare l’argomento secondo cui l’implementazione rischia di avvenire in modo disomogeneo e frammentato.
Altre iniziative normative
In parallelo all’AI Act, la Commissione europea sta elaborando un pacchetto legislativo definito “digital omnibus”, previsto per dicembre 2025, volto a razionalizzare e semplificare l’attuale quadro normativo tecnologico. Tale intervento potrebbe alleggerire alcuni oneri per le imprese, in particolare riducendo obblighi di trasparenza e rendicontazione. Draghi, nel suo intervento, ha inoltre richiamato altre normative europee, come quelle relative alla riduzione delle emissioni nel settore automobilistico, sostenendo che alcune delle scadenze previste non riflettono più la realtà tecnologica e industriale.
Implicazioni politiche ed economiche
L’eventuale accoglimento della proposta di Draghi avrebbe conseguenze rilevanti sia sul piano politico che su quello economico. Da un lato, potrebbe rappresentare un segnale di attenzione verso le esigenze delle imprese, favorendo un clima più favorevole agli investimenti e riducendo l’incertezza normativa. Dall’altro, rischierebbe di posticipare la tutela dei diritti fondamentali e della sicurezza dei cittadini, esponendo la società europea a rischi già noti e documentati.
Si delinea quindi un classico dilemma regolatorio: la necessità di garantire un ambiente normativo certo e coerente che promuova innovazione e competitività, senza tuttavia compromettere la protezione dei diritti individuali e la sicurezza collettiva.
Conclusione
In conclusione, l’intervento di Mario Draghi si colloca in un momento cruciale per la governance dell’intelligenza artificiale in Europa. La sua proposta di sospendere l’applicazione delle disposizioni relative ai sistemi ad alto rischio riflette una preoccupazione diffusa per l’impatto delle regole sull’innovazione e sulla competitività delle imprese europee, ma solleva al contempo rilevanti interrogativi sul piano della protezione dei cittadini e della tenuta complessiva del sistema di accountability.
Il dibattito rimane aperto e mette in luce la tensione strutturale tra due esigenze fondamentali: da un lato, garantire regole solide e tempestive per prevenire i rischi associati all’IA; dall’altro, mantenere una flessibilità sufficiente per adattare la regolazione a un contesto tecnologico in rapido mutamento. L’esito di questa discussione avrà un impatto significativo non solo sulla politica tecnologica dell’Unione, ma anche sulla sua capacità di affermarsi come attore normativo globale in un settore sempre più strategico.
Potrebbe interessarti

Sextortion: profili giuridici e tecniche di tutela

Cosa ha detto la Corte di Giustizia sulla nozione di dato personale?
