L’Europa regola, gli USA innovano: è finito il Brussels Effect?
Giovanni Maria Riccio, Ordinario di Diritto privato comparato, Presidente dell’Istituto per le Politiche dell’Innovazione
Negli ultimi decenni si è assistito a una profonda trasformazione del ruolo del diritto (in special modo del diritto privato) all’interno dell’ordinamento giuridico, con una graduale perdita della sua centralità a favore del diritto regolatorio e delle regole tecniche. Questo mutamento riflette non solo un’evoluzione nelle forme di produzione normativa, ma anche un cambiamento nella concezione del diritto stesso, sempre più concepito come uno strumento funzionale all’economia e non come espressione di principi generali e strutturali destinati a durare nel tempo.
Il diritto privato classico, fondato sul modello del Codice civile ottocentesco, si basava su categorie astratte, stabili e flessibili, pensate per garantire certezza giuridica e per regolare i rapporti intersoggettivi in una logica sistematica. Tuttavia, nella contemporaneità questo impianto è stato progressivamente scavalcato dal diritto regolatorio, inteso come insieme di norme settoriali, spesso di natura pubblicistica, volte a disciplinare specifici ambiti dell’economia (ad esempio, energia, telecomunicazioni, finanza, sanità, ambiente) attraverso interventi mirati, contingenti e spesso tecnocratici.
Come osservato autorevolmente in dottrina, “il diritto privato ha ceduto il passo a un diritto di tipo funzionale, governato da autorità indipendenti e da logiche di efficienza, spesso scollegate da un disegno sistemico”[1]. Ciò si traduce in una legislazione “a episodi”, in cui la coerenza complessiva del sistema viene sacrificata sull’altare dell’urgenza politica, della pressione dei mercati o delle contingenze mediatiche. Il legislatore abbandona la costruzione di norme durevoli e strutturali per produrre testi normativi pensati per risolvere problemi immediati, senza una visione di lungo periodo.
Il diritto regolatorio rappresenta l’affermazione di una governance by instruments, come osservato acutamente[2], ovvero di una politica pubblica che opera attraverso strumenti tecnici, oltrepassando la deliberazione politica e il confronto democratico. Il diritto, per questa via, tende a perdere la sua funzione ordinatrice e predittiva, trasformandosi in un mosaico di norme speciali, disomogenee e prive di visione sistemica: l’AI Act, che pur detta taluni principi, ne è un esempio, un groviglio spesso complesso di norme di settore, ritenute spesso improprie dagli stessi tecnici e di difficile comprensione (e applicazione) da parte dei giuristi.
In questo contesto, anche il linguaggio normativo risente della deriva tecnocratica: le norme sono spesso scritte in forma iperdettagliata, con continui rinvii a regolamenti attuativi o a standard tecnici, rendendo difficile la comprensione non solo per il cittadino comune, ma anche per gli operatori del diritto[3]. Si crea così un deficit di accessibilità e una frattura tra norma e destinatario, compromettendo il principio di legalità sostanziale, dove un esempio paradigmatico è rappresentato dal n. 67) delle definizioni di cui all’art. 3 dell’AI Act di operazione in virgola mobile, intesa quale “qualsiasi operazione o assegnazione matematica che comporta numeri in virgola mobile, un sottoinsieme dei numeri reali generalmente rappresentati sui computer mediante un numero intero con precisione fissa avente come fattore di scala un esponente intero di una base fissa”.
Alcuni studiosi hanno messo in relazione questa trasformazione con l’affermazione del paradigma neoliberale, che ha prodotto una visione del diritto come strumento tecnico a servizio del mercato, piuttosto che come veicolo di giustizia o di riequilibrio sociale, nel quale la “neutralità tecnica” del diritto è però un mito: ogni scelta regolatoria incide sugli assetti di potere e riflette specifici interessi e, quindi, risponde alla selezione di interessi che si intende tutelare in luogo di altri[4].
Non è, però, l’unica ragione dell’affievolirsi del potere del Brussels effect. L’“alluvione” legislativa è un’altra delle ragioni: Digital Services Act, Digital Market Act, Artificial Intelligence Act, Cyber Resilience Act, Data Act, Data Governance Act, giusto per citare alcuni esempi. Una produzione enorme, spesso etichettata come soft-law, ma nei fatti cogente, da parte delle autorità amministrative, tanto a livello centrale quanto nazionale, che va a rafforzare il rischio di antinomie tra testi normativi che, sovente, sono il frutto di pressioni lobbistiche e, quindi, poco coordinati nel segno di un disegno unitario e congiunto[5].
Questa iper-produzione normativa, cui non fa da contraltare, a livello europeo, uno sviluppo tecnologico adeguato, determina effetti paradossali (ad esempio, le imprese alle quali sono stati applicati i primi divieti di cui all’art. 5 dell’AI Act, in vigore dal febbraio 2025, sono tutte extraeuropee) e, spesso, strategie commerciali differenziate, come quelle che hanno portato alcune società statunitense a non offrire servizi di intelligenza artificiale nell’Unione europea[6].
Inoltre, come osservato nel Rapporto Draghi, presentato alla Commissione europea a fine 2024, in Europa non sono nate imprese con capacità tecnologiche adeguate (e, dunque, paragonabili ai “giganti” statunitensi e cinesi)[7]. Ciò determina una dipendenza assoluta dell’economia europea da soggetti terzi[8], il cui divario è amplificato da processi decisionali lenti, obblighi formalistici (che, non a caso stanno determinando una modifica del GDPR, a partire dall’eliminazione dell’obbligo di tenuta dei registri dei trattamenti per le PMI)[9] e scarsa capacità di replicare i processi virtuosi anche negli Stati membri più piccoli e meno progrediti.
È complesso preconizzare, in conclusione, quale sarà la possibilità per l’Unione europea di rappresentare un faro nella tutela dei diritti fondamentali in relazione allo sviluppo delle tecnologie di intelligenza artificiale.
Alcuni segnali sembrerebbero militare verso un ripensamento di tale influenza e della volontà delle imprese extraeuropee, non solo statunitensi, di adeguarsi alle soluzioni europee: basti pensare, a titolo meramente esemplificativo, alla reazione delle società cinesi che gestiscono il large language model denominato DeepSeek, che non hanno replicato alle richieste del Garante per la protezione dei dati personali italiano, se non per affermare che la normativa in materia di privacy europea non si applicasse alla loro attività[10]. Una risposta assurda – pare evidente che gli avvocati che hanno difeso le società cinesi non potessero ignorare l’ambito di applicazione del GDPR – che però sembra rappresentare una scarso attrattività del mercato europeo, nel settore dell’intelligenza artificiale, per le imprese non europee.
E, forse, la domanda da cui ripartire è proprio questa: l’Unione europea fa le regole, ma siamo sicuri che i Paesi “innovatori” siano ancora interessati a seguirle?
[1] G. Alpa, Diritto privato e tecnica legislativa, 2018, ma v. anche in H.-W. Micklitz, Introduction, in Costitutionalization of European Private Law, Oxford, 2014, 1 ss.
[2] P. Lascoumes – P. Le Gales (éds.), Gouverner par les instruments, Science Po, Paris, 2005.
[3] Per un’analisi dettagliata dell’AI Act si rinvia al volume, in corso di pubblicazione, A. Mantelero – G. Resta – G.M. Riccio, AI Act – Commentario, Milano, 2025.
[4] J.S. Purdy – D.S. Grewal – A. Kapczynski – K. Sabeel Rahman, Building a Law-and-Political-Economy Framework, cit., 1791.
[5] Cfr., di recente, l’ampia ricerca di J.F. Pereira Padeiro, Lobbying in the European Union’s AI Act: the role of lobbying by the big five tech companies on the Council of EU’s legislative process, Instituto Universitario de Lisboa, October 2024, 44 ss.; C. Woll, – J. Artigas, Big Tech’s influence in the EU: Lobbying and digital governance, 61 European Journal of Political Research, 2022, 384; K. Rozgonyi, Digital giants and EU regulation: The lobbying strategies of Meta in Brussels, 19 Journal of Information Technology & Politics, 2022, 463.
[6] È il caso, ad esempio, di Apple: B. Montgomery, Apple delays launch of AI-powered features in Europe, blaming EU rules, The Guardian, 21 June 2024. Forti contrasti si sono registrati anche in relazione al “blocco” temporaneo disposto dal Garante per la protezione dei dati personali nei confronti di OpenAI, la società fornitrice di ChatGPT, su cui sia consentito rinviare, per ulteriori approfondimenti, ad A. Diurni – G.M. Riccio, ChatGPT: Challenges and Legal Issues in Advanced Conversational AI, in 9 The Italian Law Journal, 2023, 474 ss.
[7] M. Draghi, The future of European competitiveness, European Commission, 2024.
[8] Alcuni dei temi rappresentati nel Rapporto Draghi, tra cui quello menzionato nel testo dell’articolo, erano stati già affrontati, tra gli altri, da A. Renda, Beyond the Brussels Effect. Leveraging Digital Regulation for Strategic Autonomy, FEPS – Foundation for European Progressive Studies, Brussels, 2022.
[9] Press Agency, Targeted modifications of the GDPR: EDPB & EDPS welcome simplification of record keeping obligations and request further clarifications, 9 July 2025.
[10] Garante per la protezione dei dati personali, Provv. 30 gennaio 2025, doc. web n. 10098477.
* Il presente articolo è parte di un più ampio studio destinato da un volume sull’intelligenza artificiale curata dal prof. Gianpaolo Maria Ruotolo, Ordinario di diritto internazionale presso l’Università di Foggia.