Pubblicato dal Parlamento europeo lo studio “Artificial Intelligence and Civil Liability” del prof. Andrea Bertolini
1. Introduzione
L’uso crescente dell’intelligenza artificiale nei settori più disparati della vita economica e sociale pone nuove sfide per i tradizionali modelli di responsabilità civile. I sistemi AI possono causare danni fisici, materiali, patrimoniali o discriminatori, spesso senza che sia immediatamente individuabile un comportamento colposo o una responsabilità umana diretta. In questo contesto, lo studio “Artificial Intelligence and Civil Liability” (2020), realizzato da Andrea Bertolini, professore di diritto privato presso l’Università Sant’Anna di Pisa, per la Commissione Affari Giuridici del Parlamento europeo, propone un modello normativo fondato su principi di certezza giuridica, efficienza e armonizzazione, che può fungere da riferimento per la futura disciplina dell’Unione.
2. Il contesto normativo attuale
Il diritto dell’Unione europea prevede oggi due principali riferimenti in materia: la Direttiva 85/374/CEE sulla responsabilità per danno da prodotti difettosi e le normative nazionali in materia di responsabilità extracontrattuale. Tuttavia, tali strumenti risultano inadeguati per regolare fenomeni legati all’IA. La direttiva del 1985, ad esempio, presuppone un difetto fisico e non considera l’autonomia, l’opacità e la capacità adattiva dei sistemi intelligenti. Le normative nazionali, invece, si fondano sul principio di colpa e richiedono al danneggiato di provare il nesso causale e il comportamento illecito, cosa spesso impossibile nel caso di tecnologie complesse.
3. Il modello proposto: responsabilità oggettiva e operatore unico
Lo studio di Bertolini propone l’introduzione di un regime di responsabilità oggettiva per i sistemi di intelligenza artificiale ad alto rischio. Tale regime si fonda su una logica di risk management, secondo cui il soggetto che controlla o gestisce il rischio – definito “operatore” – è il destinatario della responsabilità civile, a prescindere da una condotta colposa.
L’operatore è individuato nel soggetto che, a seconda dei casi, sviluppa, implementa, controlla o gestisce il sistema AI. Lo studio distingue tra “backend operator” (es. produttore o manutentore) e “frontend operator” (es. utilizzatore professionale), lasciando spazio a un approccio funzionale e dinamico, orientato a identificare chi effettivamente esercita controllo sul rischio.
4. Un sistema duale: responsabilità oggettiva e colpa presunta
Il modello delineato adotta una struttura duale:
-
Responsabilità oggettiva per i sistemi ad alto rischio, sulla base di criteri simili a quelli previsti dal futuro Regolamento AI (AI Act), quali la destinazione d’uso in ambiti sensibili (sanità, giustizia, trasporti) o la capacità di impattare su diritti fondamentali;
-
Responsabilità da colpa, ma alleggerita, per i sistemi a basso rischio, con strumenti che favoriscano l’accesso alla prova per la vittima, come presunzioni legali o obblighi di disclosure tecnica.
Il criterio distintivo tra le due categorie è fondato su una valutazione combinata di probabilità e gravità del danno, autonomia del sistema e impatto sul contesto socio-economico.
5. Certezza giuridica ed efficienza: i vantaggi del modello
Il sistema proposto offre diversi vantaggi in termini di certezza del diritto e tutela delle vittime. Innanzitutto, l’individuazione di un soggetto univoco e chiaramente identificabile consente di superare la frammentazione normativa tra gli Stati membri. In secondo luogo, la responsabilità oggettiva evita al danneggiato il difficile onere di provare l’errore tecnico o umano all’origine del danno, che nel caso dell’IA è spesso opaco e non riproducibile.
Inoltre, l’effetto deterrente derivante da un regime di responsabilità senza colpa spinge gli operatori a implementare meccanismi di sicurezza, auditabilità e controllo, promuovendo un uso più sicuro e affidabile dell’IA.
6. Raccordo con le iniziative normative europee
Lo studio di Bertolini anticipa molte delle soluzioni successivamente proposte dalla Commissione europea nella bozza di Direttiva sulla responsabilità da intelligenza artificiale (AI Liability Directive), presentata nel 2022 e ancora oggetto di negoziazione. Tuttavia, rispetto al testo della Direttiva, la proposta di Bertolini si distingue per la maggiore chiarezza sistematica e per l’ambizione armonizzatrice. Lo studio suggerisce infatti la trasformazione della disciplina in regolamento, al fine di evitare la frammentazione derivante da una trasposizione divergente nelle legislazioni nazionali.
Inoltre, propone una definizione più operativa di “sistema ad alto rischio” e sottolinea la necessità di raccordare le nuove norme con la revisione della Direttiva sulla responsabilità da prodotto, includendo anche danni immateriali e perdite economiche pure, oggi escluse.
7. Criticità e sfide applicative
Non mancano tuttavia aspetti critici. Il primo riguarda la definizione di alto rischio: una qualificazione eccessivamente ampia rischia di frenare l’innovazione, mentre una troppo restrittiva potrebbe escludere casi rilevanti. Il secondo riguarda l’impatto economico sul settore produttivo: l’introduzione di obblighi assicurativi o di compliance più stringenti potrebbe penalizzare le piccole e medie imprese. Infine, resta aperto il nodo della responsabilità nei sistemi complessi o generativi (come l’AI general purpose), in cui l’attribuzione causale è resa ancora più difficile dalla molteplicità dei soggetti coinvolti.
8. Conclusione
Lo studio “Artificial Intelligence and Civil Liability” offre un modello normativo coerente e funzionale per affrontare le nuove sfide poste dall’IA in ambito di responsabilità civile. L’introduzione di un regime oggettivo per i sistemi ad alto rischio, incentrato su un unico operatore responsabile, rappresenta un passo importante verso l’armonizzazione europea e la tutela efficace dei cittadini. Sebbene permangano margini di affinamento, in particolare sulla definizione di rischio e sull’equilibrio tra innovazione e precauzione, il modello proposto costituisce una base solida per la costruzione di una disciplina giuridica dell’intelligenza artificiale realmente europea, efficace e orientata alla responsabilità.