La proposta di una Direttiva sull’armonizzazione dei principi di responsabilità extracontrattuale (“Proposta”) [1] rientra nel più ampio pacchetto di misure pensate per sostenere la diffusione di un’IA affidabile in Europa (prima fra tutte, la cd. “Legge sull’IA” o “AI ACT” [2], alla quale il testo della Proposta rinvia per le definizioni dei termini utilizzati).
Obiettivo
L’obiettivo principale della Direttiva è di introdurre semplificazioni dell’onere della prova per qualunque soggetto instauri un’azione per danni causati da sistemi di IA in uno Stato membro, al fine di superare le principali criticità riscontrate in materia di responsabilità civile.
- Anti-economicità: le norme nazionali in materia di responsabilità civile risultano spesso di difficile applicazione alla materia dell’IA (in particolare, in relazione all’identificazione del soggetto responsabile) [3]; chi agisce per il risarcimento di un danno provocato da prodotti e/o servizi basati sull’IA può godere di una protezione “inferiore” rispetto a danni da prodotti e/o servizi di altro tipo;
- Incertezza: le norme nazionali possono inoltre essere interpretate diversamente in base all’apprezzamento del giudice nazionale; le imprese che utilizzano l’IA potrebbero quindi avere difficoltà a definire la possibile esposizione alla responsabilità civile [4];
- Frammentazione: alcuni Stati Membri – tra cui l’Italia – hanno già avviato azioni legislative per implementare regole ad hoc in materia di IA; l’adozione di una disciplina uniforme a livello europeo intende garantire, inter alia, un livello di protezione (minimo) per tutti coloro che subiscono un danno.
***
Oggetto e ambito di applicazione
La Proposta si applica alle azioni civili di responsabilità extracontrattuale promosse successivamente alla data di recepimento della direttiva da:
- soggetti direttamente danneggiati dall’IA;
- soggetti subentrati/surrogati nei diritti del danneggiato dall’IA (ad esempio, gli eredi o una compagnia assicurativa);
- soggetti che agiscono per conto di uno o più danneggiati (azioni rappresentative), al fine di ottenere il risarcimento del danno causato dall’output di un sistema di IA o dalla mancata produzione di un output (che avrebbe dovuto essere prodotto da tale sistema) nell’ambito di regimi di responsabilità per colpa.
Il nuovo regime di responsabilità si intende quindi applicabile a prodotti e servizi basati su sistemi di IA, con impatto su un numero molto elevato (e oggi non determinabile) di settori industriali.
Divulgazione degli elementi di prova
Nell’ottica di alleggerire l’onere probatorio, la Proposta introduce il diritto per il danneggiato/attore di ottenere in sede giudiziale elementi di prova sul sistema di IA c.d. “ad alto rischio” [5], mediante un ordine giudiziale di divulgazione di tali elementi.
L’ordine di divulgazione costituisce infatti un mezzo efficace per l’identificazione delle persone potenzialmente responsabili [6] e delle prove pertinenti.
Tale diritto incontra tuttavia dei precisi limiti: l’Autorità nazionale è tenuta a considerare gli interessi legittimi di tutte le parti, compresi i convenuti e i terzi interessati, specialmente in relazione alla protezione dei segreti commerciali e delle informazioni riservate [7].
L’ordine di divulgazione, inoltre, non opera in automatico: il richiedente il risarcimento deve infatti dimostrare di non essere riuscito a procurarsi tali elementi in via autonomia, nonostante “ogni sforzo proporzionato” in tal senso.
Presunzione relativa del nesso di causalità
Sul danneggiato grava normalmente l’onere di dimostrare la sussistenza degli elementi costitutivi della responsabilità extracontrattuale:
- il fatto illecito;
- il dolo o la colpa;
- il danno (ingiusto);
- il nesso di causalità tra il fatto illecito e il danno.
La Proposta alleggerisce tale onere probatorio, introducendo una presunzione relativa circa la sussistenza del nesso di causalità. Il danneggiato non sarà pertanto chiamato a dimostrare la sussistenza di tale requisito qualora:
- abbia dato prova della colpa del convenuto [8], derivante dal mancato adempimento da parte di quest’ultimo di un obbligo di diligenza dettato a livello europeo/nazionale al preciso scopo di evitare il danno [9];
- sia “ragionevolmente probabile, sulla base delle circostanze del caso” che il comportamento colposo del convenuto abbia influito sul comportamento del sistema IA;
- abbia dimostrato che il danno è stato causato dalla produzione/mancata produzione dell’output da parte del sistema di IA.
Anche tale presunzione incontra tuttavia precisi limiti.
In base alla Proposta, il nesso di causalità può infatti essere presunto qualora [10]:
- nei giudizi riguardanti un sistema di IA ad alto rischio, il convenuto non riesca a dimostrare che il danneggiato può ragionevolmente accedere a elementi di prova e competenze sufficienti per dimostrare il nesso causale;
- nei giudizi riguardanti un sistema di IA non ad alto rischio, l’Autorità nazionale ritenga eccessivamente difficile per il danneggiato dimostrare l’esistenza del nesso di causalità.
Poiché si tratta di presunzione relativa, anche in questo caso il convenuto conserva il diritto di confutarla.
***
Prossimi passaggi
La Proposta, adottata dalla Commissione europea il 29 settembre 2022, si trova attualmente nella fase di c.d. “prima lettura”.
Il Consiglio e il Parlamento devono concludere l’iter per l’adozione della proposta legislativa [11].
La Direttiva dovrà essere recepita dagli Stati membri nel termine di 2 anni dalla sua entrata in vigore.