Report del Parlamento Europeo del 5 Ottobre su AI liability
Avv. Raffaella Aghemo
responsabilità civile per danni da sistemi di Intelligenza Artificiale
In data 05 ottobre scorso, è stato pubblicato una nuova proposta di risoluzione del Parlamento Europeo, contenente le raccomandazioni per la Commissione sul regime di responsabilità civile per danni causati da Intelligenza artificiale!
Avevo già presentato la bozza, su cui si è formulato la recente Regolamentazione, qui! Questa pubblicazione ha il pregio di chiarificare alcune definizioni, utili per meglio capire l’applicazione normativa e i casi d’uso.
Già nelle premesse, si stabilisce che il concetto di “responsabilità” svolge un doppio ruolo importante nella nostra vita quotidiana, garantendo che una persona che subisca un danno abbia il diritto di rivendicare il risarcimento da parte di colui che ha dimostrato di esserne responsabile e fornendo incentivi economici a persone fisiche e giuridiche, per evitare che causino danni; qualsiasi quadro di responsabilità, orientato al futuro, deve trovare un equilibrio tra proteggere in modo efficiente le potenziali vittime di un danno o di una lesione e fornire un margine di manovra sufficiente a rendere possibile lo sviluppo delle nuove tecnologie, pur considerando che l’obiettivo di qualsiasi quadro di responsabilità dovrebbe essere quello di garantire la certezza del diritto per tutte le parti, che si tratti del produttore, del distributore, della persona colpita o qualsiasi altra terza parte.
Si aggiunge inoltre che la nomenclatura di “intelligenza artificiale” comprende al suo interno una serie di nozioni che vanno dalle semplici statistiche all’apprendimento automatico al deep learning,
Si considera altresì che i sistemi di Intelligenza Artificiale (IA) presentano significative sfide legali per il quadro di responsabilità esistente e potrebbero portare a situazioni la cui opacità (“black box”) potrebbe rendere estremamente costoso o addirittura impossibile identificare chi aveva il controllo del rischio, associato al sistema di Intelligenza Artificiale, o quale codice o input ha causato, alla fine, l’operazione dannosa!
Pertanto la sfida, relativa all’introduzione dei sistemi di IA nella società e nell’economia, rappresenta, ad oggi, una delle questioni più importanti dell’attuale agenda politica, poiché le tecnologie basate su AI potrebbero migliorare la nostra vita in ogni settore. Quindi dare un organico e coerente quadro normativo, in questo ambito, diventa una esigenza cruciale, visto che il mercato unico digitale deve essere pienamente armonizzato in quanto caratterizzato da una rapida dinamica transfrontaliera e da flussi di dati internazionali.
Si nota, inoltre, che «tutte le attività, i dispositivi o i processi fisici o virtuali, guidati da sistemi di IA, possono tecnicamente essere la causa diretta o indiretta di danni o pregiudizi, ma sono quasi sempre il risultato della costruzione, dello spiegamento, o dell’interferenza di qualcuno con tali sistemi». La Direttiva 85/374/CEE sulla Responsabilità per danno da prodotti difettosi (Product Liability Directive PLD) ha dimostrato di rappresentare un efficace mezzo per ottenere il risarcimento del danno causato da un prodotto difettoso, tanto da consigliarsene la valutazione di una sua trasformazione in Regolamento, ma, ai fini della certezza del diritto in tutta l’Unione, l’”operatore backend” dovrebbe essere soggetto alle stesse norme in materia di responsabilità, al pari del creatore, produttore e sviluppatore.
L’operatore front end dovrebbe essere considerato colui che esercita un certo grado di controllo su un rischio connesso al funzionamento del sistema di IA e al contempo ne beneficia; l’operatore back end è il soggetto naturale o legale che, su base continuativa, definisce le caratteristiche della tecnologia, fornendo i dati su cui si forma e pertanto influenzandone ingresso, uscita e risultati su funzioni specifiche.
In situazioni in cui vi è più di un operatore, tutti i responsabili della “gestione” del sistema, dovrebbero essere responsabili in solido, pur avendo il diritto di rivalersi proporzionalmente l’uno contro l’altro, seguendo regole di responsabilità diverse per rischi diversi! Sembrerebbe, pertanto, ragionevole istituire un regime di responsabilità oggettiva per i sistemi di IA ad alto rischio (nei quali il funzionamento autonomo comporta una causa potenziale significativa di danno a una o più persone, in modo casuale e impossibile da prevedere in anticipo, tenuto conto dell’interazione tra la gravità del possibile danno, la probabilità che detto rischio si materializzi e il modo in cui il sistema AI è stato utilizzato).
Poiché lo sviluppo delle nuove tecnologie è molto veloce e dinamico, si consiglia un “track approach”, cioè una metodologia atta a verificare nuovi dispositivi e sistemi che fanno uso dell’Intelligenza Artificiale, e avere sempre come obiettivo la protezione dei dati degli utenti.
Relativamente alle assicurazioni in questo settore, un’adeguata copertura del rischio sarà essenziale per garantire al pubblico la possibilità di fidarsi della nuova tecnologia nonostante il possibile rischio di subirne danno: tutti gli installatori di sistemi di IA ad alto rischio, elencati nell’allegato, dovrebbero essere coperti da un’assicurazione di responsabilità civile; tale regime assicurativo obbligatorio dovrebbe coprire gli importi e l’entità del risarcimento dovuto. La Commissione, pertanto, dovrà necessariamente lavorare a stretto contatto con il settore assicurativo per creare polizze che diano coperture adeguate a prezzi accessibili.
Dovrebbe altresì essere sempre chiaro che «chi crea, mantiene, controlla o interferisce con il sistema di Intelligenza Artificiale, dovrebbe essere responsabile dei danni che l’attività, il dispositivo o il processo crea», seguendo il principio della responsabilità nella giustizia. La responsabilità quindi dell’operatore, si basa sulla circostanza che egli esercita comunque un certo grado di controllo sul rischio connesso all’esercizio e al funzionamento del sistema di IA, paragonabile a quello del proprietario di un’auto!
Pertanto, il presente Regolamento, ex Articolo 2, si applicherà in tutto il territorio dell’Unione, dove un sistema di IA ha causato pregiudizio e danno fisico a una persona fisica, o danno immateriale a persona fisica e giuridica con conseguente perdita economica verificabile.
L’Articolo 3 allarga le spiegazioni, riportate in bozza e dà una maggiore definizione di:
– a) “AI-system”: «un sistema che mostra un comportamento intelligente analizzando determinati input e intervenendo, con un certo grado di autonomia, per raggiungere obiettivi specifici. I sistemi di intelligenza artificiale possono essere puramente basati su software, agire nel mondo virtuale, o possono essere incorporati in dispositivi hardware»;
– b) “autonomo”: «un sistema di Intelligenza Artificiale che funziona percependo determinati input e senza bisogno di seguire una serie di istruzioni predeterminate, nonostante il suo comportamento sia vincolato dall’obiettivo che gli è stato dato e da altre scelte progettuali rilevanti fatte dal suo sviluppatore»;
– c) “alto rischio”: «un potenziale significativo in un sistema di IA, funzionante autonomamente, di causare lesioni o danni a una o più persone in modo casuale e impossibile da prevedere in anticipo; la significatività del potenziale dipende dall’interazione tra la gravità di una possibile lesione o danno, la probabilità che il rischio si materializzi e il modo in cui il sistema di IA viene utilizzato»;
– d) “operatore”, con il quale si intende sia l’operatore front end che back end, a meno che quest’ultimo non risulti già coperto dalla Direttiva 85/374/CEE, la persona che decide l’uso del sistema di IA, esercita il controllo sul rischio associato e beneficia del suo funzionamento;
– e) “operatore front end” qualsiasi persona fisica o giuridica che eserciti un certo grado di controllo sul rischio del funzionamento del sistema IA e se ne avvantaggi;
– f) “operatore back end” qualsiasi persona fisica o giuridica che in modo continuativo definisca le caratteristiche della tecnologia, gestendone anche la assistenza
– g) controllo: qualsiasi azione dell’operatore che influisca con il funzionamento del sistema IA
– h) “persona interessata o colpita”: qualsiasi persona che subisce una lesione o un danno causato da un’attività fisica o virtuale, da un dispositivo o da un processo guidato da un sistema di IA e che non ne è il suo operatore;
– i) “lesione o danno”: un impatto negativo che incide sulla vita, la salute, l’integrità fisica o la proprietà di una persona fisica o giuridica, ad eccezione dei danni non materiali;
– j) “produttore”: il promotore o il gestore di un sistema di IA, o il produttore quale definito all’articolo 3 della direttiva 85/374/CEE del Consiglio.
L’Articolo 11 relativo alla ipotesi di Responsabilità solidale, dispone: «Se vi è più di un operatore di un sistema di IA, essi sono responsabili in solido. Se un operatore frontend è anche il produttore del sistema di IA, il presente regolamento prevale sulla Direttiva sulla responsabilità per danno da prodotti. Se l’operatore backend si qualifica anche come produttore secondo la definizione dell’articolo 3 della Direttiva sulla responsabilità per danno da prodotti, tale Direttiva dovrebbe applicarsi a lui. Se vi è un solo operatore e tale operatore è anche il produttore del sistema AI, questa regolamentazione dovrebbe prevalere sulla Direttiva sulla responsabilità per danno da prodotti.»
Entro il 1° gennaio 202X [3 anni dopo la data di applicazione del presente regolamento], e successivamente ogni tre anni, la Commissione presenta al Parlamento europeo, al Consiglio e al Comitato economico e sociale europeo una relazione dettagliata che riesamina il presente regolamento alla luce dell’ulteriore sviluppo dell’intelligenza artificiale.
L’Articolo 15, quello conclusivo, espone l’entrata in vigore e recita: «Il presente regolamento entra in vigore il ventesimo giorno successivo alla pubblicazione nella Gazzetta ufficiale dell’Unione europea. Esso si applica a decorrere dal 1° gennaio 202X.»
Riproduzione Riservata
Avv. Raffaella Aghemo
Ultimi articoli del blog
- SERVIZI CLOUD E LOGICHE AS A SERVICE – Verso una più equa distribuzione del rischio contrattuale e nuove tutele30 Aprile 2021 - 11:13
- Report del Parlamento Europeo del 5 Ottobre su AI Liability10 Ottobre 2020 - 18:20
- Il contratto di Cloud Computing: dati, diritto, nuove tutele.3 Aprile 2022 - 17:05
- LH ROMA LEX DRINK COOK YOUR COOKIES9 Dicembre 2021 - 18:17
- LEGAL INNOVATION CONFERENCE RAFFAELLA AGHEMO26 Novembre 2021 - 18:44
Dove Siamo
Iusintech
Via Vincenzo Bellini, 10
20122 Milano (Italia)
Email: hello@iusintech.com
Skype: iusintech
Telefono: +39.02.799.991