Email: Info@multico.it Tel: +39 3757292327

Intelligenza Artificiale e Responsabilità

intelligenza artificiale e reposnabilità

Intelligenza artificiale e responsabilità

L’uso dell’Intelligenza Artificiale offre una vasta gamma di applicazioni per le imprese: può essere impiegata per semplificare i processi produttivi e decisionali attraverso l’analisi di grandi volumi di dati, per ottimizzare le catene di approvvigionamento o per migliorare l’esperienza del cliente.
Ma richiede anche un’analisi accurata dei rischi correlati.

Chi paga per i danni prodotti dall’Intelligenza Artificiale?

Il rapporto tra diritto e tecnologia è da sempre simbiotico ma l’Intelligenza Artificiale ci sta ponendo di fronte a delle sfide inedite, sopratutto nell’ambito della responsabilità civile, ossia quel settore del diritto privato che si occupa di disciplinare il danno ed il suo risarcimento, stabilendo quando un danno sia risarcibile, come debba essere quantificato e chi siano i soggetti tenuti a ristorarlo.

Si tratta di regole storicamente concepite e sviluppate per un contesto di interazione tra persone, fisiche e giuridiche. Anche il danno prodotto da un oggetto è solitamente collegabile ad una negligenza umana, come un errore nella progettazione o nella programmazione, un difetto di manutenzione, un’imperizia nell’utilizzo o ancora un’omissione di custodia o di vigilanza.

I sistemi di intelligenza artificiale sono, però, caratterizzati da autonomia, adattività anche dopo l’implementazione e capacità di influenzare gli ambienti coi quali interagiscono. Ne consegue che le macchine sono in grado, grazie all’IA, di prendere decisioni indipendenti che possono avere un impatto sui diritti fondamentali degli individui e, in alcuni casi, arrecare danni.

Mediante tecniche di apprendimento automatico (machine learning) i computer possono imparare dai dati e possono eseguire specifici compiti senza una programmazione predefinita. Questo può condurre la macchina a generare risultati che possono sfuggire al controllo umano ex ante e che possono essere l’effetto di un processo non comprensibile ex post. Tale fenomeno è noto come “opacità algoritmica” o ‘black box’. Attualmente i sistemi di intelligenza artificiale più avanzati e performanti, come quelli basati su reti neurali profonde (deep learning), sono anche i più opachi.

Pertanto, in caso di danno prodotto dall’IA non è possibile affermare in modo incontrovertibile che l’output dannoso sia conseguenza di un comportamento umano. Il che crea notevoli difficoltà giuridiche nell’individuazione del soggetto a cui attribuire la responsabilità. Inoltre, a causa dell’opacità degli algoritmi è complicato ricostruire la catena degli eventi che ha prodotto il danno stesso e, quindi, determinare il nesso causale.

Per superare il problema è stata formulata un’ipotesi molto suggestiva, ossia riconoscere anche alle macchine una specifica personalità giuridica. I fautori di questa teoria sostengono la necessità di creare una nuova figura: la persona robotica, alla quale imputare il danno e l’obbligazione di risarcimento senza doversi necessariamente riferire ad una persona fisica o giuridica. In sostanza: se la macchina ha sbagliato dopo aver assunto una decisione autonoma, è la macchina stessa a dover risarcire il danno.
Si tratterebbe però di una soluzione solo apparente, infatti, chi la doterebbe del patrimonio necessario per i risarcimenti o per il pagamento di un premio assicurativo? I produttori? Gli utilizzatori finali? L’intera collettività con la costituzione di un fondo di garanzia? Non ci sposteremmo di molto dal problema iniziale.

Il principio di indifferenza tecnologica

In assenza di una normativa di settore, è difficile ragionare a monte della responsabilità algoritmica, ma a valle è stato elaborato un principio cardine: il tipo o l’entità dei danni risarcibili, così come le forme di risarcimento a disposizione della persona lesa, non dovrebbero essere limitati per il fatto che il danno sia provocato da un soggetto non umano.

Si veda sul punto la Risoluzione del Parlamento Europeo del 16.02.2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica e la Relazione della Commissione al Parlamento Europeo, al Consiglio e al Comitato Economico Europeo del 19.02.2020 sulle implicazioni dell’intelligenza artificiale, dell’Internet delle cose e della robotica in materia di sicurezza e responsabilità.

Gli sforzi europei per la regolamentazione dell’Intelligenza Artificiale: l’AI Act e le proposte di direttiva sulla responsabilità civile

La strategia europea di regolamentazione dell’Intelligenza Artificiale si baserà su un pacchetto di provvedimenti che dovrebbero vedere la luce in modo consequenziale.
Il principale tassello di questo percorso sarà l’AI Act, ossia il Regolamento europeo che stabilirà regole armonizzate sull’Intelligenza Artificiale, valide per tutti i sistemi di IA immessi nel territorio dell’Unione o il cui utilizzo abbia effetti su persone situate nell’UE.

L’impianto dell’AI Act è strutturato sui possibili rischi che i sistemi di Intelligenza Artificiale possono rappresentare per i diritti fondamentali, la salute e la sicurezza delle persone, secondo la seguente classificazione.

Rischio inaccettabile: saranno vietati gli usi dell’IA considerati particolarmente pericolosi, come il social scoring, l’identificazione biometrica in tempo reale in spazi accessibili al pubblico o il riconoscimento delle emozioni sui luoghi di lavoro e negli istituti di istruzione.

Rischio alto: i sistemi di IA che possono avere ripercussioni negative sui diritti delle persone dovranno essere sottoposti ad una apposita procedura di conformità ed essere muniti del marchio CE.
Potranno essere immessi ed utilizzati nel mercato dell’Unione solo se risponderanno a precisi standard di accuratezza, robustezza, cibersicurezza e trasparenza ed il loro funzionamento dovrà essere tenuto sotto controllo per l’intero ciclo di vita del sistema. Saranno creati obblighi giuridici ed adempimenti non solo per i produttori e gli sviluppatori ma anche per gli importatori, i distributori e gli operatori finali (esclusi i casi in cui il sistema di IA sia utilizzato nel corso di un’attività personale e non professionale). Gli operatori che forniscono sistemi di IA ad alto rischio dovranno predisporre una Valutazione di impatto sui diritti fondamentali o FRIA – Fundamental Rights Impact Assessment.

Rischio minimo: tutti gli altri sistemi di IA potranno essere sviluppati ed utilizzati nel rispetto della legislazione vigente e senza ulteriori vincoli, ma i fornitori potranno garantirne l’affidabilità mediante lo sviluppo o l’adesione a codici di condotta o di buone pratiche.

Anche i modelli di IA generativa di grandi dimensioni, come i Large Language Models, saranno valutati e regolamentati rispetto ai rischi sistemici ad essi connessi.

Possiamo, pertanto, affermare che una delle finalità dell’AI Act sia la prevenzione dei possibili effetti dannosi dell’Intelligenza Artificiale, pur nella consapevolezza che i pericoli possono essere limitati ma non eliminati radicalmente. A tal proposito, però, non saranno introdotte nel regolamento norme specifiche volte a stabilire chi sia tenuto al risarcimento, con quali modalità e in base a quali principi.

Per risolvere tali problematiche dovremo attendere ulteriori provvedimenti, ai quali l’UE sta già lavorando: il 28 settembre 2022 sono state presentate due proposte di direttiva finalizzate a disciplinare in maniera settoriale la materia della responsabilità per i danni dell’IA.

Si tratta della proposta di direttiva sulla responsabilità per danno da prodotti difettosi, che mira ad abrogare la precedente direttiva in materia, la n. 85/374/CEE, e a creare delle norme concepite anche per l’Intelligenza Artificiale.
L’attuale normativa comporta, infatti, delle difficoltà applicative difficilmente colmabili.
Sebbene il produttore sia responsabile per i danni causati dai difetti del suo prodotto, i sistemi di Intelligenza Artificiale, in ragione della loro capacità di prendere decisioni autonome, possono provocare danni anche se esenti da difetti di produzione o di progettazione.
La responsabilità del produttore è comunque esclusa se, al momento della messa in circolazione del prodotto, il difetto non esisteva o non era considerato tale sulla scorta delle conoscenze scientifiche e tecniche dell’epoca. A tal proposito giova ricordare che i sistemi di IA sono caratterizzati da capacità di adattamento anche dopo la loro implementazione e possono continuare ad apprendere dai dati durante il loro intero ciclo di vita, anche successivamente alla loro immissione sul mercato.
Il danneggiato, infine, per essere risarcito deve provare il difetto, il danno e la connessione causale tra i due. L’opacità algoritmica rendere questa prova particolarmente insidiosa.
Per tutti questi motivi, allo stato attuale, una persona che dovesse subire un danno provocato dall’Intelligenza Artificiale, rischierebbe di avere minori tutele rispetto ad altri danneggiati.

La seconda proposta di direttiva verte sulla responsabilità extracontrattuale da intelligenza artificiale, e si sviluppa su due cardini.
Da un lato, la creazione di una presunzione di nesso di causalità tra la mancata conformità ad un obbligo di diligenza previsto dalla normativa dell’Unione Europea (tra cui anche l’AI Act) ed un output dannoso, con l’obiettivo di superare i problemi probatori posti dall’opacità algoritmica.
Dall’altra, il diritto per il danneggiato di ottenere la divulgazione degli elementi di prova necessari a dimostrare la mancanza di conformità, con lo scopo di evitare che il soggetto responsabile del sistema di IA che ha provocato un danno si rifiuti di fornire le informazioni utili a valutare una domanda risarcimento, trincerandosi, ad esempio, dietro al segreto industriale.

Le tempistiche della regolamentazione

Il 9 dicembre 2023 è stato raggiunto un accordo provvisorio sull’approvazione dell’AI Act.
Il testo del provvedimento, modificato rispetto all’originaria proposta di regolamento del 2021, è stato approvato all’unanimità dal Consiglio Europeo in data 2 febbraio 2024 e sarà sottoposto al voto finale dell’Europarlamento il 24 aprile 2024. A quel punto dovremo attendere la traduzione nelle lingue di tutti i Paesi membri e la pubblicazione sulla Gazzetta Ufficiale dell’UE.
L’AI Act sarà interamente applicabile entro 24 mesi dalla sua entrata in vigore. Le direttive sulla responsabilità civile dell’IA, qualora approvate, sarebbero applicabili in un momento ulteriormente successivo.

Se l’intelligenza artificiale continuerà la sua avanzata esponenziale e si diffonderà sempre più capillarmente nel nostro tessuto economico e sociale, aumenteranno statisticamente anche le occasioni di produzione di danno e, consequenzialmente, potrebbero innescarsi azioni legali di risarcimento ben prima che la disciplina sulla responsabilità civile sia a regime.
Sinché perdurerà l’assenza di norme specifiche in materia, rimarrà difficile prefigurare le possibili decisioni dei Giudici. Tale incertezza non gioverà neppure ad una negoziazione, poiché le parti avrebbero pochi strumenti per determinarne a priori gli scenari alternativi all’accordo. Il tutto sarà aggravato dalla dimensione aterritoriale del fenomeno.

Nel prossimo futuro potrebbero vedere la luce leggi nazionali di settore oppure codici di autoregolamentazione. Si tratta, in ogni caso, di scenari che attualmente si presentano alquanto liquidi.

Conclusioni. Le strategie di contenimento del rischio

L’incertezza attuale non può essere eliminata ma può essere consapevolmente contenuta, tenendo presente che un’impresa potrà trovarsi nella posizione di dover rispondere ad una richiesta di risarcimento oppure essere essa stessa vittima di un danno.

Le imprese avranno a disposizione sino a 2 anni per adeguarsi alle norme, agli adempimenti ed agli obblighi dell’AI Act ma potranno aderire al c.d. “AI Pact”, attuando una compliance volontaria ed anticipata.

In questo modo, in caso di incidente, sarà possibile dimostrare di aver adottato da subito un comportamento virtuoso, volto all’utilizzo di un’Intelligenza Artificiale dotata di requisiti di affidabilità, trasparenza, robustezza e cibersicurezza.
Del pari sarà preferibile affidarsi a produttori e fornitori di tecnologia in grado di confermare un’analoga adesione.

Poiché le strategie preventive non saranno in grado di offrire una copertura totale rispetto al verificarsi di situazioni pregiudizievoli, sarà utile classificare a priori i danni che l’Intelligenza Artificiale in uso può arrecare, per valutarne le possibili conseguenze, anche sul piano economico.

Peraltro, l’AI Act introduce un nuovo strumento denominato FRIA – Fundamental Rights Impact Assessment o Valutazione dell’impatto sui diritti fondamentali, che dovrà comprendere:
– una descrizione dei processi che si avvarranno di sistemi di IA ad alto rischio;
– l’indicazione dei periodi di tempo e della frequenza di utilizzo;
– le categorie di persone fisiche e di gruppi di persone che possono essere interessati dall’uso dell’IA ad alto rischio in un contesto specifico;
– la descrizione dell’attuazione delle misure di sorveglianza umana e delle misure da adottare in caso di concretizzazione dei rischi;
una descrizione dei rischi specifici di danno.

Dall’analisi dei sinistri che si sono già verificati in passato, possiamo individuare le seguenti categorie di possibile pericolo:
– danni all’integrità psico-fisica ed alla salute;
– violazioni della privacy;
– violazioni del diritto d’autore;
– danni da discriminazione algoritmica;
– danni alla reputazione;
– danni ambientali;
– danni per perdite economico-patrimoniali.

Infine, qualora si decida di ricorrere all’utilizzo di strumenti tecnologici basati sull’Intelligenza Artificiale, occorrerà rafforzare l’analisi della contrattualistica per escludere la presenza di specifiche clausole di esonero dalla responsabilità.

 

Sportello Intelligenza Artificiale

Per maggiori informazioni non esitare a contattarci.

Sportello Intelligenza Artificiale​

Per maggiori informazioni
non esitare a contattarci.

Partecipa all'Evento

Partecipa all'Evento

Siamo a un'email di distanza

Compila il form