Intelligenza artificiale: aspetti legali e temi irrisolti

Intelligenza artificiale: etica tra aspetti giuridici, normativi, politici

I recenti sviluppi dell’Intelligenza Artificiale e delle soluzioni ad essa collegate hanno cambiato radicalmente non solo l’ambito IT, ma anche la vita di tutti i giorni. Questa rivoluzione porta inevitabilmente con sé anche riflessi sui piani normativo e sociale, creando nuove lacune giuridiche da colmare e sfide che, solo qualche decennio fa, sembravano appartenere ad un futuro lontano.

Uno dei temi indubbiamente più discussi riguarda la responsabilità civile derivante da danni provocati sistemi di AI dotati di algoritmi di machine learning e deep learning, dai quali deriva una capacità di decision-making fondata sull’esperienza e sull’autoapprendimento.

Posto, infatti, che anche il sistema intelligente potrebbe “sbagliare” (ovvero, interrogato a rispondere su un determinato quesito, fornire, sulla base di parametri incompleti o parziali, una risposta oggettivamente errata: si pensi, solo per un esempio, ai sistemi predittivi che ultimamente si stanno sempre più diffondendo in ambito bancario per la gestione del rischio di credito ai clienti) o trovarsi nella situazione di assumere una decisione cui consegua la produzione di un danno (fin troppo inflazionato è l’esempio – solo apparentemente futuristico – dell’automobile self-driving chiamata, in situazione di emergenza, a decidere se causare una lesione al proprio passeggero o all’incauto pedone che sta attraversando la strada nonostante il semaforo rosso), si pone la necessità di rispondere ad un fondamentale interrogativo:

Chi risponde delle condotte autonome dei sistemi intelligenti?

Occorre premettere che quando si parla di profili civilistici di responsabilità, bisogna sempre tenere presente che la responsabilità può essere:

  • Contrattuale: presuppone l’esistenza di un vincolo contrattuale tra due soggetti e si configura quando uno dei due sia inadempiente rispetto alle obbligazioni dedotte in contratto;
  • Extra-contrattuale: non richiede la necessaria esistenza di un contratto, ma discende da un principio generale dell’ordinamento giuridico, che è quello del neminem laedere, vale a dire dal principio, sancito agli artt. 2043 e ss. cc., per cui nelle attività di vita ordinarie occorre prestare attenzione a non cagionare agli altri dei danni ingiusti. Chi cagiona ad altri un danno ingiusto, in maniera dolosa o colposa, ne risponde ed è quindi tenuto a risarcire il danno.

Entrambe le forme di responsabilità possono, naturalmente, configurarsi in relazione all’utilizzo di sistemi intelligenti, talvolta potendo addirittura sovrapporsi con riferimento al medesimo evento dannoso  (per fare il classico esempio riguardante l’auto a guida autonoma, se qualcosa nel sistema si inceppa e l’utilizzatore riporta dei danni, la responsabilità che potrà essere fatta valere nei confronti del produttore dell’auto avrà natura contrattuale; se, tuttavia, in conseguenza del difetto riscontrato, l’auto impatta un altro veicolo, cagionando danni materiali ad un terzo, il proprietario della prima risponderà nei confronti di quest’ultimo per danno extracontrattuale).

Tanto premesso, non esiste, ad oggi, alcuna normativa italiana o europea che vada specificamente a disciplinare il ricorso a sistemi di intelligenza artificiale e a normare ad hoc le conseguenze giuridiche derivanti dalle condotte dei robot, tuttavia esiste comunque un quadro legislativo applicabile ai sistemi di AI considerati come “prodotti”.

Tale normativa, è sostanzialmente riconducibile a 3 direttive europee:

  • La direttiva “Macchine” (Direttiva 2006/42/CE), che disciplina i requisiti di salute e sicurezza imposti in sede di progettazione e costruzione delle macchine e necessari perché queste possano essere immesse in commercio (la cui presenza è attestata dalla marcatura CE);
  • La Direttiva 01/95/CE sulla sicurezza generale dei prodotti, che impone un requisito generale di sicurezza per ogni prodotto (non solo, dunque, i macchinari) immesso sul mercato e destinato al consumo, compresi i prodotti utilizzati nell’ambito di servizi;
  • La Direttiva 99/44/CE sulla vendita e le garanzie dei beni di consumo: probabilmente la più nota tra queste normative, disciplina i diritti e le garanzie riconosciuti ai consumatori in relazione ai prodotti destinati alla vendita al consumo.

Ciò posto, non c’è alcun dubbio che, nelle ipotesi di difetti di produzione, il sistema intelligente possa venir trattato come un mero bene di consumo e il suo fruitore tutelato dalle garanzie commerciali e dai rimedi previsti in caso di vizi di conformità.

Analogamente, in caso di danni (all’utilizzatore e a terzi) causati da tali difetti di produzione, troverà applicazione la normativa europea (e, conseguentemente, quella italiana), che disciplina la responsabilità da prodotto difettoso accogliendo il principio della responsabilità oggettiva del produttore (fabbricante) in caso di danno. Se, pertanto, un soggetto subisce un danno derivante da un sistema intelligente difettoso, responsabile sarà il produttore di tale sistema, indipendentemente dalla sussistenza di profili di dolo o di colpa.

Da notare che, per “fabbricante”, ai sensi della direttiva europea, si intende “una persona fisica o giuridica che progetta e/o realizza una macchina o una quasi-macchina”. Accogliendo ed applicando una simile definizione alla produzione di sistemi di Artificial Intelligence potremmo arrivare ad affermare la responsabilità oggettiva non solo del “fabbricante” del sistema finito, ma anche del fabbricante di un semplice componente, quale ad esempio lo sviluppatore del software o addirittura del solo algoritmo alla base del sistema.

Tuttavia, la normativa sulla responsabilità del fabbricante riesce a dirimere solo le casistiche in cui il sistema intelligente sia considerato come una  “macchina o una quasi-macchina”, cioè un oggetto, ma non aiuta nei casi in cui il sistema agisca come un “agente”.

In sostanza, se il sistema intelligente è programmato per apprendere e decidere autonomamente la propria condotta per effetto della propria esperienza e della propria interazione con l’ambiente, anche eventualmente superando il controllo umano, chi lo progetta, lo programma o lo costruisce potrebbe non essere in grado di prevederne interamente le reazioni rispetto al mondo che lo circonda.

Quali sono le regole civilistiche da osservare nella fabbricazione e nell’impiego della robotica

Ad un’attenta analisi, è facile intuire che in una fattispecie di danno potrebbero potenzialmente essere chiamati in causa più soggetti, (ad esempio, il creatore e l’ideatore dell’algoritmo, il programmatore, il produttore, l’utente, il proprietario, ecc.).  Ma le attuali norme in materia di responsabilità civile non consentono di dare all’interrogativo una risposta certa, poiché la capacità del sistema intelligente di autodeterminarsi potrebbe dar luogo a condotte imprevedibili o inevitabili, in ogni caso idonee ad interrompere uno stretto nesso di causalità tra la condotta del produttore e/o dell’utilizzatore del sistema AI e l’evento dannoso.

Per indirizzare le problematiche legali aperte e attualmente non risolvibili sulla base delle normative vigenti, nel febbraio 2017, il Parlamento Europeo ha approvato una Proposta di Risoluzione recante “Raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica”: in pratica, ha invitato la Commissione a formulare e sottoporre a iter legislativo una proposta di direttiva che individui le regole civilistiche da applicarsi, in maniera uniforme in tutti gli Stati Membri, all’impiego della robotica.

In materia di responsabilità civile, il Parlamento prospetta due possibili modelli di attribuzione della responsabilità:

  • Un regime di responsabilità oggettiva o di “strict liability” del produttore: il produttore dell’intelligenza artificiale o di un suo componente incorrerebbe sempre in responsabilità per i danni cagionati dalla macchina, a prescindere da eventuali profili di dolo o di colpa;
  • Un approccio di “gestione dei rischi”, che dovrebbe servire ad individuare, tra i soggetti potenzialmente coinvolti nel verificarsi della lesione (coloro che fanno parte dei processi di ideazione, progettazione, produzione e commercializzazione del sistema intelligente), quello che possa essere ritenuto responsabile del danno in quanto reputato “causalmente più vicino al prodotto”, a seconda del tipo di malfunzionamento verificatosi e, dunque, più idoneo a gestirne a monte il relativo rischio.

Proprio con l’obiettivo di gestire al meglio il rischio, nell’ottica del Parlamento Europeo, accanto a tale regime di responsabilità, occorrerebbe valutare anche:

  • Istituzione di un regime assicurativo obbligatorio relativo a categorie specifiche di robot self-learning, in virtù del quale, come avviene già per le automobili, venga imposto ai produttori e i proprietari dei robot di sottoscrivere una copertura assicurativa per i danni potenzialmente causati dai loro robot;
  • La costituzione di un apposito fondo per garantire al soggetto leso il risarcimento del danno cagionato dal robot in caso di mancata copertura assicurativa;
  • L’istituzione di una forma di immatricolazione individuale dei robot, al fine di associare in modo evidente il robot al suo fondo e consentire a chiunque interagisce con il robot di essere informato sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

Il tema è ormai all’ordine del giorno nella discussione tra esperti e l’evoluzione della tecnologia lo rende sempre più attuale ed urgente. La risposta legislativa dovrà essere necessariamente sovranazionale e ben ponderata, poiché potrebbe sancire su quali soggetti, nell’intera catena di ideazione, produzione, distribuzione e fruizione dei sistemi AI, ricadano i costi del progresso tecnologico, con conseguenti possibili spinte ovvero ipotetici freni alla produzione e all’adozione di queste tecnologie.

Questi argomenti sono ripresi anche dall’opzione 2  e/o dall’opzione 3 della Valutazione d’impatto iniziale legata alla revisione della direttiva macchine  che propongono una revisione dei requisiti essenziali di sicurezza e salute anche orientate al  progresso tecnico nella digitalizzazione.

Lo Studio Favari ringrazia pubblicamente la Dott. Anna Italiano per l’articolo pubblicato su www.ai4business.it da cui abbiamo tratto gran parte dei contenuti sopra condivisi.