home search menu
IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento)<a title="" href="#_notatitolo1" id="_notatitoloref1">*</a>
Prassi e orientamenti
IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento)*
di Silvia Toffoletto
avvocato in Milano
Componente VII commissione Diritto dell’Unione europea – Ordine avvocati di Milano
Coordinatrice Gruppo Europa dell’Osservatorio sulla giustizia civile del Tribunale di Milano
Le applicazioni dell’intelligenza artificiale sono ormai “dentro” il nostro quotidiano, rendendo necessaria una regolamentazione del settore ormai improcrastinabile. Il dibattito si è aperto in sede europea, a livello dottrinale e legislativo, senza dimenticare il ruolo centrale che potranno assumere le Corti, grazie ad una giurisprudenza condivisa (Courts facing Courts), che miri ad una disciplina quanto più possibile uniforme anche dal punto di vista sostanziale in ambito europeo

1. Lo sviluppo tecnologico: auto driverless e gambe bioniche, passando per lo scandalo Cambridge Analytica

L’intelligenza artificiale sembrerebbe appartenere ad un futuro dai contorni ancora incerti, ma, al contrario, non è poi così distante da noi, anzi, è già “dentro” il nostro quotidiano e ci sta lentamente avvolgendo sempre più, come la rete di una ragnatela virtuale.

Tre esempi emblematici, appena registrati nelle cronache recenti.

Marzo 2018, Arizona (Stati Uniti d’America). Auto Uber senza conducente investe pedone di 49 anni che muore

A bordo c’era l’operatore, ma pare fosse distratto. Sono in corso le indagini della polizia. Proprio qualche settimana fa, il governatore dell’Arizona aveva dato il via libera alla circolazione sulle strade pubbliche delle auto condotte con l’intelligenza artificiale; in California, Nevada e Florida da tempo era stata concessa la ricerca sulla guida autonoma sul suolo pubblico.

Uber si è dichiarata pronta a collaborare nelle indagini ed ha interrotto tutti i test a guida autonoma nelle altre città, ma, si nota, allo stato, manca una normativa specifica; di certo i test riprenderanno, considerato che il mercato delle auto driverless, da stime recenti, ha un potenziale di espansione del valore di quasi 42 miliardi di dollari entro il 2025.

8-18 marzo 2018, Salone dell’auto di Ginevra

Si sente molto parlare di auto driverless, ma talvolta con una certa confusione; per fare chiarezza occorre ricordare che la Tabella SAE, realizzata dalla Society of Automotive Engineers, (associazione composta da oltre 100.000 ingegneri) divide in cinque livelli di automazione i sistemi presenti su una vettura in base a chi controlla l’ambiente di guida (il guidatore controlla l’ambiente di guida: livello 0 nessuna automazione; livello 1 assistenza al guidatore; livello 2 parziale automazione; il Sistema automatico controlla l’ambiente di guida: livello 3 automazione condizionata; livello 4 alta automazione; livello 5 completa automazione); ad oggi, in Italia, modelli come Mercedes-Benz Classe E e Bmw Serie 5 si avvicinano al grado 3.

Per il 2025 il Gruppo Volkswagen sta preparando mezzi conformi al livello 5 come il prototipo Cedric (Self driving car), che è un minivan elettrico a guida completamente autonoma dotato di telecamere e sensori laser di tipo Lidar, dove al suo interno non è prevista nessuna plancia di comando.

Intelligenza artificiale e protesi sanitarie (mano e gamba bioniche)

Già nel marzo 2015, grazie ai finanziamenti del Programma Horizon 2020 e agli studi italiani che vedono capofila l’Università Sant’Anna di Pisa, sono state create per l’utilizzo da parte degli utenti finali, protesi che rispondono ai comandi cerebrali, trasformando gli input in movimenti, protesi che, diversamente dal passato, possono essere utilizzate/trasportate dal paziente fuori dai laboratori, perché diventano trasportabili con uno zainetto e alimentate da una batteria con alcune ore di autonomia.

Scandalo Cambridge Analytica

Ultimo, ma non ultimo, è del marzo 2018 la notizia dello scandalo Facebook-Cambridge Analytica, che ha visto “profilare” 87 milioni di persone.

2. La risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica

Il 16 febbraio 2017, il Parlamento europeo ha adottato una risoluzione «recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica».

Il Parlamento, dopo aver osservato che «robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare» una nuova rivoluzione industriale e considerato che la crescita media delle vendite di robot nel 2014 è aumentata del 29%, il più considerevole aumento annuo mai registrato, e che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell’ultimo decennio, passa ad analizzare le conseguenze sociologiche delle applicazioni dell’intelligenza artificiale.

Gli impatti e le conseguenze possono così riassumersi: trasformazione del mercato del lavoro e quindi necessità di una riflessione sul futuro dell’istruzione, dell’occupazione e delle politiche sociali; ridistribuzione delle tipologie di competenze di cui avranno bisogno i lavoratori di domani; i bisogni cui far fronte rispetto ad una popolazione che invecchia, considerato che entro il 2025 oltre il 20% dei cittadini europei avrà 65 anni o più, e si assisterà a un aumento particolarmente rapido di chi ne avrà più di 80; inoltre, il maggiore ricorso a processi decisionali automatizzati e algoritmici, avranno senza dubbio un impatto sulle scelte compiute sia da un privato (ad esempio un’impresa o un internauta), che da un’autorità amministrativa, ma anche da un’autorità giudiziaria o da un qualsiasi altro ente pubblico, al fine di rappresentare la decisione finale di un consumatore, di un’impresa o di un’autorità.

In questo scenario, osserva il Parlamento, lo sviluppo della tecnologia robotica dovrebbe mirare a integrare le capacità umane, e non a sostituirle, ritenendo fondamentale, nello sviluppo della robotica e dell’intelligenza artificiale, garantire che gli uomini mantengano in qualsiasi momento il controllo sulle macchine intelligenti e sottolineando altresì il pericolo che nasca un attaccamento emotivo tra gli uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani e disabili), con il conseguente grave impatto emotivo e fisico che un tale attaccamento potrebbe avere sugli uomini.

Dopo l’analisi, il Parlamento invita la Commissione ad intraprendere alcune azioni quali:

1) elaborare delle definizioni comuni (di sistemi cyberfisici, sistemi autonomi, robot autonomi intelligenti, etc.);

2) introdurre un sistema globale dell’Unione per la registrazione dei robot avanzati nel mercato interno dell’Unione per categorie specifiche di robot;

3) stabilire criteri per la classificazione dei robot da registrare;

4) valutare se sia opportuno affidare la gestione del sistema di registrazione e del registro a un’agenzia designata dell’Ue per la robotica e l’intelligenza artificiale.

Sul piano del diritto, il Parlamento rileva molti problemi aperti, in quanto occorre chiarire in primo luogo, la responsabilità giuridica per quanto concerne sia il modello di impresa, sia le caratteristiche dei lavoratori, ed osserva inoltre, che i soggetti coinvolti nello sviluppo e nella commercializzazione di applicazioni dell’intelligenza artificiale dovrebbero essere preparati ad accettare di essere legalmente responsabili della qualità della tecnologia prodotta.

Potrebbero, inoltre, essere necessarie integrazioni, a breve, del Reg. (UE) 2016/679, per quanto riguarda le applicazioni e gli apparecchi che comunicano tra di loro e con le banche dati, senza l’intervento umano.

Osserva inoltre il Parlamento, che alcuni Stati esteri quali Stati Uniti, Giappone, Cina e Corea del Sud stanno prendendo in considerazione, e in una certa misura hanno già adottato, atti normativi in materia di robotica e intelligenza artificiale, e che alcuni Stati membri hanno iniziato a riflettere sulla possibile elaborazione di norme giuridiche.

Il Parlamento è quindi consapevole che «è necessaria una serie di norme che disciplinino in particolare la responsabilità civile per i danni causati da robot», che è una questione fondamentale («ritiene che la responsabilità civile per i danni causati dai robot sia una questione fondamentale, che deve essere altresì analizzata e affrontata a livello di Unione al fine di garantire il medesimo livello di efficienza, trasparenza e coerenza nell’attuazione della certezza giuridica in tutta l’Unione europea nell’interesse tanto dei cittadini e dei consumatori quanto delle imprese») ed invita ad adottare sia uno strumento legislativo, che strumenti para-legislativi, quali linee guida e codici di condotta.

I principi fissati per il futuro strumento legislativo consistono, in primo luogo, nel non limitare in alcun modo «l’entità dei danni» che devono essere risarciti e nel non limitare «le forme di risarcimento» che possono essere offerte alla parte lesa (solo perché il danno è provocato da un soggetto non umano), principi che evocano, latu sensu, quei principi che pochi anni prima erano stati affermati dalla Corte di giustizia nelle sentenze del 24 ottobre 2013, nelle cause C-22/12 e C-277/12 in materia di risarcimento danno ai congiunti di vittima primaria deceduta a seguito di incidente stradale.

Il Parlamento, dopo aver definito l’autonomia di un robot come «la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna», si pone il quesito, se le regole ordinarie in materia di responsabilità siano sufficienti o se siano necessari nuovi principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni e omissioni imputabili ai robot.

Il Parlamento, in altri termini, si domanda se, in base all’attuale quadro giuridico, la responsabilità da prodotto (secondo la quale il produttore di un prodotto è responsabile dei malfunzionamenti) e le norme che disciplinano la responsabilità per azioni dannose (in virtù delle quali l’utente di un prodotto è responsabile di un comportamento che conduce al danno) siano applicabili ai danni causati dai robot e dall’intelligenza artificiale, ponendosi poi il problema, nel caso i robot acquisissero la capacità di assumere decisioni autonome, se siano sufficienti le norme tradizionali.

Il Parlamento osserva, infatti, che la direttiva 85/374/CEE riguarda solamente i danni causati dai difetti di fabbricazione di un robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, «il difetto nel prodotto» e il nesso di causalità tra difetto e danno, ma questo potrebbe non essere sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di adattamento e di apprendimento che implicano un certo grado di imprevedibilità nel loro comportamento, dato che «imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno», e interagirebbero con l’ambiente in modo unico e imprevedibile.

Sul punto ci si permette di essere critici e di sottolineare come tale imprevedibilità faccia parte di una “imprevedibilità prevedibile”, in quanto anche nella creazione dell’algoritmo più sofisticato, l’ideatore, in base a processi matematici, ha un range di prevedibilità dell’operato del robot, in quanto, se è vero che gli input non vengono tutti inseriti al momento della creazione, ma vengono acquisiti anche durante la “vita” del robot (cd. “autoapprendimento”), il processo matematico che collega gli input, anche se via via acquisiti durante il percorso di attivazione del robot, è comunque sempre immesso dal fattore umano, dall’ideatore.

Proseguendo nell’analisi, il Parlamento evidenzia altri problemi aperti, quali ad esempio, le carenze dell’attuale quadro normativo anche in materia di responsabilità contrattuale, dal momento che le macchine progettate per scegliere le loro controparti, negoziare termini contrattuali, concludere contratti e decidere se e come attuarli, rendono inapplicabili le norme tradizionali in materia di responsabilità contrattuale, con necessità di nuove norme.

3. Robotica e data protection

Una questione estremamente rilevante riguarda la protezione dei dati, in quanto il diritto al rispetto della vita privata e alla protezione dei dati personali, quale stabilito dagli articoli 7 e 8 della Carta e dall’articolo 16 del trattato sul funzionamento dell’Unione europea (TFUE), si applica a tutti gli ambiti della robotica e nel quadro dell’attuazione del Reg. (UE) 679/2016, il Parlamento chiede che vengano chiarite norme e criteri relativi, ad esempio, all’uso di fotocamere e sensori nei robot.

Il Parlamento invita quindi la Commissione, a garantire che siano rispettati − anche nella disciplina dell’intelligenza artificiale − tutti i principi stabiliti dalla normativa sulla protezione dei dati, come la tutela della vita privata fin dalla progettazione e per impostazione predefinita, la minimizzazione dei dati e la limitazione delle finalità, così come meccanismi di controllo trasparenti per i titolari dei dati e misure correttive adeguate conformi alla legislazione dell’Unione in materia di protezione dei dati, auspicando che siano promosse adeguate raccomandazioni e norme da integrare nelle politiche dell’Unione.

Sottolinea inoltre che la libera circolazione dei dati è indispensabile per l’economia digitale e lo sviluppo nel settore della robotica e dell’intelligenza artificiale, ma evidenzia che un elevato livello di sicurezza dei sistemi della robotica, compresi i loro sistemi di dati interni e i flussi di dati, è fondamentale per un utilizzo adeguato dei robot e dell’intelligenza artificiale, sottolineando, altresì, che deve essere garantita la protezione delle reti di robot e intelligenza artificiale interconnessi onde prevenire eventuali violazioni della sicurezza.

4. Problemi aperti nel settore driverless e non solo

Il Parlamento mette poi sotto la lente di ingrandimento le problematiche connesse alle autovetture driverless, essendo ormai la relativa tecnologia alle porte (cfr. paragrafo 1) ed evidenzia le seguenti categorie di problemi:

1) la responsabilità civile (responsabilità e assicurazione);

2) la sicurezza stradale;

3) tutte le tematiche relative all’ambiente (efficienza energetica, utilizzo di tecnologie e fonti di energia rinnovabili, etc.);

4) le problematiche relative ai dati (ad esempio, accesso ai dati, protezione dei dati personali e privacy, condivisione di informazioni);

5) le questioni relative all’infrastruttura TIC-Tecnologie dell’informazione e della comunicazione (ICT-Information and Communications Technology) (ad esempio, un livello elevato di comunicazione efficiente e affidabile);

6) le problematiche relative all’occupazione (ad esempio, la creazione e la perdita di posti di lavoro, la formazione dei conducenti di veicoli commerciali pesanti per la guida dei veicoli automatizzati), etc.

Ma, analogamente, potrebbero essere evidenziate le problematiche per numerosi altri settori, come ad esempio i sistemi aerei a pilotaggio remoto, robot impiegati per l’assistenza agli anziani, robot medici, sostituzione organi danneggiati del corpo umano, educazione e mondo del lavoro (carenze di professionalità), impatto ambientale, etc.

5. Proposte del Parlamento europeo nella risoluzione del 16 febbraio 2017

Il Parlamento formula alcune proposte e suggerimenti per la redazione della successiva normazione da parte della Commissione, ricordando, in primo luogo, che nella scelta tra un regime di responsabilità oggettiva e un approccio della gestione dei rischi, a favore della scelta per un regime di responsabilità oggettiva, milita il fatto che per tale tipo di responsabilità viene richiesto al danneggiato solo la prova del danno avvenuto e l’individuazione di un nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte, ma che a favore dell’approccio di gestione dei rischi, milita il fatto che la responsabilità non si concentra sulla persona “che ha agito con negligenza" in quanto responsabile a livello individuale, bensì sulla persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo.

Le indicazioni fornite dal Parlamento riguardano:

1) I legittimati passivi. La loro responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore; osservando peraltro, che, nella determinazione della responsabilità reale per il danno causato, le competenze derivanti dalla “formazione” di un robot non dovrebbero essere confuse con le competenze che dipendono strettamente dalle sue abilità di autoapprendimento, osservando «che, almeno nella fase attuale, la responsabilità deve essere imputata a un essere umano e non a un robot»; (ma neanche in una fase futura, ci si permette di osservare...).

2) Regime di assicurazione obbligatorio. Per una soluzione alla complessità del problema «di chi la colpa», il Parlamento propone un regime di assicurazione obbligatorio (che tenga conto delle responsabilità non solo dell’ultimo anello della catena, ma di tutte le potenziali responsabilità lungo la catena), in virtù del quale, come avviene già per le automobili, venga imposto ai produttori e i proprietari dei robot di sottoscrivere una copertura assicurativa per i danni potenzialmente causati dai loro robot.

Le problematiche lasciate aperte riguardano invece la scelta tra la creazione di un fondo generale per tutti i robot autonomi intelligenti o di un fondo individuale per ogni categoria di robot e tra il versamento di un contributo una tantum all’immissione sul mercato di un robot o versamenti regolari durante la vita del robot; sollecitando, in ogni caso, il Parlamento, l’istituzione di un numero d’immatricolazione individuale, iscritto in un registro specifico dell’Unione, al fine di associare in modo evidente il robot al suo fondo, onde consentire a chiunque interagisce con il robot di essere informato sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

Il Parlamento propone anche che vi sia la possibilità per il produttore, il programmatore, il proprietario o l’utente di beneficiare di una responsabilità limitata, qualora costituiscano un fondo di risarcimento nonché qualora sottoscrivano congiuntamente un’assicurazione che garantisca un risarcimento in caso di danni arrecati da un robot, e caldeggia l’istituzione di un Fondo di garanzia (come per la Rca), per garantire il risarcimento quando il danno è causato da un robot che non è assicurato.

Il Parlamento, da ultimo, invita il settore assicurativo a elaborare nuovi prodotti e tipologie di offerte in linea con i progressi della robotica.

6. Istituzione di uno status giuridico specifico per i robot

Nella risoluzione del Parlamento europeo del 16 febbraio 2017 viene anche auspicata «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».

Su questo punto ci si permetta un totale disaccordo, sia dal punto di vista tecnico-scientifico, per quanto su evidenziato, sia dal punto di vista della tecnica legislativa, in quanto questa scelta potrebbe incentivare una totale deresponsabilizzazione del produttore e dell’ideatore, un pericoloso laissez faire, considerato che i produttori e ideatori agirebbero su un mercato globale, con regole non uniformi e pericolosi incastri di “scatole cinesi” a livello mondiale, che minerebbero in ultima analisi il concreto risarcimento, per problemi, non ultimi, legati all’effettiva solvibilità del debitore.

7. I singoli Stati e la Convenzione di Vienna del 1968

Per quanto attiene lo stato dell’arte nei singoli Stati, in particolare in materia di auto driverless, si riscontrano vistose anomalie.

Germania

In Europa, la prima legge europea in tema di auto autonome è stata approvata di recente, il 12 maggio 2017 dal Bundestag, sull’onda delle richieste soprattutto dei produttori nazionali, quali Bmw, Mercedes, Volkswagen.

Viene consentita la sperimentazione sulle normali strade tedesche, richiedendo ancora la presenza a bordo di un essere umano, ma consentendo di effettuare test tecnologici che consentano al conducente di fare qualcos’altro, mentre è in viaggio, e non gli impone di tenere le mani sul volante, situazione corrispondente al livello 4 (su 5) di autonomia. Ogni veicolo dovrà essere equipaggiato di una scatola nera molto sofisticata, analoga a quelle impiegate in campo aereospaziale; in aggiunta tutti i dati dovranno essere disponibili per una durata di almeno sei mesi per essere accessibili alle forze dell’ordine in caso di richiesta.

Francia

Le aziende che testano veicoli, come Psa e Renault, devono chiedere una deroga al Ministero dell’ecologia (che comprende anche i trasporti), che dalla fine del 2014 ne ha concesse più di quaranta.

Alla fine del mese di ottobre 2017 è stato inoltre creato l’Alto rappresentante per lo sviluppo dei veicoli autonomi che sta preparando un’evoluzione normativa per facilitare e ampliare le opportunità di sperimentazione per la fine del 2018, con però sempre un essere umano a bordo.

Regno Unito

L’obiettivo è di autorizzare le auto driverless a partire dal 2021, e si sta preparando una riforma dell’assicurazione autoveicoli per consentire a tutte le parti di essere coperte in caso di incidenti che comportino una guida automatizzata.

Giappone

È stato fissato il 2020 come obiettivo per la commercializzazione di veicoli senza conducente, in modo che l’industria sia pronta per le Olimpiadi di Tokyo del 2020.

La Convenzione di Vienna del 1968

Stati Uniti, Giappone e Regno Unito hanno probabilmente maggior margine di manovra, anche grazie al fatto che gli Stati Uniti e il Giappone non hanno firmato la Convenzione di Vienna del 1968 sulla circolazione stradale, e il Regno Unito non l’ha ratificata.

Tale convenzione (che si ricorda è un trattato universale, entrato in vigore il 21 maggio 1977, depositata presso il segretariato dell’Onu, cui hanno partecipato 72 Paesi) non consente, in un contesto commerciale, di andare oltre un certo livello di automazione (a seguito dell’ultimo emendamento l’art. 8 recita: «Ogni guidatore deve essere sempre presente e abile a prendere il controllo del veicolo, i cui sistemi devono poter essere scavalcati o spenti in qualsiasi momento»).

Le previsioni di riforma della Convenzione di Vienna del 1968, parlano di una patente di guida di livello 3 (guida automatizzata, mani sul volante e attenzione del conducente su strada) verso il 2020.

8. Il parere del Comitato economico e sociale europeo

Il Comitato economico e sociale europeo-Cese (organo consultivo, cui partecipano rappresentanti delle varie realtà economiche degli Stati, che si riunisce una volta al mese a Bruxelles) in data 31 maggio 2017, nel documento C-288 pubblicato il 31 agosto 2017, ha espresso varie perplessità rispetto alla risoluzione del Parlamento del 16 febbraio2017.

Il Cese, dopo aver individuato undici settori nei quali l’Intelligenza artificiale (IA) pone sfide per la società (etica; sicurezza; privacy; trasparenza e rendicontabilità; lavoro; istruzione e competenze; (dis)uguaglianza e inclusività; disposizioni legislative e regolamentari; governance e democrazia; guerra; super-intelligenza), si è dichiarato in primo luogo contrario a introdurre una forma di personalità giuridica per i robot o per l’IA, in quanto in tal modo verrebbe compromesso l’effetto di correzione preventiva della nozione di responsabilità giuridica, con possibilità di azzardo morale.

Il Cese non condivide, inoltre, il principio di stabilire una definizione unica di intelligenza artificiale, esistendo varie (sotto)branche, quali, ad esempio l’informatica cognitiva (cognitive computing: algoritmi capaci di ragionamento e comprensione a un livello superiore, ossia più simile alla mente umana), l’apprendimento automatico (machine learning: algoritmi in grado di apprendere autonomamente determinate mansioni), l’intelligenza aumentata (augmented intelligence: collaborazione tra uomo e macchina), la robotica intelligente (AI robotics: intelligenza artificiale incorporata nei robot).

In materia di data protection, poi, il Cese manifesta una forte preoccupazione, essendo ormai numerosi i prodotti (di consumo) dotati di IA integrata: elettrodomestici, giocattoli per bambini, automobili, dispositivi per monitorare la salute (health tracker) e smartphone.

Il Cese sottolinea infatti, che tutti questi prodotti trasmettono dati (spesso personali) alle piattaforme di cloud computing dei produttori e visto che il commercio di dati è in piena espansione, nel senso che i dati generati non rimangono presso il produttore ma vengono rivenduti a terzi, è lecito chiedersi se il rispetto della vita privata sia sufficientemente garantito.

Come dianzi evidenziato, con riferimento alle raccomandazioni del Parlamento, ove si propone di esaminare l’opportunità di introdurre il concetto di «personalità elettronica» per i robot, il Cese è contrario, in quanto vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo; il confronto con la responsabilità limitata delle società è fuori luogo, in quanto deve sempre la persona fisica essere responsabile in ultima istanza.

A tale riguardo, il Cese propone di esaminare in quale misura la normativa nazionale e dell’Ue vigente e la giurisprudenza in materia di responsabilità (per danno da prodotti difettosi e di rischio) e colpa propria siano sufficienti a rispondere a tale questione e, in caso contrario, quali soluzioni si impongano sul piano giuridico.

9. De iure condendo

In questa materia dai confini ancora incerti, dottrina e osservatori si interrogano su quali categorie giuridiche utilizzare e se, in modo provocatorio, effettivamente vi sia la necessità a livello europeo di creare nuove norme ad hoc per la nuova categoria della responsabilità civile da “algoritmo” [1].

A fronte di quanti hanno catalogato la responsabilità de qua in una nuova categoria di danno da prodotto, a cui apportare in varia misura dei correttivi, altra parte della dottrina [2] si interroga sulle radici più profonde del nostro sistema di responsabilità per fatti illeciti che va dagli art. 2043 e segg. fino all’art. 2059 cc. Dopo aver analizzato la responsabilità per fatto altri, dagli aspetti più peculiari delle origini del sistema romanistico dello schiavo considerato come res, a quella per fatto dell’animale e a quella dei padroni e committenti per fatto dei “domestici e commessi”, ci si chiede se la responsabilità da cose (attività pericolose, circolazione stradale, cose in custodia) possa essere idonea a disciplinare “la cosa da algoritmo”, o se l’intelligenza artificiale, in quanto capace di autoapprendimento, trovi miglior disciplina negli artt. 2049 (responsabilità del committente) o art. 2052 (danno cagionato da animale).

La particolarità della fattispecie viene rinvenuta nel fatto che la cosa governata dall’algoritmo può trovare la sede della sua “intelligenza” non tanto nell’oggetto materiale, ma in altro da sé, alimentato dalla rete, e che l’”autore” dell’intelligenza artificiale può non coincidere con il produttore del bene che la incorpora, rendendo separabili i profili del produttore e dell’ideatore dell’algoritmo.

Le analisi della fattispecie sono complesse come complesso è il sapere scientifico che ne è alla base, di talché la soluzione proposta propende per una responsabilità oggettiva, con abbandono del principio della colpa, diventando preminente l’evento, l’accadimento in sé, con l’apporto di garanzie assicurative e la creazione di appositi fondi.

Nell’”adattamento” delle norme già esistenti all’evoluzione tecnologica, ampio risalto viene anche dato alle norme in materia di danno da prodotto.

Ci si consentano a questo punto brevissime riflessioni a margine.

La prima osservazione riguarda la responsabilità del proprietario della “cosa” dotata di intelligenza artificiale, che non dovrebbe andare totalmente esente da responsabilità, nel senso che la responsabilità del proprietario andrebbe certo modulata, inserita in un contesto di responsabilità solidale, ove l’apporto causale dovrebbe essere residuale e in percentuale del tutto minoritaria, ma senza scomparire totalmente. E questo, sia consentito, per una sorta di responsabilizzazione dell’utente, rispetto all’oggetto che acquista e utilizza.

Di fronte ad un produttore che commercializza il bene e sovente inserisce on-line o su carta, una serie di spiegazioni, condizioni generali di contratto, che ormai quasi nessuno ha più tempo di leggere, con un obiettivo di vendita a brevissimo termine e con una probabilità molto remota, futura ed incerta di un contenzioso per difetto del prodotto, vuoi per il valore contenuto del bene, vuoi per le difficoltà di intentare una causa dagli aspetti sovente transnazionali, un “filtro” all’immissione incondizionata nel mercato di una quantità di beni dotati di AI, potrebbe essere costituito non solo nell’entità del risarcimento da comminare al produttore e al creatore dell’algoritmo, ma anche nella responsabilizzazione dell’acquirente.

Un’imputazione di responsabilità anche dell’utente finale potrebbe favorire formule commerciali uniformi, regole più chiare nella vendita per consentire all’utente di scegliere con un certo grado di consapevolezza quello che sta acquistando, e, in ultima analisi, potrebbe contribuire a “regolamentare” un mercato che, allo stato, sembra dai contorni ancora oscuri.

L’Internet delle cose (IoT) ormai viene commercializzato via rete in tutti gli ambiti: dall’innaffia piante, al frigorifero che memorizza che cosa manca al suo interno dei prodotti usualmente consumati dal proprietario, al “cerca-gatto”, all’aspirapolvere automatico, alla domotica nell’abitazione (sicurezza, riscaldamento, luci, etc).

Se il divario di conoscenza tra l’ideatore e l’utilizzatore finale risulta ormai abissale (lontani i vecchi tempi dei “pistoni” delle prime 500, con un proprietario e conducente consci della capacità dell’autovettura, con un “dominio”, una capacità di comprensione del funzionamento del veicolo), dall’altro lato un ruolo di responsabilizzazione può ancora averlo l’utente finale, non fosse altro perché, per le regole del mercato, sarà spinto ad acquistare un prodotto che dà maggiori garanzie a livello tecnico e di protezione di rete e che viene corredato da spiegazioni comprensibili, responsabilizzazione che diverrà naturale, nella misura in cui anche il proprietario della cosa sia chiamato in prima linea all’imputazione di responsabilità e al conseguente risarcimento del danno.

10. L’ultimo − ma non trascurabile − tassello

Come dianzi richiamato, molti sono gli scenari rappresentati dalla letteratura e dalle cronache giornalistiche: auto driverless guidate da un’intelligenza esterna che guida altri veicoli mappando un intero comprensorio, che coordina l’intero traffico gestendo illimitate informazioni (Big data), conducenti umani vietatissimi, risarcimento non da responsabilità, ma da evento, per coprire i casi anomali, tramite copertura assicurativa e fondi dedicati.

Manca ancora una tessera del puzzle però: il quantum del risarcimento.

Courts facing Courts, allora, perché è senz’altro al tavolo di discussione sul quantum del risarcimento per la responsabilità da algoritmo, che il giurista-essere umano (e non l’algoritmo predittivo) può riprendersi il suo ruolo da protagonista, mettendosi ad un tavolo, tutte le Corti europee, ed iniziando finalmente quel dibattito, quel dialogo in materia di risarcimento del danno ed entità della sua liquidazione a livello europeo, che ad oggi stenta a decollare, e che invece è così connaturato alla rete che, oltrepassando i confini territoriali, riduce le coordinate spazio-temporali ad un click.



[*] Note a margine del convegno “Intelligenza artificiale e primi profili applicativi: Giustizia, IoT e Lavoratori” (Aula Magna del Palazzo di Giustizia di Milano, 17 aprile 2018) 

[1] U. Ruffolo, Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva allauto driverless: verso una “responsabilità da algoritmo”?, in Atti del Convegno 29 novembre 2017-Università per stranieri di Perugia, Giuffrè, Milano, 2017.

[2] AA.VV., Intelligenza artificiale e responsabilità, a cura di U. Ruffolo, Giuffrè, Milano, 2017.

13 giugno 2018
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Il dialogo fra le Corti e le sorti (sembra non magnifiche, né progressive) dell’integrazione europea
Il dialogo fra le Corti e le sorti (sembra non magnifiche, né progressive) dell’integrazione europea
di Antonello Cosentino
Il giudice comune nazionale ha sempre avuto con la Cgue relazioni più fluide rispetto a quelle intrattenute con la Cedu. A partire dalla sentenza 14 dicembre 2017 n. 269 della Corte costituzionale, però, lo schema dell’applicazione diretta del diritto euro-unitario da parte del giudice nazionale sembra essere stato rimesso in discussione. La Corte costituzionale ha rivendicato la propria centralità nella dialettica tra giudice comune, giudice costituzionale e Cgue. Dagli equilibri che si raggiungeranno in tale dialettica dipenderà grande parte del ruolo che il giudice nazionale giocherà nel futuro dell’integrazione europea
1 ottobre 2018
Stato di diritto ed integrazione processuale europea. La Corte di giustizia ed il caso Polonia
Stato di diritto ed integrazione processuale europea. La Corte di giustizia ed il caso Polonia
di Gualtiero Michelini
Commento a prima lettura dell’attesa sentenza della Corte di giustizia del 25 luglio 2018, nel procedimento pregiudiziale d’urgenza su rinvio dell’Alta Corte irlandese nel corso di una procedura di esecuzione di un mandato di arresto europeo emesso dall'autorità giudiziaria polacca. La decisione della Corte di giustizia affronta le questioni, determinate dalle riforme attuate dal governo polacco in pregiudizio dell’indipendenza del sistema giudiziario, della rilevanza giuridica e dell’impatto sull’applicazione della normativa del mandato di arresto europeo dell'avvio, da parte della Commissione europea, della procedura di accertamento della violazione sistemica dei principi di indipendenza del sistema giudiziario e dello Stato di diritto in Polonia in relazione alla Carta dei diritti fondamentali dell’Unione europea.
27 luglio 2018
Il giudice nel silenzio della legge: riconosciuta la doppia maternità in applicazione diretta della legge sulla procreazione assistita
Il giudice nel silenzio della legge: riconosciuta la doppia maternità in applicazione diretta della legge sulla procreazione assistita
di Luca Giacomelli
Per la prima volta è stato disposto che l’ufficiale di stato civile è obbligato a firmare l’atto di nascita del bambino riconoscendo la doppia maternità sin dall’inizio. Questo alla luce di un’interpretazione costituzionalmente conforme della legge n. 40 del 2004 sulla procreazione medicalmente assistita. Al giudice non interessa il modo in cui è nato il minore, ma solo garantire la tutela dei suoi diritti
11 luglio 2018
Corte di giustizia Ue, dal 1° luglio anonime le cause pregiudiziali
Corte di giustizia Ue, dal 1° luglio anonime le cause pregiudiziali
di Alice Pisapia
Con l’entrata in vigore del nuovo regolamento generale sulla protezione dei dati personali (2016/679), la Cgue rafforza la protezione dei dati delle persone fisiche
10 luglio 2018
La rilevanza dell’appello e dell’audizione nel procedimento di protezione internazionale. Riflessioni a margine della sentenza della Corte di appello di Bari n. 1117/2018
La rilevanza dell’appello e dell’audizione nel procedimento di protezione internazionale. Riflessioni a margine della sentenza della Corte di appello di Bari n. 1117/2018
di Alessandra Favi
La sentenza in commento permette di svolgere alcune brevi riflessioni circa la rilevanza dell’appello e dell’audizione nel procedimento di protezione internazionale, oggetto di profonda revisione ad opera della l. n. 46/2017. Punto di riferimento dell’analisi è il diritto fondamentale ad una tutela giurisdizionale effettiva sancito all’art. 47 della Carta dei diritti fondamentali dell’Unione europea
9 luglio 2018
La legittimazione del pm alla presentazione dell’istanza di fallimento: stato dell’arte e prospettive di riforma
La legittimazione del pm alla presentazione dell’istanza di fallimento: stato dell’arte e prospettive di riforma
di Raffaella Brogi
Il decreto in commento costituisce l’occasione per fare il punto sull’attuale disciplina della legittimazione del pm alla richiesta di fallimento anche alla luce delle riforme del diritto concorsuale, preannunciate dalla legge 19 ottobre 2017, n. 155 (Delega al Governo per la riforma delle discipline della crisi di impresa e dell'insolvenza)
4 luglio 2018
Diritto dell’Ue e soggiorno del richiedente protezione internazionale in attesa dell’esito del ricorso in Cassazione: qualche osservazione a margine dell’ordinanza di rinvio pregiudiziale del Tribunale di Milano (n. 44718/2017)
Diritto dell’Ue e soggiorno del richiedente protezione internazionale in attesa dell’esito del ricorso in Cassazione: qualche osservazione a margine dell’ordinanza di rinvio pregiudiziale del Tribunale di Milano (n. 44718/2017)
di Adelina Adinolfi
Il diritto dell’Unione europea incide sulle norme processuali nazionali attraverso una pluralità di fonti: atti normativi che, pur in assenza di un’armonizzazione complessiva, pongono alcune regole relative a specifici settori, principi enunciati dalla Corte di giustizia, nonché la Carta dei diritti fondamentali. L’incidenza di tali fonti sull’ordinamento interno è talora incerta, in relazione sia al campo di applicazione sia ai contenuti; non è facile, infatti, declinare in regole concrete l’obbligo generale degli Stati membri di assicurare la tutela giurisdizionale effettiva nei settori disciplinati dal diritto dell’Unione. Tali difficoltà interpretative sono ben evidenziate dall’ordinanza di rinvio pregiudiziale del Tribunale di Milano riguardo alla controversa questione del diritto del richiedente protezione internazionale di soggiornare nello Stato in attesa dell’esito del ricorso in Cassazione. L’ordinanza costituisce l’occasione per mettere in luce le possibili interpretazioni di alcune norme dell’Unione rilevanti per la questione considerata, avvalorando l’opportunità di ottenere un chiarimento da parte della Corte di giustizia
29 giugno 2018
La Banca dati nazionale del Dna e la salvaguardia del diritto al rispetto della vita privata del singolo
La Banca dati nazionale del Dna e la salvaguardia del diritto al rispetto della vita privata del singolo
di Emilio Gatti
La raccolta a fini investigativi e la conservazione dei profili genetici pone delicati problemi di compatibilità delle esigenze investigative con il diritto al rispetto della vita privata e familiare previsto dall’art. 8 della Cedu soprattutto nei confronti di individui indagati ma poi assolti con sentenza definitiva. Il contributo ripercorre la giurisprudenza della Corte europea dei diritti dell’uomo, l’obbligo di creare una banca dati nazionale del Dna stabilito dal Trattato di Prüm e le soluzioni adottate dal legislatore italiano che paiono rispettose dei principi convenzionali e costituzionali, in attesa di verificare la correttezza delle prassi applicative
6 giugno 2018
Appunti per un progetto di riforma delle garanzie di credito
Appunti per un progetto di riforma delle garanzie di credito
di Francesco Macario
L’Associazione dei civilisti italiani ha promosso una ricerca per l’esame degli ambiti normativi del diritto privato che, considerando in primo luogo le disposizioni del codice civile, mostrano le maggiori criticità ed esigenze di aggiornamento (ossia di “modernizzazione”, per riprendere l’espressione usata dal legislatore tedesco, che una quindicina di anni fa provvedeva alla riforma del diritto generale delle obbligazioni e dei contratti). Nell’ambito di questa ricerca, che investe il diritto dei rapporti patrimoniali tra privati ad ampio raggio, l’area delle garanzie del credito è senza dubbio una delle più complesse e, al contempo, più bisognosa di un’opera organica di svecchiamento delle diverse discipline. La linearità delle distinzioni strutturali tradizionali (in primo luogo, quella tra garanzie personali e reali), che connota il codice civile va dunque ripensata, alla luce in primo luogo della complessità dello scenario normativo e regolamentare dei diversi settori. S’impone una ricerca e ridefinizione dei principi comuni, tanto nelle garanzie personali, quanto nelle garanzie reali, nella difficile sfida che per il giurista, come per l’eventuale legislatore riformatore, determina l’esigenza del raccordo tra le norme generali del diritto comune delle obbligazioni e le diverse discipline settoriali, maturate in considerazione delle esigenze di una prassi, spesso transnazionale, anch’essa da razionalizzare e ricondurre al sistema
29 maggio 2018
La giurisprudenza del Tribunale di Roma dopo il revirement della Corte di cassazione sull’assegno divorzile
La giurisprudenza del Tribunale di Roma dopo il revirement della Corte di cassazione sull’assegno divorzile
di Franca Mangano
Nell’ultimo anno i giudici della I Sezione civile del Tribunale di Roma si sono confrontati con la sentenza n. 11504/2017 valorizzando, per quanto possibile, gli aspetti di continuità con la precedente giurisprudenza, in vista di una interpretazione dell’istituto dell’assegno divorzile adeguata alla mutata fisionomia del matrimonio ma anche coerente con i principi di solidarietà garantiti dalla Costituzione, nell’auspicio che le Sezioni unite prestino attenzione allo sforzo ricostruttivo dei giudici di merito.
10 maggio 2018
Newsletter


Fascicolo 2/2018
L’ospite straniero.
La protezione internazionale
nel sistema multilivello di tutela
dei diritti fondamentali
Prassi e orientamenti
Il Consiglio giudiziario nelle riflessioni di un componente non togato*
di Alberto Roccella
Il saggio espone il ruolo e le funzioni dei Consigli giudiziari in composizione ordinaria dal punto di vista di un professore universitario di materie giuridiche e illustra l’esperienza del funzionamento del Consiglio giudiziario presso la Corte d’appello di Milano
17 ottobre 2018
Alla ricerca di buone prassi nel contenzioso famiglia: l'esperienza del Tribunale di Livorno
Alla ricerca di buone prassi nel contenzioso famiglia: l'esperienza del Tribunale di Livorno
di Azzurra Fodra
Un progetto tabellare e un protocollo di ampio respiro: così il Tribunale di Livorno attua qualità e efficacia nella gestione del contenzioso per la famiglia e i minori
2 ottobre 2018
Il dialogo fra le Corti e le sorti (sembra non magnifiche, né progressive) dell’integrazione europea
Il dialogo fra le Corti e le sorti (sembra non magnifiche, né progressive) dell’integrazione europea
di Antonello Cosentino
Il giudice comune nazionale ha sempre avuto con la Cgue relazioni più fluide rispetto a quelle intrattenute con la Cedu. A partire dalla sentenza 14 dicembre 2017 n. 269 della Corte costituzionale, però, lo schema dell’applicazione diretta del diritto euro-unitario da parte del giudice nazionale sembra essere stato rimesso in discussione. La Corte costituzionale ha rivendicato la propria centralità nella dialettica tra giudice comune, giudice costituzionale e Cgue. Dagli equilibri che si raggiungeranno in tale dialettica dipenderà grande parte del ruolo che il giudice nazionale giocherà nel futuro dell’integrazione europea
1 ottobre 2018
L’abuso del processo penale
L’abuso del processo penale
di Luigi Pacifici
L’abuso del processo costituisce una valvola di autotutela per l’ordinamento, elaborata, in ambito dottrinale e giurisprudenziale, al fine di evitare che i diritti da esso garantiti siano esercitati o realizzati, pur a mezzo di un intervento giurisdizionale, in maniera abusiva, ovvero eccessiva e distorta
19 settembre 2018
Le ong in acque agitate tra Sicilia orientale e Sicilia occidentale
Le ong in acque agitate tra Sicilia orientale e Sicilia occidentale
di Stefano Greco
Questo scritto non ha la pretesa e l’intenzione di risolvere un dibattito interessantissimo attualmente in corso tra i vari uffici giudiziari sul soccorso in mare e i possibili risvolti del favoreggiamento dell’immigrazione, ma vuole solo porre alcune questioni che sono rimaste in ombra ma necessitano di un maggiore approfondimento anche alla luce di quanto accade di ora in ora tra chiusure dei porti, navi che aspettano un luogo sicuro dove sbarcare i sopravvissuti, navi che vengono impedite alla partenza pur non essendo sotto sequestro
18 luglio 2018
Reati motivati da ragioni di odio e discriminazione etnico-religiosa e immigrazione: le direttive del Procuratore della Repubblica di Torino
Reati motivati da ragioni di odio e discriminazione etnico-religiosa e immigrazione: le direttive del Procuratore della Repubblica di Torino
Pubblichiamo le Direttive per un più efficace contrasto dei reati motivati da ragioni di odio e discriminazione etnico-religiosa e per la più rapida trattazione degli Affari dell’Immigrazione, nel rispetto dei diritti fondamentali delle persone emanate il 9 luglio 2018
17 luglio 2018