Magistratura democratica
Prassi e orientamenti

IoT e intelligenza artificiale: le nuove frontiere della responsabilità civile (e del risarcimento)*

di Silvia Toffoletto
avvocato in Milano<br>Componente VII commissione Diritto dell’Unione europea – Ordine avvocati di Milano<br>Coordinatrice Gruppo Europa dell’Osservatorio sulla giustizia civile del Tribunale di Milano
Le applicazioni dell’intelligenza artificiale sono ormai “dentro” il nostro quotidiano, rendendo necessaria una regolamentazione del settore ormai improcrastinabile. Il dibattito si è aperto in sede europea, a livello dottrinale e legislativo, senza dimenticare il ruolo centrale che potranno assumere le Corti, grazie ad una giurisprudenza condivisa (Courts facing Courts), che miri ad una disciplina quanto più possibile uniforme anche dal punto di vista sostanziale in ambito europeo

1. Lo sviluppo tecnologico: auto driverless e gambe bioniche, passando per lo scandalo Cambridge Analytica

L’intelligenza artificiale sembrerebbe appartenere ad un futuro dai contorni ancora incerti, ma, al contrario, non è poi così distante da noi, anzi, è già “dentro” il nostro quotidiano e ci sta lentamente avvolgendo sempre più, come la rete di una ragnatela virtuale.

Tre esempi emblematici, appena registrati nelle cronache recenti.

Marzo 2018, Arizona (Stati Uniti d’America). Auto Uber senza conducente investe pedone di 49 anni che muore

A bordo c’era l’operatore, ma pare fosse distratto. Sono in corso le indagini della polizia. Proprio qualche settimana fa, il governatore dell’Arizona aveva dato il via libera alla circolazione sulle strade pubbliche delle auto condotte con l’intelligenza artificiale; in California, Nevada e Florida da tempo era stata concessa la ricerca sulla guida autonoma sul suolo pubblico.

Uber si è dichiarata pronta a collaborare nelle indagini ed ha interrotto tutti i test a guida autonoma nelle altre città, ma, si nota, allo stato, manca una normativa specifica; di certo i test riprenderanno, considerato che il mercato delle auto driverless, da stime recenti, ha un potenziale di espansione del valore di quasi 42 miliardi di dollari entro il 2025.

8-18 marzo 2018, Salone dell’auto di Ginevra

Si sente molto parlare di auto driverless, ma talvolta con una certa confusione; per fare chiarezza occorre ricordare che la Tabella SAE, realizzata dalla Society of Automotive Engineers, (associazione composta da oltre 100.000 ingegneri) divide in cinque livelli di automazione i sistemi presenti su una vettura in base a chi controlla l’ambiente di guida (il guidatore controlla l’ambiente di guida: livello 0 nessuna automazione; livello 1 assistenza al guidatore; livello 2 parziale automazione; il Sistema automatico controlla l’ambiente di guida: livello 3 automazione condizionata; livello 4 alta automazione; livello 5 completa automazione); ad oggi, in Italia, modelli come Mercedes-Benz Classe E e Bmw Serie 5 si avvicinano al grado 3.

Per il 2025 il Gruppo Volkswagen sta preparando mezzi conformi al livello 5 come il prototipo Cedric (Self driving car), che è un minivan elettrico a guida completamente autonoma dotato di telecamere e sensori laser di tipo Lidar, dove al suo interno non è prevista nessuna plancia di comando.

Intelligenza artificiale e protesi sanitarie (mano e gamba bioniche)

Già nel marzo 2015, grazie ai finanziamenti del Programma Horizon 2020 e agli studi italiani che vedono capofila l’Università Sant’Anna di Pisa, sono state create per l’utilizzo da parte degli utenti finali, protesi che rispondono ai comandi cerebrali, trasformando gli input in movimenti, protesi che, diversamente dal passato, possono essere utilizzate/trasportate dal paziente fuori dai laboratori, perché diventano trasportabili con uno zainetto e alimentate da una batteria con alcune ore di autonomia.

Scandalo Cambridge Analytica

Ultimo, ma non ultimo, è del marzo 2018 la notizia dello scandalo Facebook-Cambridge Analytica, che ha visto “profilare” 87 milioni di persone.

2. La risoluzione del Parlamento europeo del 16 febbraio 2017 recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica

Il 16 febbraio 2017, il Parlamento europeo ha adottato una risoluzione «recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica».

Il Parlamento, dopo aver osservato che «robot, bot, androidi e altre manifestazioni dell’intelligenza artificiale sembrano sul punto di avviare» una nuova rivoluzione industriale e considerato che la crescita media delle vendite di robot nel 2014 è aumentata del 29%, il più considerevole aumento annuo mai registrato, e che le richieste di brevetto per le tecnologie robotiche sono triplicate nel corso dell’ultimo decennio, passa ad analizzare le conseguenze sociologiche delle applicazioni dell’intelligenza artificiale.

Gli impatti e le conseguenze possono così riassumersi: trasformazione del mercato del lavoro e quindi necessità di una riflessione sul futuro dell’istruzione, dell’occupazione e delle politiche sociali; ridistribuzione delle tipologie di competenze di cui avranno bisogno i lavoratori di domani; i bisogni cui far fronte rispetto ad una popolazione che invecchia, considerato che entro il 2025 oltre il 20% dei cittadini europei avrà 65 anni o più, e si assisterà a un aumento particolarmente rapido di chi ne avrà più di 80; inoltre, il maggiore ricorso a processi decisionali automatizzati e algoritmici, avranno senza dubbio un impatto sulle scelte compiute sia da un privato (ad esempio un’impresa o un internauta), che da un’autorità amministrativa, ma anche da un’autorità giudiziaria o da un qualsiasi altro ente pubblico, al fine di rappresentare la decisione finale di un consumatore, di un’impresa o di un’autorità.

In questo scenario, osserva il Parlamento, lo sviluppo della tecnologia robotica dovrebbe mirare a integrare le capacità umane, e non a sostituirle, ritenendo fondamentale, nello sviluppo della robotica e dell’intelligenza artificiale, garantire che gli uomini mantengano in qualsiasi momento il controllo sulle macchine intelligenti e sottolineando altresì il pericolo che nasca un attaccamento emotivo tra gli uomini e i robot, in particolare per i gruppi vulnerabili (bambini, anziani e disabili), con il conseguente grave impatto emotivo e fisico che un tale attaccamento potrebbe avere sugli uomini.

Dopo l’analisi, il Parlamento invita la Commissione ad intraprendere alcune azioni quali:

1) elaborare delle definizioni comuni (di sistemi cyberfisici, sistemi autonomi, robot autonomi intelligenti, etc.);

2) introdurre un sistema globale dell’Unione per la registrazione dei robot avanzati nel mercato interno dell’Unione per categorie specifiche di robot;

3) stabilire criteri per la classificazione dei robot da registrare;

4) valutare se sia opportuno affidare la gestione del sistema di registrazione e del registro a un’agenzia designata dell’Ue per la robotica e l’intelligenza artificiale.

Sul piano del diritto, il Parlamento rileva molti problemi aperti, in quanto occorre chiarire in primo luogo, la responsabilità giuridica per quanto concerne sia il modello di impresa, sia le caratteristiche dei lavoratori, ed osserva inoltre, che i soggetti coinvolti nello sviluppo e nella commercializzazione di applicazioni dell’intelligenza artificiale dovrebbero essere preparati ad accettare di essere legalmente responsabili della qualità della tecnologia prodotta.

Potrebbero, inoltre, essere necessarie integrazioni, a breve, del Reg. (UE) 2016/679, per quanto riguarda le applicazioni e gli apparecchi che comunicano tra di loro e con le banche dati, senza l’intervento umano.

Osserva inoltre il Parlamento, che alcuni Stati esteri quali Stati Uniti, Giappone, Cina e Corea del Sud stanno prendendo in considerazione, e in una certa misura hanno già adottato, atti normativi in materia di robotica e intelligenza artificiale, e che alcuni Stati membri hanno iniziato a riflettere sulla possibile elaborazione di norme giuridiche.

Il Parlamento è quindi consapevole che «è necessaria una serie di norme che disciplinino in particolare la responsabilità civile per i danni causati da robot», che è una questione fondamentale («ritiene che la responsabilità civile per i danni causati dai robot sia una questione fondamentale, che deve essere altresì analizzata e affrontata a livello di Unione al fine di garantire il medesimo livello di efficienza, trasparenza e coerenza nell’attuazione della certezza giuridica in tutta l’Unione europea nell’interesse tanto dei cittadini e dei consumatori quanto delle imprese») ed invita ad adottare sia uno strumento legislativo, che strumenti para-legislativi, quali linee guida e codici di condotta.

I principi fissati per il futuro strumento legislativo consistono, in primo luogo, nel non limitare in alcun modo «l’entità dei danni» che devono essere risarciti e nel non limitare «le forme di risarcimento» che possono essere offerte alla parte lesa (solo perché il danno è provocato da un soggetto non umano), principi che evocano, latu sensu, quei principi che pochi anni prima erano stati affermati dalla Corte di giustizia nelle sentenze del 24 ottobre 2013, nelle cause C-22/12 e C-277/12 in materia di risarcimento danno ai congiunti di vittima primaria deceduta a seguito di incidente stradale.

Il Parlamento, dopo aver definito l’autonomia di un robot come «la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna», si pone il quesito, se le regole ordinarie in materia di responsabilità siano sufficienti o se siano necessari nuovi principi e regole volte a chiarire la responsabilità legale dei vari attori per azioni e omissioni imputabili ai robot.

Il Parlamento, in altri termini, si domanda se, in base all’attuale quadro giuridico, la responsabilità da prodotto (secondo la quale il produttore di un prodotto è responsabile dei malfunzionamenti) e le norme che disciplinano la responsabilità per azioni dannose (in virtù delle quali l’utente di un prodotto è responsabile di un comportamento che conduce al danno) siano applicabili ai danni causati dai robot e dall’intelligenza artificiale, ponendosi poi il problema, nel caso i robot acquisissero la capacità di assumere decisioni autonome, se siano sufficienti le norme tradizionali.

Il Parlamento osserva, infatti, che la direttiva 85/374/CEE riguarda solamente i danni causati dai difetti di fabbricazione di un robot e a condizione che la persona danneggiata sia in grado di dimostrare il danno effettivo, «il difetto nel prodotto» e il nesso di causalità tra difetto e danno, ma questo potrebbe non essere sufficiente a coprire i danni causati dalla nuova generazione di robot, in quanto questi possono essere dotati di capacità di adattamento e di apprendimento che implicano un certo grado di imprevedibilità nel loro comportamento, dato che «imparerebbero in modo autonomo, in base alle esperienze diversificate di ciascuno», e interagirebbero con l’ambiente in modo unico e imprevedibile.

Sul punto ci si permette di essere critici e di sottolineare come tale imprevedibilità faccia parte di una “imprevedibilità prevedibile”, in quanto anche nella creazione dell’algoritmo più sofisticato, l’ideatore, in base a processi matematici, ha un range di prevedibilità dell’operato del robot, in quanto, se è vero che gli input non vengono tutti inseriti al momento della creazione, ma vengono acquisiti anche durante la “vita” del robot (cd. “autoapprendimento”), il processo matematico che collega gli input, anche se via via acquisiti durante il percorso di attivazione del robot, è comunque sempre immesso dal fattore umano, dall’ideatore.

Proseguendo nell’analisi, il Parlamento evidenzia altri problemi aperti, quali ad esempio, le carenze dell’attuale quadro normativo anche in materia di responsabilità contrattuale, dal momento che le macchine progettate per scegliere le loro controparti, negoziare termini contrattuali, concludere contratti e decidere se e come attuarli, rendono inapplicabili le norme tradizionali in materia di responsabilità contrattuale, con necessità di nuove norme.

3. Robotica e data protection

Una questione estremamente rilevante riguarda la protezione dei dati, in quanto il diritto al rispetto della vita privata e alla protezione dei dati personali, quale stabilito dagli articoli 7 e 8 della Carta e dall’articolo 16 del trattato sul funzionamento dell’Unione europea (TFUE), si applica a tutti gli ambiti della robotica e nel quadro dell’attuazione del Reg. (UE) 679/2016, il Parlamento chiede che vengano chiarite norme e criteri relativi, ad esempio, all’uso di fotocamere e sensori nei robot.

Il Parlamento invita quindi la Commissione, a garantire che siano rispettati − anche nella disciplina dell’intelligenza artificiale − tutti i principi stabiliti dalla normativa sulla protezione dei dati, come la tutela della vita privata fin dalla progettazione e per impostazione predefinita, la minimizzazione dei dati e la limitazione delle finalità, così come meccanismi di controllo trasparenti per i titolari dei dati e misure correttive adeguate conformi alla legislazione dell’Unione in materia di protezione dei dati, auspicando che siano promosse adeguate raccomandazioni e norme da integrare nelle politiche dell’Unione.

Sottolinea inoltre che la libera circolazione dei dati è indispensabile per l’economia digitale e lo sviluppo nel settore della robotica e dell’intelligenza artificiale, ma evidenzia che un elevato livello di sicurezza dei sistemi della robotica, compresi i loro sistemi di dati interni e i flussi di dati, è fondamentale per un utilizzo adeguato dei robot e dell’intelligenza artificiale, sottolineando, altresì, che deve essere garantita la protezione delle reti di robot e intelligenza artificiale interconnessi onde prevenire eventuali violazioni della sicurezza.

4. Problemi aperti nel settore driverless e non solo

Il Parlamento mette poi sotto la lente di ingrandimento le problematiche connesse alle autovetture driverless, essendo ormai la relativa tecnologia alle porte (cfr. paragrafo 1) ed evidenzia le seguenti categorie di problemi:

1) la responsabilità civile (responsabilità e assicurazione);

2) la sicurezza stradale;

3) tutte le tematiche relative all’ambiente (efficienza energetica, utilizzo di tecnologie e fonti di energia rinnovabili, etc.);

4) le problematiche relative ai dati (ad esempio, accesso ai dati, protezione dei dati personali e privacy, condivisione di informazioni);

5) le questioni relative all’infrastruttura TIC-Tecnologie dell’informazione e della comunicazione (ICT-Information and Communications Technology) (ad esempio, un livello elevato di comunicazione efficiente e affidabile);

6) le problematiche relative all’occupazione (ad esempio, la creazione e la perdita di posti di lavoro, la formazione dei conducenti di veicoli commerciali pesanti per la guida dei veicoli automatizzati), etc.

Ma, analogamente, potrebbero essere evidenziate le problematiche per numerosi altri settori, come ad esempio i sistemi aerei a pilotaggio remoto, robot impiegati per l’assistenza agli anziani, robot medici, sostituzione organi danneggiati del corpo umano, educazione e mondo del lavoro (carenze di professionalità), impatto ambientale, etc.

5. Proposte del Parlamento europeo nella risoluzione del 16 febbraio 2017

Il Parlamento formula alcune proposte e suggerimenti per la redazione della successiva normazione da parte della Commissione, ricordando, in primo luogo, che nella scelta tra un regime di responsabilità oggettiva e un approccio della gestione dei rischi, a favore della scelta per un regime di responsabilità oggettiva, milita il fatto che per tale tipo di responsabilità viene richiesto al danneggiato solo la prova del danno avvenuto e l’individuazione di un nesso di causalità tra il funzionamento lesivo del robot e il danno subito dalla parte, ma che a favore dell’approccio di gestione dei rischi, milita il fatto che la responsabilità non si concentra sulla persona “che ha agito con negligenza" in quanto responsabile a livello individuale, bensì sulla persona che, in determinate circostanze, è in grado di minimizzare i rischi e affrontare l’impatto negativo.

Le indicazioni fornite dal Parlamento riguardano:

1) I legittimati passivi. La loro responsabilità dovrebbe essere proporzionale all’effettivo livello di istruzioni impartite al robot e al grado di autonomia di quest’ultimo, di modo che quanto maggiore è la capacità di apprendimento o l’autonomia di un robot e quanto maggiore è la durata della formazione di un robot, tanto maggiore dovrebbe essere la responsabilità del suo formatore; osservando peraltro, che, nella determinazione della responsabilità reale per il danno causato, le competenze derivanti dalla “formazione” di un robot non dovrebbero essere confuse con le competenze che dipendono strettamente dalle sue abilità di autoapprendimento, osservando «che, almeno nella fase attuale, la responsabilità deve essere imputata a un essere umano e non a un robot»; (ma neanche in una fase futura, ci si permette di osservare...).

2) Regime di assicurazione obbligatorio. Per una soluzione alla complessità del problema «di chi la colpa», il Parlamento propone un regime di assicurazione obbligatorio (che tenga conto delle responsabilità non solo dell’ultimo anello della catena, ma di tutte le potenziali responsabilità lungo la catena), in virtù del quale, come avviene già per le automobili, venga imposto ai produttori e i proprietari dei robot di sottoscrivere una copertura assicurativa per i danni potenzialmente causati dai loro robot.

Le problematiche lasciate aperte riguardano invece la scelta tra la creazione di un fondo generale per tutti i robot autonomi intelligenti o di un fondo individuale per ogni categoria di robot e tra il versamento di un contributo una tantum all’immissione sul mercato di un robot o versamenti regolari durante la vita del robot; sollecitando, in ogni caso, il Parlamento, l’istituzione di un numero d’immatricolazione individuale, iscritto in un registro specifico dell’Unione, al fine di associare in modo evidente il robot al suo fondo, onde consentire a chiunque interagisce con il robot di essere informato sulla natura del fondo, sui limiti della responsabilità in caso di danni alle cose, sui nomi e sulle funzioni dei contributori e su tutte le altre informazioni pertinenti.

Il Parlamento propone anche che vi sia la possibilità per il produttore, il programmatore, il proprietario o l’utente di beneficiare di una responsabilità limitata, qualora costituiscano un fondo di risarcimento nonché qualora sottoscrivano congiuntamente un’assicurazione che garantisca un risarcimento in caso di danni arrecati da un robot, e caldeggia l’istituzione di un Fondo di garanzia (come per la Rca), per garantire il risarcimento quando il danno è causato da un robot che non è assicurato.

Il Parlamento, da ultimo, invita il settore assicurativo a elaborare nuovi prodotti e tipologie di offerte in linea con i progressi della robotica.

6. Istituzione di uno status giuridico specifico per i robot

Nella risoluzione del Parlamento europeo del 16 febbraio 2017 viene anche auspicata «l’istituzione di uno status giuridico specifico per i robot nel lungo termine, di modo che almeno i robot autonomi più sofisticati possano essere considerati come persone elettroniche responsabili di risarcire qualsiasi danno da loro causato, nonché eventualmente il riconoscimento della personalità elettronica dei robot che prendono decisioni autonome o che interagiscono in modo indipendente con terzi».

Su questo punto ci si permetta un totale disaccordo, sia dal punto di vista tecnico-scientifico, per quanto su evidenziato, sia dal punto di vista della tecnica legislativa, in quanto questa scelta potrebbe incentivare una totale deresponsabilizzazione del produttore e dell’ideatore, un pericoloso laissez faire, considerato che i produttori e ideatori agirebbero su un mercato globale, con regole non uniformi e pericolosi incastri di “scatole cinesi” a livello mondiale, che minerebbero in ultima analisi il concreto risarcimento, per problemi, non ultimi, legati all’effettiva solvibilità del debitore.

7. I singoli Stati e la Convenzione di Vienna del 1968

Per quanto attiene lo stato dell’arte nei singoli Stati, in particolare in materia di auto driverless, si riscontrano vistose anomalie.

Germania

In Europa, la prima legge europea in tema di auto autonome è stata approvata di recente, il 12 maggio 2017 dal Bundestag, sull’onda delle richieste soprattutto dei produttori nazionali, quali Bmw, Mercedes, Volkswagen.

Viene consentita la sperimentazione sulle normali strade tedesche, richiedendo ancora la presenza a bordo di un essere umano, ma consentendo di effettuare test tecnologici che consentano al conducente di fare qualcos’altro, mentre è in viaggio, e non gli impone di tenere le mani sul volante, situazione corrispondente al livello 4 (su 5) di autonomia. Ogni veicolo dovrà essere equipaggiato di una scatola nera molto sofisticata, analoga a quelle impiegate in campo aereospaziale; in aggiunta tutti i dati dovranno essere disponibili per una durata di almeno sei mesi per essere accessibili alle forze dell’ordine in caso di richiesta.

Francia

Le aziende che testano veicoli, come Psa e Renault, devono chiedere una deroga al Ministero dell’ecologia (che comprende anche i trasporti), che dalla fine del 2014 ne ha concesse più di quaranta.

Alla fine del mese di ottobre 2017 è stato inoltre creato l’Alto rappresentante per lo sviluppo dei veicoli autonomi che sta preparando un’evoluzione normativa per facilitare e ampliare le opportunità di sperimentazione per la fine del 2018, con però sempre un essere umano a bordo.

Regno Unito

L’obiettivo è di autorizzare le auto driverless a partire dal 2021, e si sta preparando una riforma dell’assicurazione autoveicoli per consentire a tutte le parti di essere coperte in caso di incidenti che comportino una guida automatizzata.

Giappone

È stato fissato il 2020 come obiettivo per la commercializzazione di veicoli senza conducente, in modo che l’industria sia pronta per le Olimpiadi di Tokyo del 2020.

La Convenzione di Vienna del 1968

Stati Uniti, Giappone e Regno Unito hanno probabilmente maggior margine di manovra, anche grazie al fatto che gli Stati Uniti e il Giappone non hanno firmato la Convenzione di Vienna del 1968 sulla circolazione stradale, e il Regno Unito non l’ha ratificata.

Tale convenzione (che si ricorda è un trattato universale, entrato in vigore il 21 maggio 1977, depositata presso il segretariato dell’Onu, cui hanno partecipato 72 Paesi) non consente, in un contesto commerciale, di andare oltre un certo livello di automazione (a seguito dell’ultimo emendamento l’art. 8 recita: «Ogni guidatore deve essere sempre presente e abile a prendere il controllo del veicolo, i cui sistemi devono poter essere scavalcati o spenti in qualsiasi momento»).

Le previsioni di riforma della Convenzione di Vienna del 1968, parlano di una patente di guida di livello 3 (guida automatizzata, mani sul volante e attenzione del conducente su strada) verso il 2020.

8. Il parere del Comitato economico e sociale europeo

Il Comitato economico e sociale europeo-Cese (organo consultivo, cui partecipano rappresentanti delle varie realtà economiche degli Stati, che si riunisce una volta al mese a Bruxelles) in data 31 maggio 2017, nel documento C-288 pubblicato il 31 agosto 2017, ha espresso varie perplessità rispetto alla risoluzione del Parlamento del 16 febbraio2017.

Il Cese, dopo aver individuato undici settori nei quali l’Intelligenza artificiale (IA) pone sfide per la società (etica; sicurezza; privacy; trasparenza e rendicontabilità; lavoro; istruzione e competenze; (dis)uguaglianza e inclusività; disposizioni legislative e regolamentari; governance e democrazia; guerra; super-intelligenza), si è dichiarato in primo luogo contrario a introdurre una forma di personalità giuridica per i robot o per l’IA, in quanto in tal modo verrebbe compromesso l’effetto di correzione preventiva della nozione di responsabilità giuridica, con possibilità di azzardo morale.

Il Cese non condivide, inoltre, il principio di stabilire una definizione unica di intelligenza artificiale, esistendo varie (sotto)branche, quali, ad esempio l’informatica cognitiva (cognitive computing: algoritmi capaci di ragionamento e comprensione a un livello superiore, ossia più simile alla mente umana), l’apprendimento automatico (machine learning: algoritmi in grado di apprendere autonomamente determinate mansioni), l’intelligenza aumentata (augmented intelligence: collaborazione tra uomo e macchina), la robotica intelligente (AI robotics: intelligenza artificiale incorporata nei robot).

In materia di data protection, poi, il Cese manifesta una forte preoccupazione, essendo ormai numerosi i prodotti (di consumo) dotati di IA integrata: elettrodomestici, giocattoli per bambini, automobili, dispositivi per monitorare la salute (health tracker) e smartphone.

Il Cese sottolinea infatti, che tutti questi prodotti trasmettono dati (spesso personali) alle piattaforme di cloud computing dei produttori e visto che il commercio di dati è in piena espansione, nel senso che i dati generati non rimangono presso il produttore ma vengono rivenduti a terzi, è lecito chiedersi se il rispetto della vita privata sia sufficientemente garantito.

Come dianzi evidenziato, con riferimento alle raccomandazioni del Parlamento, ove si propone di esaminare l’opportunità di introdurre il concetto di «personalità elettronica» per i robot, il Cese è contrario, in quanto vi è il rischio di un uso inappropriato e di abuso di uno status giuridico di questo tipo; il confronto con la responsabilità limitata delle società è fuori luogo, in quanto deve sempre la persona fisica essere responsabile in ultima istanza.

A tale riguardo, il Cese propone di esaminare in quale misura la normativa nazionale e dell’Ue vigente e la giurisprudenza in materia di responsabilità (per danno da prodotti difettosi e di rischio) e colpa propria siano sufficienti a rispondere a tale questione e, in caso contrario, quali soluzioni si impongano sul piano giuridico.

9. De iure condendo

In questa materia dai confini ancora incerti, dottrina e osservatori si interrogano su quali categorie giuridiche utilizzare e se, in modo provocatorio, effettivamente vi sia la necessità a livello europeo di creare nuove norme ad hoc per la nuova categoria della responsabilità civile da “algoritmo” [1].

A fronte di quanti hanno catalogato la responsabilità de qua in una nuova categoria di danno da prodotto, a cui apportare in varia misura dei correttivi, altra parte della dottrina [2] si interroga sulle radici più profonde del nostro sistema di responsabilità per fatti illeciti che va dagli art. 2043 e segg. fino all’art. 2059 cc. Dopo aver analizzato la responsabilità per fatto altri, dagli aspetti più peculiari delle origini del sistema romanistico dello schiavo considerato come res, a quella per fatto dell’animale e a quella dei padroni e committenti per fatto dei “domestici e commessi”, ci si chiede se la responsabilità da cose (attività pericolose, circolazione stradale, cose in custodia) possa essere idonea a disciplinare “la cosa da algoritmo”, o se l’intelligenza artificiale, in quanto capace di autoapprendimento, trovi miglior disciplina negli artt. 2049 (responsabilità del committente) o art. 2052 (danno cagionato da animale).

La particolarità della fattispecie viene rinvenuta nel fatto che la cosa governata dall’algoritmo può trovare la sede della sua “intelligenza” non tanto nell’oggetto materiale, ma in altro da sé, alimentato dalla rete, e che l’”autore” dell’intelligenza artificiale può non coincidere con il produttore del bene che la incorpora, rendendo separabili i profili del produttore e dell’ideatore dell’algoritmo.

Le analisi della fattispecie sono complesse come complesso è il sapere scientifico che ne è alla base, di talché la soluzione proposta propende per una responsabilità oggettiva, con abbandono del principio della colpa, diventando preminente l’evento, l’accadimento in sé, con l’apporto di garanzie assicurative e la creazione di appositi fondi.

Nell’”adattamento” delle norme già esistenti all’evoluzione tecnologica, ampio risalto viene anche dato alle norme in materia di danno da prodotto.

Ci si consentano a questo punto brevissime riflessioni a margine.

La prima osservazione riguarda la responsabilità del proprietario della “cosa” dotata di intelligenza artificiale, che non dovrebbe andare totalmente esente da responsabilità, nel senso che la responsabilità del proprietario andrebbe certo modulata, inserita in un contesto di responsabilità solidale, ove l’apporto causale dovrebbe essere residuale e in percentuale del tutto minoritaria, ma senza scomparire totalmente. E questo, sia consentito, per una sorta di responsabilizzazione dell’utente, rispetto all’oggetto che acquista e utilizza.

Di fronte ad un produttore che commercializza il bene e sovente inserisce on-line o su carta, una serie di spiegazioni, condizioni generali di contratto, che ormai quasi nessuno ha più tempo di leggere, con un obiettivo di vendita a brevissimo termine e con una probabilità molto remota, futura ed incerta di un contenzioso per difetto del prodotto, vuoi per il valore contenuto del bene, vuoi per le difficoltà di intentare una causa dagli aspetti sovente transnazionali, un “filtro” all’immissione incondizionata nel mercato di una quantità di beni dotati di AI, potrebbe essere costituito non solo nell’entità del risarcimento da comminare al produttore e al creatore dell’algoritmo, ma anche nella responsabilizzazione dell’acquirente.

Un’imputazione di responsabilità anche dell’utente finale potrebbe favorire formule commerciali uniformi, regole più chiare nella vendita per consentire all’utente di scegliere con un certo grado di consapevolezza quello che sta acquistando, e, in ultima analisi, potrebbe contribuire a “regolamentare” un mercato che, allo stato, sembra dai contorni ancora oscuri.

L’Internet delle cose (IoT) ormai viene commercializzato via rete in tutti gli ambiti: dall’innaffia piante, al frigorifero che memorizza che cosa manca al suo interno dei prodotti usualmente consumati dal proprietario, al “cerca-gatto”, all’aspirapolvere automatico, alla domotica nell’abitazione (sicurezza, riscaldamento, luci, etc).

Se il divario di conoscenza tra l’ideatore e l’utilizzatore finale risulta ormai abissale (lontani i vecchi tempi dei “pistoni” delle prime 500, con un proprietario e conducente consci della capacità dell’autovettura, con un “dominio”, una capacità di comprensione del funzionamento del veicolo), dall’altro lato un ruolo di responsabilizzazione può ancora averlo l’utente finale, non fosse altro perché, per le regole del mercato, sarà spinto ad acquistare un prodotto che dà maggiori garanzie a livello tecnico e di protezione di rete e che viene corredato da spiegazioni comprensibili, responsabilizzazione che diverrà naturale, nella misura in cui anche il proprietario della cosa sia chiamato in prima linea all’imputazione di responsabilità e al conseguente risarcimento del danno.

10. L’ultimo − ma non trascurabile − tassello

Come dianzi richiamato, molti sono gli scenari rappresentati dalla letteratura e dalle cronache giornalistiche: auto driverless guidate da un’intelligenza esterna che guida altri veicoli mappando un intero comprensorio, che coordina l’intero traffico gestendo illimitate informazioni (Big data), conducenti umani vietatissimi, risarcimento non da responsabilità, ma da evento, per coprire i casi anomali, tramite copertura assicurativa e fondi dedicati.

Manca ancora una tessera del puzzle però: il quantum del risarcimento.

Courts facing Courts, allora, perché è senz’altro al tavolo di discussione sul quantum del risarcimento per la responsabilità da algoritmo, che il giurista-essere umano (e non l’algoritmo predittivo) può riprendersi il suo ruolo da protagonista, mettendosi ad un tavolo, tutte le Corti europee, ed iniziando finalmente quel dibattito, quel dialogo in materia di risarcimento del danno ed entità della sua liquidazione a livello europeo, che ad oggi stenta a decollare, e che invece è così connaturato alla rete che, oltrepassando i confini territoriali, riduce le coordinate spazio-temporali ad un click.



[*] Note a margine del convegno “Intelligenza artificiale e primi profili applicativi: Giustizia, IoT e Lavoratori” (Aula Magna del Palazzo di Giustizia di Milano, 17 aprile 2018) 

[1] U. Ruffolo, Per i fondamenti di un diritto della robotica self-learning; dalla machinery produttiva allauto driverless: verso una “responsabilità da algoritmo”?, in Atti del Convegno 29 novembre 2017-Università per stranieri di Perugia, Giuffrè, Milano, 2017.

[2] AA.VV., Intelligenza artificiale e responsabilità, a cura di U. Ruffolo, Giuffrè, Milano, 2017.

13/06/2018
Altri articoli di Silvia Toffoletto
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Luci e ombre del garantismo penale nell’esplorazione di un civilista

Recensione al volume di V. Roppo Garantismo. I nemici, i falsi amici, le avventure, Baldini & Castoldi, 2022

10/09/2022
“Sovranità.com. Potere pubblico e privato ai tempi del cyberspazio”

La recensione al volume di Stefano Mannoni e Guido Stazi, uscito per i tipi di Editoriale Scientifica (2021)

21/05/2022
Europa: verso una riforma dei Trattati? Cominciare a discuterne

Il Parlamento europeo, a seguito delle conclusioni della Conferenza sul futuro dell’Unione, ha deciso di attivare la procedura di revisione dei Trattati: quali le revisioni necessarie? Occorre da subito una riflessione collettiva ad opera della sfera pubblica paneuropea, che sola, in alleanza con il Parlamento, può ridimensionare i ciechi egoismi nazionali.

20/05/2022
Strumenti informatici e corrispondenza privata in una sentenza della Cassazione sull'art. 4 dello Statuto dei lavoratori

Il tema dei cd. controlli difensivi ha impegnato per anni dottrina e giurisprudenza e si ripropone anche con il nuovo testo dell’art. 4 della L n. 300/70 Statuto dei lavoratori, complicato dall’uso generalizzato nelle attività aziendali di dispositivi informatici, dati in dotazione ai lavoratori. L’intreccio tra disciplina dei controlli a distanza e tutela della privacy è stato oggetto di alcune sentenze emesse dal Giudice di legittimità all’esito di una udienza tematica. Su una in particolare si sofferma l’articolo, cogliendo l’occasione per osservazioni di carattere più generale. 

29/04/2022
Dalle misure restrittive dell’Unione europea alla “guerra economica” nei confronti della Russia e della Bielorussia a seguito dell’invasione dell’Ucraina

Sommario: 1. Dalle misure individuali e settoriali alla “guerra economica” nei confronti della Federazione russa – 2. Le misure restrittive adottate tra il 2014 e il 2022 – 3. I cinque pacchetti di sanzioni adottate a partire dal febbraio 2022 – 3.1 Il primo pacchetto – 3.2 Il secondo pacchetto – 3.3 Il terzo pacchetto – 3.3.1 Le misure nei confronti dei media – 3.4. Il quarto pacchetto – 3.5 Il quinto pacchetto – 4. Gli investimenti esteri diretti russi e bielorussi: l’orientamento della Commissione – 5. Le misure restrittive nei confronti della Bielorussia – 6. Misure restrittive e tutela giurisdizionale – 7. L’attuazione delle sanzioni da parte degli Stati membri – 8. Osservazioni conclusive.

15/04/2022
La protezione temporanea per le persone in fuga dall’Ucraina in UE e in Italia: alcuni profili critici

Milioni di persone in fuga dalla guerra in Ucraina stanno raggiungendo l’Europa e l’Italia. Per fornire loro immediata protezione, l’Unione europea ha applicato, per la prima volta dalla sua adozione nel 2001, la Direttiva sulla Protezione Temporanea. Questo contributo mira a delineare i principali tratti di questo strumento al fine di valutare la portata applicativa della protezione temporanea a livello europeo e nazionale, i relativi benefici nonché i profili critici.

31/03/2022