1. I nuovi orizzonti della tecnologia informatica e della robotica
Sempre più spesso si sente parlare di intelligenza artificiale, applicata con successo in vari settori. Da quelli della medicina, della difesa e dei trasporti, a quello della produzione a livello industriale di robot umanoidi e, cioè, di macchine automatiche in grado di aiutarci nei lavori più disparati [1].
Nel campo della medicina, già oggi, nel mondo, si utilizzano robot chirurgici, che altro non sono che estensioni delle mani del chirurgo controllate da remoto, i quali, fornendo ad esso un feedback sensoriale analogo a quello che avrebbe se operasse direttamente sul paziente, consentono di effettuare interventi più precisi e meno invasivi di quelli tradizionali. Si stanno inoltre sviluppando, con successo, speciali tecnologie robotiche finalizzate alla riabilitazione di pazienti affetti da gravi menomazioni, paralisi e malattie degenerative nonché all’impianto in soggetti che hanno subito mutilazioni, di protesi direttamente collegate tramite elettrodi a nervi, muscoli e tendini della parte amputata, capaci di consentire al paziente il recupero non solo del movimento, ma anche di gran parte delle sensazioni tattili. Di recente, per la prima volta al mondo, un gruppo di scienziati della Scuola superiore Sant’Anna di Pisa e del Sahlgrenska University Hospital di Göteborg ha realizzato, su una persona mutilata, un impianto transradiale stabile e permanente di una “mano robot” in grado di captare e tradurre in movimento i segnali mioelettrici provenienti dal cervello. Sempre nel campo medico-chirurgico, è inoltre in via di sviluppo un endoscopio miniaturizzato, capace di muoversi all’interno del corpo umano, dotato di sensori capaci, a fini diagnostici, di rilevare parametri biologici, ovvero, a fini terapeutici, di rilasciare in loco farmaci o effettuare interventi chirurgici.
Anche nel settore della difesa esistono già varie tipologie di robot: veicoli senza equipaggio per sorvegliare installazioni militari, droni controllati da remoto capaci di individuare obiettivi e colpire bersagli mobili senza supervisione da parte dell’uomo, robot-killer e, cioè, sistemi d’arma letali autonomi destinati a operare al posto dei soldati in missioni particolarmente rischiose.
Nel campo dei trasporti, già da tempo sono in uso in alcune città treni metropolitani a guida automatizzata. Fra breve, nel 2020, in Giappone, ma poi sicuramente in molti altri Paesi, inizieranno ad essere commercializzate auto driverless, vale a dire veicoli a guida automatica, capaci non solo di scegliere il percorso migliore per giungere alla meta (come, del resto, già oggi è possibile facendo uso del “navigatore”), ma soprattutto di muoversi nel traffico in condizioni di assoluta sicurezza. Si tratterà, cioè, di veri e propri robot, dotati di telecamere e sensori vari nonché di un’intelligenza artificiale che consentirà ad essi di adeguare velocità e distanza di sicurezza in relazione al tipo di strada, di traffico, di condizioni meteorologiche e di attivare la frenata d’emergenza in presenza di un ostacolo improvviso.
In breve, possiamo ben dire che quello che fino a qualche anno fa apparteneva al mondo della fantascienza, oggi è un fatto concreto. Ogni giorno, infatti, forse senza neppure rendercene conto, interagiamo con macchine automatiche che ci consentono di accedere a Internet per leggere le ultime notizie, usare la posta elettronica, effettuare prenotazioni o acquisti con carta di credito, controllare l’estratto conto bancario o i post sul nostro social preferito, condividere un tweet, fare una ricerca on-line, avvalerci dei servizi offerti da Siri della Apple o dai negozi on-line di Amazon, di utilizzare programmi di dettatura automatica e traduzione simultanea.
Né ci sorprendiamo più di tanto allorché il nostro smartphone ci propone il completamento della parola o addirittura della frase che avevamo soltanto iniziato a digitare!
Ma come può una macchina “sapere” quel che effettivamente avevamo intenzione di scrivere?
Può farlo, perché è dotata di un algoritmo capace di analizzare, su base statistica, la frequenza con cui in pregresse posizioni di testi scritti compaiono determinate parole o sequenze di termini e, quindi, di proporre la parola o la frase che ha maggiori probabilità di essere la prossima a venire usata. Ne consegue che il software, benché non sia programmato per elaborare un testo secondo regole grammaticali codificate, è in grado, con l’esperienza, di imparare il nostro stile.
Usando le stesse tecniche statistiche, in sistemi più complessi e su scala più grande, i computer, oltre alla funzione di autocompletamento, hanno acquisito la capacità di proporci, spesso con successo, l’acquisto dei prodotti più vari. Come? Memorizzando l’elenco di precedenti acquisti o anche soltanto la cronologia di navigazione. È così che i rivenditori on-line raccolgono informazioni, tengono sistematicamente traccia delle nostre preferenze e, in base ai dati acquisiti, propongono gli articoli che hanno maggior probabilità di suscitare il nostro interesse.
Amazon, per esempio, avendo più di 200 milioni di clienti, dispone di un database contenente un numero enorme di transazioni dalle quali può automaticamente estrarre i parametri per l’abbinamento tra prodotti e utenti.
Orbene, tutti i sistemi automatici precedentemente considerati, compresi quelli più evoluti di “apprendimento profondo” che operano per mezzo di software progettati sul modello delle reti neurali del cervello umano, utilizzabili per la lettura di immagini diagnostiche, riconoscimento vocale o di un volto o far viaggiare un’auto nel traffico cittadino, altro non sono che applicazioni della cd. “intelligenza artificiale”.
L’“intelligenza artificiale” (abbreviata in IA o AI, dall’acronimo inglese Artificial Intelligence) può, dunque, essere definita come la capacità di un sistema tecnologico (hardware e software) di fornire prestazioni assimilabili a quelle dell’intelligenza umana e, cioè, l’abilità di risolvere problemi o svolgere compiti e attività tipici della mente e del comportamento umano. Il che presuppone, nei sistemi più avanzati, la capacità non soltanto di trattazione automatizzata di enormi quantità di dati e di fornire le risposte per le quali sono stati programmati, ma anche di acquisire, sulla base di appositi algoritmi di apprendimento, la attitudine a formulare previsioni o assumere decisioni [2].
2. La Carta etica europea sulla applicazione dell’intelligenza artificiale alla giustizia
Considerata la eccezionale rapidità con la quale i computer, in questi ultimi anni, hanno trasformato la loro originaria funzione di semplici calcolatori in quella di strumenti in grado di svolgere compiti sempre più complessi e, tenuto altresì conto della crescente diffusione di automi (robot) capaci di interagire con gli esseri umani agevolandone il lavoro in ambito industriale, commerciale, sociale e perfino domestico, ci si chiede, come giuristi, se l’intelligenza artificiale possa trovare qualche utile applicazione anche nel settore della giustizia.
La questione non è affatto stravagante, come forse potrebbe apparire in un primo approccio. Prova ne sia che, recentemente, il 4 dicembre 2018, la Commissione europea per l’efficacia della giustizia (CEPEJ) del Consiglio d’Europa ha emanato la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti. Si tratta di un documento di eccezionale rilevanza, poiché è la prima volta che a livello europeo, preso atto della «crescente importanza della intelligenza artificiale (IA) nelle nostre moderne società e dei benefici attesi quando questa sarà pienamente utilizzata al servizio della efficienza e qualità della giustizia», vengono individuate alcune fondamentali linee guida, alle quali dovranno attenersi «i soggetti pubblici e privati responsabili del progetto e sviluppo degli strumenti e dei servizi della IA».
In particolare, la Carta etica enuncia i seguenti principi:
1) principio del rispetto dei diritti fondamentali;
2) principio di non discriminazione;
3) principio di qualità e sicurezza;
4) principio di trasparenza;
5) principio di garanzia dell’intervento umano [3].
L’ultimo principio – noto anche come principio «under user control» – è quello che qui precipuamente interessa, essendo specificamente finalizzato a «precludere un approccio deterministico» (preclude a prescriptive approach) e «assicurare che gli utilizzatori agiscano come soggetti informati ed esercitino il controllo delle scelte effettuate» (ensure that users are informed actors and in control of the choices made).
L’enunciato, seppur nella sua essenzialità, implica, dunque, la più ampia possibilità di utilizzo della IA nell’ambito della giustizia penale, ma a due condizioni: che gli operatori siano soggetti qualificati all’uso del sistema di IA e che ogni decisione sia sottoposta al controllo umano (ad esempio, da parte del giudice utilizzatore del sistema automatizzato).
Tali condizioni tendono ad evitare quello che la Carta etica definisce «approccio deterministico», vale a dire il rischio di un eccessivo automatismo o standardizzazione delle decisioni.
Ciò posto, vediamo quali applicazioni, già oggi o in un prossimo futuro, possa avere l’intelligenza artificiale nel campo della giustizia.
A seconda della diversa tipologia dei dati inseriti nell’elaboratore (input), degli algoritmi di apprendimento utilizzati dal sistema (learning algorithms) e del risultato finale del procedimento di elaborazione (output), sono ipotizzabili tre diversi modi attraverso i quali la tecnologia delle machine learning può agevolare il lavoro degli operatori del diritto e, conseguentemente, rendere più efficiente la giustizia: mediante l’analisi di documenti e la predisposizione di atti; previsione dell’esito di una causa; formulazione di giudizi, seppure sotto il controllo umano.
3. Analisi e predisposizione automatica di atti e documenti
La prima modalità, consistente nella analisi e predisposizione automatica di atti e documenti, trova preferibilmente applicazione nel campo del diritto civile e commerciale, segnatamente quando si tratta di analizzare documenti o predisporre atti per lo più ripetitivi. Ma non è da escludere che possa essere utilizzata anche in ambito penale, soprattutto quando occorre analizzare una mole notevole di documenti. Come nel caso in cui si renda necessario effettuare dei calcoli. Ad esempio, per determinare il limite oltre il quale gli interessi pattuiti in contratti di mutuo sono da ritenersi usurari.
Una recente applicazione dell’intelligenza artificiale nel campo del diritto penale è quella del sistema “Toga”, consistente in un database nel quale sono censite tutte le fattispecie criminose disciplinate dal Codice penale e dalla legislazione speciale, che permette di verificare, tra l’altro, la competenza, la procedibilità, l’ammissibilità a riti alternativi, i termini prescrizionali e di durata delle misure cautelari, nonché di calcolare la pena per ciascun tipo di reato [4].
Altra recente applicazione, nel caso dell’indagine relativa al crollo del ponte Morandi, nell’ambito della quale la Procura di Genova ha deciso di utilizzare un software dell’FBI, dotato di algoritmi particolarmente complessi, con l’obiettivo di incrociare tutti i dati raccolti (corrispondenti a circa 60 terabyte) con quelli dei dispositivi elettronici sequestrati, con la documentazione tecnica ed i pareri dei consulenti sia del pm che della difesa [5].
Del resto, negli Stati Uniti, già da tempo esistono servizi di intelligenza artificiale dedicati al mondo del diritto. Basti pensare al sito “ROSS Intelligence” che, munito di un ricco database di giurisprudenza, consente agli avvocati di redigere atti tenendo conto dell’orientamento dei giudici su un determinato argomento.
Una grossa banca americana – la Jp Morgan Chase and Co. – ha inoltre iniziato ad utilizzare un sistema automatizzato denominato COIN (acronimo di Contract intelligence) in grado di leggere e interpretare accordi commerciali e contratti di finanziamento in tempo reale, semplificando enormemente il lavoro dei propri uffici legali.
Altra società americana – la LawGeex – ha recentemente realizzato un interessante esperimento: ha contrapposto un algoritmo basato sull’intelligenza artificiale a venti avvocati esperti in diritto societario, al fine di individuare, nel minor tempo possibile, l’esistenza di clausole potenzialmente invalidanti in contratti coperti da stringenti accordi di riservatezza. Il computer ha surclassato gli avvocati in termini non solo di velocità, ma anche di accuratezza delle risposte [6].
Ma, di questo passo, con il progressivo sviluppo della tecnologia informatica e la prevedibile introduzione di nuovi e più perfezionati sistemi di IA capaci di rivaleggiare con le capacità umane, se non di superarle, non ci sarà il pericolo per gli avvocati che il computer, da prezioso strumento agevolativo del loro lavoro, in un prossimo futuro, possa sostituirsi ad essi svolgendo i medesimi compiti, in meno tempo, con minori costi e magari anche con maggior precisione?
La Oxford University, nel 2013, nell’ambito dell’Oxford Martin Programme on the Impact of Future Technology, si è posta il problema di quale impatto possa avere l’automazione su molti dei lavori esistenti. Delle oltre settecento diverse occupazioni esaminate, è emerso che almeno la metà è destinata a scomparire [7].
I primi lavori che potrebbero presto essere affidati alle macchine sono quelli di operatori di call center, bibliotecari, trascrittori, analisti finanziari, magazzinieri. Così pure, autisti di taxi, lavoratori edili e cuochi, minacciati, rispettivamente, dalla sperimentazione di auto a guida automatica (da parte di Uber e di varie case automobilistiche), da prefabbricati costruiti in stabilimenti totalmente robotizzati e da robot chef (come quello che alla Fiera di Hannover del 2015 si è esibito nella preparazione di una zuppa di granchio secondo la ricetta dello chef americano Tim Anderson) [8].
Nell’elenco dei lavoratori destinati ad essere sostituiti dalle macchine non sono invece ricompresi insegnanti, medici, artisti e, in genere, coloro i quali svolgono attività che richiedono intense interazioni sociali. E neppure vi figurano gli avvocati, per cui è da ritenere che questa professione, almeno per il momento, non sia a rischio di estinzione [9].
4. Giustizia penale e algoritmi predittivi
Una seconda modalità applicativa della intelligenza artificiale alla giustizia è quella cd. “predittiva”, consistente nella capacità di elaborare previsioni mediante un calcolo probabilistico effettuato da algoritmi operanti su base semplicemente statistica o anche – come vedremo più avanti – su base logica.
Tale capacità, a seconda della tipologia di dati introdotti nell’elaboratore, può essere utilizzata in funzione di tre diverse finalità.
Innanzitutto come strumento di prevenzione della criminalità. Inserendo in un computer una serie di dati estrapolati da denunce presentate alla Polizia (ad esempio, relative a rapine o furti verificatisi nelle stesse zone e con modalità analoghe), il sistema è infatti in grado di prevedere luoghi e orari in cui verosimilmente potranno essere commessi altri reati della stessa specie [10].
In secondo luogo, come strumento integrativo dell’attività del giurista per l’interpretazione della legge e l’individuazione degli argomenti a favore della tesi che si intende sostenere [11].
La funzione “predittiva” dell’intelligenza artificiale può infine consistere – ed è questa l’applicazione più rilevante – nella capacità di “prevedere” l’esito di un giudizio.
Del resto, utilizzando le banche dati esistenti (Italgiure, per la giurisprudenza di legittimità, e la Banca dati della giurisprudenza di merito recentemente costituita) e per mezzo di sofisticate tecnologie, già oggi è possibile individuare propensioni e, su questa base, prevedere, con sufficiente grado di probabilità, quale possa essere l’orientamento decisionale di un giudice su una determinata questione giuridica.
Non c’è dubbio, infatti, che queste banche dati giurisprudenziali – segnatamente Italgiure – oltre ad agevolare il lavoro degli operatori del diritto, costituiscano un prezioso strumento di ausilio per la costruzione nomofilattica della Cassazione, consentendo l’estrazione di principi di diritto consolidati ai fini della valutazione di ammissibilità o meno dei ricorsi, contribuendo a migliorare il livello di efficienza della giustizia [12].
L’idea che un sistema automatizzato di elaborazione giurisprudenziale possa, in qualche misura, condizionare il giudice, inducendolo ad applicare la soluzione proposta dalla macchina senza tener conto delle particolarità del caso concreto, ha tuttavia suscitato, in coloro che si sono occupati dell’argomento, non poche perplessità. Tanto che il tema della prevedibilità delle decisioni è già da tempo al centro di un vivace dibattito dottrinale [13].
Un primo motivo di preoccupazione si pone con riguardo all’affidabilità scientifica del risultato che l’algoritmo restituisce, nell’ipotesi in cui il programmatore compia un errore di progettazione destinato, necessariamente, ad influenzare il risultato dell’operazione computazionale [14]. Anche perché i meccanismi di funzionamento degli algoritmi sono per lo più coperti dal segreto industriale, che ne rende impossibile la verificabilità, la sottoposizione al controllo della comunità scientifica e la precisa determinazione dell’eventuale tasso di errore [15].
Alquanto diffuso è anche il timore che il sistema, benché correttamente programmato, si riduca ad una gestione automatizzata di affermazioni cristallizzate e, in particolare, che la predizione non abbia più un valore “indicativo”, ma quasi “prescrittivo”, facendo sì che il giudice tenda ad applicare la soluzione proposta dalla macchina senza esaminarla alla luce della particolarità del caso concreto, «alimentando così il sistema e facilitando la riproduzione meccanica di decisioni rese precedentemente» [16]. Con il conseguente rischio che il giudice, nel decidere, finisca per adagiarsi acriticamente sulle proposte dell’algoritmo [17].
Ancor più preoccupante – secondo taluno – è che, con questo sistema di giustizia digitale aprioristicamente basata sulla giurisprudenza dominante, possa instaurarsi una sorta di “dittatura del precedente”, capace non solo di pregiudicare l’indipendenza del giudice, ma anche di minare il suo dovere di imparzialità [18].
Queste perplessità sono legittime, ma, a nostro avviso, non del tutto condivisibili. Infatti, il controllo umano dovrebbe garantire un uso intelligente e appropriato dei sistemi automatizzati e sarebbe un grave errore non sfruttare le potenzialità dell’intelligenza artificiale per migliorare l’efficacia del lavoro giudiziario. Né appaiono fondati i paventati timori per l’indipendenza o l’imparzialità del giudice, dal momento che un elaboratore è certamente immune da pregiudizi e condizionamenti ambientali o mediatici, che possono invece inficiare il giudizio umano.
Ma davvero può una macchina prevedere il futuro? Dipende dalla sua capacità di memoria e dalla qualità dei dati che vengono immessi. Al limite – come ipotizzava Pierre Simon Laplace all’inizio del suo famoso Saggio filosofico sulle probabilità del 1814 – se noi potessimo disporre di «un’intelligenza che, per un dato istante, conoscesse tutte le forze da cui è animata la natura e che in più fosse abbastanza profonda da sottoporre questi dati all’analisi (…), nulla le parrebbe indeterminato e l’avvenire, come il passato, le si presenterebbe davanti agli occhi» [19].
Sappiamo che, per il «principio di indeterminazione» di Heisenberg, per quanto grande possa essere la capacità di memoria di un computer, ciò non potrà mai realizzarsi. Con buona pace di Mnemosyne, la divinità che, secondo la mitologia greca, essendo personificazione della “memoria”, è colei che sa «tutto ciò che è stato, che è e che sarà». Nondimeno, è affascinante l’idea che questo potere di tipo divinatorio, un tempo attribuito soltanto ai poeti e agli indovini, grazie agli algoritmi, possa, almeno in parte, consentirci di formulare talune previsioni.
In realtà, laddove fosse veramente possibile prevedere con un sufficiente grado di approssimazione l’esito di un giudizio, ciò sarebbe di grande ausilio per l’avvocato, poiché gli eviterebbe, in caso di previsione negativa, di compiere scelte errate. Come quella, in ambito civile, di promuovere una lite temeraria o, in sede tributaria, di avviare un contenzioso con l’Agenzia delle entrate, anziché cercare di definire la controversia mediante una procedura conciliativa o di adesione all’accertamento o, in un procedimento penale, di optare per il rito ordinario anziché per un rito alternativo che consentirebbe l’irrogazione all’imputato di una pena meno grave.
La “giustizia predittiva” è stata tuttavia utilizzata, in altri ordinamenti, anche per diverse e alquanto discutibili finalità. In particolare, negli Stati Uniti, per calcolare, per mezzo di un apposito algoritmo denominato Compas, la probabilità di recidiva di un imputato, al fine di decidere se rilasciarlo o meno su cauzione. Da notizie di stampa, si è inoltre appreso che nel 2016 un giudice del Wisconsin ha condannato alla pena di sei anni di reclusione certo Eric Loomis, arrestato alla guida di un’auto che era stata usata nel corso di un conflitto a fuoco, basandosi appunto sul responso del suddetto algoritmo che – predittivamente – lo aveva definito come soggetto «ad alto rischio di violenza» [20].
In Italia, è previsto che il giudice, nell’esercizio del potere discrezionale di applicazione della pena (nei limiti stabiliti dalla legge) debba tener conto della gravità del reato e della capacità a delinquere del colpevole desunta dai criteri indicati dall’art. 133 cp. Ma il giorno in cui l’intelligenza delle macchine sarà in grado di emulare quella degli esseri umani, non sarà che un sistema di IA, appositamente programmato, possa non solo prevedere l’esito di un giudizio, ma addirittura deciderlo?
5. Possibili applicazioni di machine learning nella formulazione di giudizi
Si pone quindi il problema se una machine learning, munita di rete neurale artificiale capace di immagazzinare quantità teoricamente illimitate di dati (quali disposizioni di legge e precedenti giurisprudenziali), dopo un adeguato periodo di apprendimento, possa emettere un giudizio [21].
Nel campo civile, poniamo in una causa di risarcimento danni da sinistro stradale, nulla osta a che un computer, sulla base dei rilievi compiuti dai verbalizzanti sul luogo dell’incidente e della documentazione prodotta, possa non solo stabilire chi, avendo violato specifiche norme del Codice della strada, si sia reso in tutto o in parte responsabile del sinistro, ma anche quantificare l’ammontare del danno risarcibile.
Anche nel settore tributario talune tipologie di controversie potrebbero ben essere risolte automaticamente. Ad esempio, ricorsi avverso avvisi di accertamento originati da verifiche bancarie e fondati sulla presunzione (di cui all’art. 32, comma 1, n. 2, del dPR n. 600/1973) secondo la quale sono posti a base delle rettifiche i movimenti finanziari che non trovano riscontro nelle scritture contabili. Ricorsi accoglibili se e nella misura in cui il contribuente, se si tratta di prelevamenti, ne abbia indicato il beneficiario o, nel caso di versamenti, abbia fornito prova documentale di averne tenuto conto per la determinazione del reddito soggetto ad imposta ovvero che gli stessi non hanno rilevanza a tal fine. Prova che un elaboratore, opportunamente programmato, potrebbe essere senz’altro in grado di rilevare ai fini della decisione.
Più problematico, senza dubbio, appare l’impiego dell’intelligenza artificiale per la decisione nell’ambito di un giudizio penale.
Ciò per tre ordini di ragioni. Innanzitutto perché il mezzo di prova più frequentemente usato nel processo penale per l’accertamento di fatti materiali è la testimonianza ed un computer incontrerebbe serie difficoltà nel giudicare se un teste abbia detto la verità, sia stato reticente o abbia mentito. In secondo luogo perché plurimi e non predeterminati sono i criteri di valutazione della prova per cui, specialmente in un processo indiziario, ancor più difficile sarebbe per un elaboratore stabilire se determinati indizi siano da considerarsi «gravi», «precisi» e «concordanti», di talché da essi, come prescrive l’art. 192, comma 2, cpc, possa essere desunta l’esistenza di un fatto. Infine perché il computer è programmato per fornire risposte certe, non può avere dubbi, mentre nel nostro ordinamento vige il principio, sancito dall’art. 533, comma 1, cpc, secondo il quale il giudice pronuncia sentenza di condanna «se l’imputato risulta colpevole del reato contestatogli al di là di ogni ragionevole dubbio» e deve invece assolvere qualora detto parametro non sia superato.
6. “Macchine pensanti” in funzione decisionale
Non è tuttavia da escludere che in un futuro non troppo lontano, supponendo che la tecnologia informatica continui a progredire allo stesso ritmo con cui si è sviluppata in questi ultimi anni, possa realizzarsi il sogno di una “macchina pensante” capace di emulare il cervello umano. Ma «possono pensare le macchine?». Se lo chiedeva il matematico inglese Alan Turing – celebre non solo come geniale precursore dell’intelligenza artificiale, ma anche per il decisivo contributo fornito, durante la seconda guerra mondiale, nella decodifica di Enigma, la macchina che la Marina tedesca usava per cifrare i messaggi destinati agli U-boot in navigazione nell’Atlantico – in un classico saggio intitolato Computing Machinery and Intelligence, pubblicato nel 1950 sulla rivista filosofica Mind [22]. O è da ritenere che ciò non possa accadere perché non potrà mai essere costruita una macchina capace di fare determinate cose? Ad esempio, «avere iniziativa, avere senso dell’humour, distinguere il bene dal male, commettere errori, innamorarsi, gustare le fragole con la panna» [23]. Nessun dubbio – scriveva Turing – che entro circa cinquanta anni sarà possibile programmare calcolatori con una capacità di memoria tale da fornire risposte indistinguibili da quelle che ci saremmo aspettati da un essere umano e che a quel punto «chiunque potrà parlare di macchine pensanti senza aspettarsi di essere contraddetto» [24].
Infatti, già da tempo esistono sistemi di intelligenza artificiale con i quali, magari senza rendercene conto, interagiamo ogni giorno. Sistemi dotati di algoritmi di apprendimento automatico, capaci di elaborare dati, effettuare previsioni, fornire risposte. Perché, dunque, non ammettere che un sistema di intelligenza artificiale applicato alla giustizia, segnatamente penale, possa agevolare il giudice nella valutazione degli elementi di prova e nella decisione?
Qualora si ponga in dubbio la capacità di un elaboratore di valutare determinati elementi di prova, ad esempio, una testimonianza, basti pensare che già oggi Tripadvisor – il noto portale che cataloga le recensioni di clienti di hotel e ristoranti in tutto il mondo – si è munito di un sistema di IA in grado, dopo un periodo di apprendimento, di scansionare il sito e “valutare”, per poterle eliminare, le recensioni fasulle. Perfino il Cnr ha recentemente varato una sezione anti−fake, finalizzata ad individuare, per mezzo di specifici algoritmi, i falsi follower di qualsiasi profilo Twitter.
Possibile mai che una macchina, seppure “intelligente”, sia in grado di distinguere il vero dal falso e conseguentemente eliminare dal sito la recensione non attendibile o il profilo ritenuto fittizio? Può farlo tenendo conto sia di parametri prefissati che dell’esperienza acquisita [25].
Ma anche il giudice, quando deve stabilire la gravitas e, cioè, il peso di una determinata prova ai fini dell’affermazione o meno di responsabilità dell’imputato, non formula un giudizio puramente intuitivo, bensì valuta la prova sulla base di predefinite regole normative e di massime di comune esperienza generalmente condivise. Ad esempio, nel caso di prova testimoniale, è massima di comune esperienza che un teste di accusa sia credibile se, non avendo rapporti di interesse né motivi di inimicizia con l’imputato, ha riferito i fatti senza contraddizioni intrinseche né difformità rispetto al contenuto di precedenti deposizioni. Valutazione questa che un elaboratore opportunamente programmato sarebbe senz’altro capace di effettuare.
Ma a questo punto ci si chiede: sarebbe in grado un sistema di intelligenza artificiale, valutate le prove dell’accusa e della difesa, di “decidere” un processo?
Il verbo “decidere” – dall’etimo latino de-caedere – evoca l’idea che la relativa attività consista nel “tagliar via”, “eliminare”. Ed è proprio questo che è demandato al giudice: di individuare preliminarmente le possibili soluzioni delle questioni di fatto e di diritto concernenti l’imputazione e, se occorre, quelle relative all’applicazione delle pene (come suggerito dall’art. 527, comma 1, cpc) e di procedere per eliminazione fino a quando ne rimanga una dominante da sottoporre poi ad un ulteriore controllo secondo il cd. “criterio di falsificabilità”. Criterio consistente nel verificare se una certa ipotesi (del tipo “se p allora q” della logica formale) possa essere confutata attraverso il procedimento logico del modus tollens, qualificandola come fallacia della affermazione del conseguente nel caso in cui risulti che l’effetto “q” è riferibile ad una causa diversa da “p”.
Si può quindi ritenere che il procedimento decisionale, secondo questo modello paradigmatico, consiste nella trasformazione di una situazione antecedente indeterminata in una situazione finale determinata, attraverso una serie di sistemazioni parziali intermedie. Ma l’algoritmo è a sua volta comunemente definito come un procedimento che risolve un determinato problema attraverso un numero finito di passi elementari (ovvero non ulteriormente scomponibili), chiari e non ambigui, in un tempo ragionevole. Si tratta, cioè, di un procedimento il cui “diagramma di flusso” (in inglese, flow chart), vale a dire la rappresentazione grafica delle operazioni da compiere per eseguirlo, presenta evidenti affinità con quello di tipo decisionale. Non è pertanto da escludere che un sistema di IA applicato ad un processo penale possa agevolare il giudice nella decisione.
7. Ci sarà un giudice robot?
Potrà accadere, un domani, che la decisione di un processo penale dipenda da un giudice robot?
La normativa vigente, nel fare riferimento al diritto di ogni persona che la sua causa sia esaminata da parte di un «tribunale indipendente ed imparziale» (art. 6, comma 1, della Convenzione per la salvaguardia dei diritti dell’uomo e delle libertà fondamentali) e nel prevedere che ogni processo debba svolgersi davanti ad un «giudice terzo e imparziale» (art. 111, secondo comma, Cost.), esclude tale possibilità. Peraltro, la Carta etica europea del 2018 – come precedentemente ricordato – ammette l’uso, sotto il controllo umano, dell’intelligenza artificiale nei sistemi di giustizia penale. Ciò significa che ad un computer potrebbe essere demandata, se non la decisione finale sulla colpevolezza o meno di un imputato o la quantificazione dell’eventuale pena da irrogare, la soluzione di specifiche questioni costituenti presupposto di tale decisione. Ad esempio, in processi di natura tecnica, la risposta al quesito se il risultato di una determinata prova scientifica (dattiloscopica, balistica, sul Dna, ingegneristica, medico-legale, etc.) sia o meno corretto; se – poniamo in un processo per responsabilità medica – sussista rapporto di causalità tra condotta ed evento sulla base di un coefficiente di probabilità non solo statistica, ma anche logica, desumibile da leggi scientifiche di copertura; ovvero – in un processo in cui sia in discussione la sussistenza del fatto – se gli elementi materiali della fattispecie concreta siano sussumibili nella fattispecie normativa astratta.
Ma l’avvento, seppure di fatto, di un giudice robot, quali effetti potrebbe avere sul funzionamento della giustizia? Sarebbe certamente utile per assicurare ad essa maggior celerità ed efficienza nonché per evitare una eccessiva disomogeneità di giudizi, ma nel contempo negativo sotto un duplice profilo: da un lato, perché il peso dei precedenti giurisprudenziali finirebbe per condizionare i successivi giudizi aventi ad oggetto le medesime questioni fattuali o giuridiche; dall’altro, perché verrebbe sminuita la valenza persuasiva delle tecniche argomentative tradizionalmente volte anche a suscitare empatia nel giudice.
L’idea che l’esito di un processo possa, sia pure in parte, dipendere da una “macchina” è senza dubbio inquietante. Ma anche quando è l’“uomo” a decidere, a ben riflettere, in taluni casi, è forse meglio affidarsi alla “stupida” intelligenza del computer [26].
La constatazione che il procedimento decisionale sia per certi aspetti assimilabile ad un sistema dinamico complesso (come il fenomeno della “turbolenza” che la fisica moderna ritiene assoggettato alle cd. “leggi del caos”) rafforza quindi il convincimento che la difesa nel processo penale, per essere davvero persuasiva, oltre a fondarsi su argomentazioni logicamente ineccepibili, debba, in taluni casi, essere altresì capace di far vibrare le corde del sentimento.
Lo teorizzava a suo tempo Cicerone allorché, forte della propria esperienza di avvocato, nel De Oratore, scriveva che l’arte del dire si fonda su tre forme di persuasione: «Dimostrare la veridicità della propria tesi, conciliarsi la simpatia degli ascoltatori e suscitare nei loro animi quei sentimenti che sono richiesti dalla causa» [27].
Il che troverà più tardi conferma nel celebre passo dei Pensées del matematico e filosofo francese Blaise Pascal, nel quale sosteneva che noi non possiamo conoscere la verità soltanto con la ragione, ma anche con il cuore, poiché «il cuore ha le sue ragioni, che la ragione non conosce» (Le cœur a ses raisons, que la raison ne connaît point) [28].
[1] Per un approfondimento dei molteplici aspetti dell’intelligenza artificiale nelle sue svariate applicazioni, cfr. D. Heaven, in AA.VV., Macchine che pensano, Dedalo, Bari, 2018.
[2] Sul concetto di “intelligenza artificiale” e relativi ambiti applicativi, cfr. P. Mello, Intelligenza artificiale, in http://disf.org/intelligenza−artificiale (Documentazione Interdisciplinare di Scienza & Fede), 2002, nonché il saggio di J. Bernstein, Uomini e macchine intelligenti, Adelphi, Milano, 2013.
[3] Per una analisi degli obiettivi e dei principi della Carta etica europea, cfr. S. Quattrocolo, Intelligenza artificiale e giustizia: nella cornice della Carta etica europea, gli spunti per un’urgente discussione tra scienze penali e informatiche, in www.lalegislazionepenale.eu, 18 dicembre 2018, http://www.lalegislazionepenale.eu/intelligenza-artificiale-e-giustizia-nella-cornice-della-carta-etica-europea-gli-spunti-per-unurgente-discussione-tra-scienze-penali-e-informatiche-serena-quattrocolo/
[4] Cfr. C. Morelli, Processo penale: operativa la prima applicazione di intelligenza artificiale?, in www.altalex.com, 18 giugno 2018, https://www.altalex.com/documents/news/2018/06/18/processo-penale-operativa-la-prima-applicazione-di-intelligenza-artificiale.
[5] La notizia è stata pubblicata con il titolo L’Italia userà un software dell’FBI per il caso “Ponte Morandi”, in Quifinanza.it, 4 novembre 2018, https://quifinanza.it/finanza/software-fbi-ponte-morandi/236036/.
[6] Cfr. N. Di Turi, Intelligenza artificiale Vs. avvocati: cosa è successo, in http://corriereinnovazione.corriere.it, 7 gennaio 2019, https://corriereinnovazione.corriere.it/cards/giustizia-intelligenza-artificiale-contro-avvocati-ecco-come-andata/intelligenza-artificiale-vs-avvocati-l-esperimento_principale.shtml.
[7] Cfr. D. Heaven, in AA.VV., Macchine che pensano, cit., p. 188. In particolare, su tecnologia e applicazioni della robotica, cfr. altresì R. Cingolani e G. Metta, Umani e umanoidi, il Mulino, Bologna, 2015.
[8] Cfr. E. Battifoglia, I robot sono tra noi. Dalla fantascienza alla realtà, Hoepli, Milano, 2016, p. 37.
[9] Sull’impatto a livello occupazionale che potrà avere la diffusione di sistemi automatizzati e robot, cfr. J. Kaplan, Le persone non servono. Lavoro e ricchezza nell’epoca dell’intelligenza artificiale, LUISS University Press, Roma, 2016.
[10] Cfr. M. Iaselli, X-LAW: la polizia predittiva è realtà, in www.altalex.com, 28 novembre 2018, il quale rileva che è proprio grazie a questo sistema informatico denominato X-LAW in uso da parte di alcune questure italiane, che sono stati raggiunti ottimi risultati nel campo della prevenzione della criminalità.
[11] Sull’argomento, cfr. L. Viola, Interpretazione della legge con modelli matematici, Diritto Avanzato, Milano, 2017.
[12] Cfr. E. Vincenti, Massimazione e conoscenza della giurisprudenza nell’era digitale, in Questione Giustizia trimestrale, n. 4/2018, p. 4, http://questionegiustizia.it/rivista/pdf/QG_2018-4_14.pdf, il quale precisa che, proprio «in una prospettiva servente alla nomofilachia della Cassazione è stato pensato l’inserimento nel sistema dell’acronimo “Certalex”, che consente di estrarre le massime che contengono i principi individuati come consolidati ai sensi dell’art. 360-bis, n. 1, c.p.c.».
[13] Per un’ampia bibliografia sul punto, cfr. C. Castelli e D. Piana, Giustizia predittiva. La qualità della giustizia in due tempi, in Questione Giustizia trimestrale, n. 4/2018, n. 4, pp. 54 ss., http://questionegiustizia.it/rivista/pdf/QG_2018-4_15.pdf.
[14] Cfr. A. Natale, Introduzione. Una giustizia (im)prevedibile?, in Questione Giustizia trimestrale, n. 4/2018, p. 8, http://questionegiustizia.it/rivista/pdf/QG_2018-4_02.pdf.
[15] Cfr., in tal senso, C. Costanzi, La matematica del processo: oltre le colonne d’Ercole della giustizia penale, in Questione Giustizia trimestrale, n. 4/2018, p. 14, http://questionegiustizia.it/rivista/pdf/QG_2018-4_16.pdf.
[16] Cfr. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo, in Questione Giustizia trimestrale, n. 4/2018, p. 5, http://questionegiustizia.it/rivista/pdf/QG_2018-4_17.pdf.
[17] Cfr. A. Garapon e J. Lassègue, Justice digitale. Révolution graphique et rupture anthropologique, Paris, 2018, pp. 279 ss., i quali prospettano il rischio che la giustizia predittiva, assumendo un valore normativo, possa determinare un “effetto gregge” (effet moutonnier) in decisioni nelle quali il valore umano passerebbe in secondo piano.
[18] Ciò in quanto – come afferma S. Gaboriau, Libertà e umanità del giudice: due valori fondamentali della giustizia. La giustizia digitale può garantire nel tempo la fedeltà a questi valori?, in Questione Giustizia trimestrale, n. 4/2018, p. 11, http://questionegiustizia.it/rivista/pdf/QG_2018-4_19.pdf − «la parte cui la giurisprudenza non è favorevole si trova in una posizione di inferiorità istituzionale».
[19] Cfr. P.S. Laplace, Saggio filosofico sulle probabilità.
[20] La notizia è commentata da E. Cau, Chi ha paura di un giudice robot? Non è fantascienza, succede già, in Ilfoglio.it,4 febbraio 2018, https://www.ilfoglio.it/giustizia/2018/02/04/news/giudici-robot-esistono-gia-176388.
[21] Sul tema, con particolare riguardo alla diffusione di questo tipo di tecnologia ed ai correlati problemi di natura etica, cfr. P. Benanti, Le macchine sapienti, Marietti, Bologna, 2018.
[22] Sulla figura di A.M. Turing quale pioniere dell’intelligenza artificiale e decifratore di Enigma, cfr. G. Chinnici, Turing. L’Enigma di un genio, Hoepli, Milano, 2016.
[23] Cfr. A.M. Turing, Macchine calcolatrici e intelligenza (1950), in Intelligenza meccanica, a cura di G. Lolli, Bollati Boringhieri, Torino, 1994, p. 139.
[24] Cfr. A.M. Turing, Macchine calcolatrici e intelligenza (1950), cit.
[25] Ciò grazie all’utilizzo di sofisticati algoritmi. Sul funzionamento delle machine learning e degli algoritmi, tra i saggi più recenti, cfr.: P. Domingos, L’algoritmo definitivo: La macchina che impara da sola e il futuro del nostro mondo, Bollati Boringhieri, Torino, 2016, nonché E. Finn, Che cosa vogliono gli algoritmi. L’immaginazione nell’era dei computer, Einaudi, Torino, 2018. In particolare, sul problema della configurabilità di un nuovo tipo di responsabilità da algoritmo, cfr. U. Ruffolo, Intelligenza artificiale e responsabilità, Giuffrè, Milano, 2017.
[26] Così A. Traversi, in Il diritto dell’informatica, Ipsoa, Milano, 1990, p. 235.
[27] Cfr. M.T. Cicerone, De oratore ad Quintum fratrem, Libro II, par. 115.
[28] Cfr. B. Pascal, Pensieri, p. 477.