Rivista trimestrale
Fascicolo 4/2018
Obiettivo 1. Una giustizia (im)prevedibile?

La matematica del processo:
oltre le colonne d’Ercole della giustizia penale

di Claudio Costanzi

La progressiva affermazione della prova scientifica nel processo penale come nuova regina probationum ha innescato una lenta, ma inesorabile sollecitazione delle logiche qualitative del ragionamento probabilistico, così come descritte dalla sentenza Franzese. Gli argomenti allora utilizzati per confutare gli sterili e opposti approcci quantitativi all’accertamento del nesso causale si scontrano con i recenti tentativi di applicare la matematica alla valutazione e combinazione delle prove. Dagli Stati Uniti d’America e dalla Scandinavia è giunta l’eco travolgente di raffinate teorie per l’algoritmizzazione del giudizio attraverso la quantificazione della credenza soggettiva in un’ipotesi alla luce delle risultanze istruttorie. Compito del giurista e del legislatore è analizzare tali approcci comprendendone il funzionamento, approntando i necessari strumenti per resistere al rischio di degenerazioni meccanicistiche del ricorso ai big data, senza rinunciare agli indubbi vantaggi che i mathematical tools offrono al processo. Invero, l’attuale diffusione anche su scala europea di applicazioni sperimentali del teorema di Bayes e dell’E.V.M. sta cambiando silenziosamente il ragionamento probatorio, proponendo sfide inimmaginabili fino al decennio scorso.

Premessa

Uno storico contributo di Piero Calamandrei si apriva con una laconica constatazione del giurista tedesco Wach: «tutte le prove, a ben guardare, non sono che prove di verosimiglianza»[1]. Invero, il «carattere inevitabilmente probabilistico»[2] di qualsiasi giudizio abduttivo impone di ridefinire l’euristica processuale, al pari di quella scientifica e storica, come «selezione della migliore e più verosimile ipotesi ricostruttiva del fatto di causa»[3] alla luce di tutte le evidenze probatorie[4]. In questo contesto, il giudice è onerato dell’individuazione non solo degli strumenti probatori più idonei a «far ricomparire presente quello che è passato»[5], ma, ancor prima, di una teoria della conoscenza pienamente compatibile con le logiche del probabile entro cui si declina l’accertamento dei fatti. Si tratta di una ricerca solitaria, condotta in assenza di indicazioni precise da parte di un legislatore che ha ostracizzato quasi completamente il termine “verità” dal linguaggio normativo[6].

Il lungo percorso che la giurisprudenza ha compiuto verso lo sviluppo di una teoria della probabilità in grado di razionalizzare l’incertezza sottesa al giudizio abduttivo appare costellato di complesse questioni epistemologiche raramente attenzionate dal dibattito giuridico del nuovo secolo. L’indiscutibile pregio scientifico della probabilità logico-qualitativa, affermatasi con la sentenza n. 30328/2002, Franzese[7], ha repentinamente oscurato l’attenzione della dottrina per l’universo degli approcci quantitativi alla probabilità e al ragionevole dubbio. Purtuttavia, il proliferare di algoritmi decisori sostanzialmente fondati sull’applicazione nel processo dei big data per la ricostruzione dei fatti o per valutazioni prognostiche impone quantomeno di riconsiderare i termini dello scontro dialettico tra concezione qualitativa e quantitativa.

1. Probabilità ed epistemologia moderna

Assai frequentemente nelle scienze analitiche si rinviene un’accezione oggettivo-statistica della probabilità[8], rappresentata come una mera caratteristica ontologica di tutti fenomeni del mondo reale, esprimibile come semplice calcolo della frequenza dell’accadere. In questi termini, alla probabilità di un fenomeno o un’ipotesi è sempre possibile fornire un valore numerico, entro un intervallo 0 →1, ovvero attraverso il ricorso alla formula percentuale del tipo n%, ove 0 (0%) descrive l’assenza di probabilità e 1 (100%) corrisponde alla certezza.

A essa si contrappone un’accezione di probabilità in senso soggettivo[9], tipica delle scienze sociali, che mira a razionalizzare il convincimento in termini di “gradi di credenza” di un soggetto, relativamente alla possibilità che un certo evento si sia realizzato o si realizzi[10]. In questo senso il libero convincimento del giudice, lungi dal sostanziarsi in una mera constatazione statistica, può essere ridefinito come personal degree of belief,o «grado di convincimento razionale», al quale è razionale ritenere vera una proporzione che asserisce un fatto incerto[11]. A differenza della concezione meramente oggettiva, una simile accezione di probabilità coniuga il grado soggettivo di adesione a una ipotesi al grado di attendibilità che quest’ultimo acquisisce «in base alla frequenza relativa degli eventi della classe in cui rientra il fatto da accertare»[12].

Abbandonato l’arido alveo della concezione meramente oggettiva, l’epistemologia giudiziaria si è mossa, inevitabilmente, nel solco della concezione soggettiva della probabilità.

Ciò posto, sarebbe eccessivamente semplicistico ritenere che l’accezione soggettiva non sia in nessun caso esprimibile come valore numerico compreso entro l’intervallo 0 →1. La quantificazione di credenze, per quanto razionali, appare sin da subito un’attività oscura e approssimativa. Eppure, a partire dal tentativo di esprimere la probabilità di una ipotesi come personal degree of belief, irrorata di libero convincimento di un giudicante, si è sviluppata la dialettica contrapposizione tra concezione qualitativa e concezione quantitativa della probabilità, di cui si dirà ampiamente infra.

Preliminarmente, tra le molteplici teorie della probabilità[13], la concezione quantitativa (o pascaliana[14]) si contraddistingue per il tentativo di offrire la misura dell’incertezza nella conoscenza personale «di un fenomeno del quale non si possa predicare né la falsità (o inesistenza) né la verità assoluta (o esistenza)»[15], onde consentire l’individuazione della best inference attraverso il riscorso a leggi universali o statistiche solo se dotate di un coefficiente probabilistico prossimo al 100 %. Per potersi dire sufficientemente provato il nesso di causalità, occorrerebbe la «“pratica certezza” o “pratica verità”»[16], raggiungibile, in ottica quantitativa, solo facendo ricorso a leggi statistiche di copertura quasi universale.

Sulla scorta di tali considerazioni, nel «regno del ragionamento “incerto”»[17], quale quello delle cause in tema di colpa medica omissiva, un orientamento della Quarta sezione della Suprema corte ha ritenuto sufficiente fondare il ragionamento probatorio su mere stime probabilistiche a carattere quantitativo, idonee a fornire il dato della frequenza di un certo fenomeno e, nel complesso, dell’ipotesi accusatoria alla luce delle prove acquisite[18].

Un secondo orientamento, più risalente e maggioritario, ha ritenuto sufficiente ai fini della giustificazione di una pronuncia di colpevolezza un’«“apprezzabile probabilità”, anche piccola»[19] di sussistenza del nesso causale[20]. Si tratta, in estrema sintesi, di un’applicazione della teoria dell’aumento del rischio, per la quale sussiste il nesso causale oltre ogni ragionevole dubbio ove sia possibile «prognosticare una tendenziale propensione dell’antecedente a generare l’evento» e ciò costituisca la best inference sorretta da leggi scientifiche[21].

Come noto, con una «felice sintesi dialettica», la sentenza Franzese ha sublimato con originalità tale contrapposizione, riuscendo a “calare” l’accertamento del nesso causale «all’interno delle più accreditate teorie della conoscenza»[22]. Per quanto qui di interesse, ci si limita a osservare che la pronuncia rigetta tanto gli orientamenti che tendono a valorizzare con un’aberrazione rigorista la benché minima probabilità del nesso eziologico, quanto di quelli che costringono la soglia del dubbio ragionevole «nelle morse di un paradigma numerico quantitativo»[23]. In sostanza, se ne deriva la possibilità che il giudice ritenga inesistente il nesso causale anche se la legge scientifica applicabile sia in grado di offrirne una probabilità vicina alla certezza, ove la probabilità logica non sia integrata per la sussistenza nel caso concreto di un ragionevole dubbio. Parimenti, potrebbe ritenere sussistente la probabilità logica anche quando operi una legge scientifica “a bassa predittività”, purché risulti da altre risultanze, oltre ogni ragionevole dubbio, che il nesso causale sussista e che sia stata proprio quella legge a operare nel caso di specie, procedendo a escludere con certezza “processuale” (è il cosiddetto procedimento per esclusione) che l’evento sia cagionato da altri fattori. Soprattutto, si esclude qualsiasi possibilità di «dedurre automaticamente e proporzionalmente dal coefficiente di probabilità statistica, espresso dalla legge [scientifica], la conferma dell’ipotesi sull’esistenza del nesso causale»[24], comportando il definitivo abbandono del canone nomologico-deduttivo. Si tratta, in buona sostanza, dello statuto qualitativo o baconiano della probabilità nel processo, non limitato al solo accertamento del nesso causale.

L’inesorabile affermazione della probabilità qualitativa nell’epistemologia giudiziaria moderna non ha distolto molti interpreti di common law dall’irresistibile aspirazione di trasporre le logiche matematiche al procedimento di valutazione dei fatti per il superamento “meccanico” della soglia del ragionevole dubbio, insistendo nello spregiudicato obiettivo di fissare la soglia del ragionevole dubbio entro l’intorno 0 →1[25]. Obiettivo dichiarato è l’individuazione di supporti idonei a quantificare il valore probatorio delle risultanze (“wheight of evidence”) e ridurre l’incidenza delle anamorfosi emotiva nel giudizio[26], constatando la pessima capacità naturale di calcolo della probabilità di soggetti non dotati di specifiche competenze[27].

Invero, l’idea che la probabilità matematica trovi applicazione al diritto delle prove non è certo nuova, se si considera il contributo eclettico di Leibniz, autore della prima proposta organica di riduzione dell’enigma abduttivo del processo in rigorosi termini matematici[28]. Tuttavia, tale intuizione non venne recepita in ambito giuridico e rimase a lungo appannaggio esclusivo di logici e matematici[29].

A partire dagli anni Sessanta del secolo scorso la dottrina giuridica americana, prima fra tutte, ha iniziato ad attenzionare le proposte di matematizzare l’inferenza giudiziaria, inizialmente attraverso il solo metodo bayesiano. L’obiettivo dichiarato è l’individuazione regole certe per la formazione del personal degree of belief che, senza trasformare l’induzione in una «deduzione mascherata»[30], consentano di elaborare un modello di probabilità in grado di rendere ripetibile l’iter decisorio, contraendo i margini di discrezionalità del giudizio.

Per quanto queste teorie, trasposte in ambito giudiziario, non abbiano ancora ingenerato i risultati sperati, esse mantengono tutt’oggi potenzialità innegabili in termini di razionalizzazione del giudizio. In realtà, sottende tanto alla concezione pascaliana quanto a quella baconiana l’elaborazione di un modello processuale lato sensu scientifico per la valutazione delle prove indiziarie, al di là dell’utilizzo o meno dei “mathematical tools[31]. Ciò che la quantificazione dell’incertezza offre in astratto è solo la possibilità di sviluppare strumenti in grado di coadiuvare il giudicante nell’individuazione della best inference, specie in una realtà processuale come l’attuale, «impetuosamente investit[a] di dati statistici e valutazioni a carattere probabilistico»[32].

Ci si limita a constatare che il radicato atteggiamento di rigetto aprioristico che ha generalmente accolto le proposte di matematizzazione del giudizio attraverso il ricorso ai big data rischia, al contrario, di abbassare tutte le difese immunitarie che la concezione logica ha eretto nei confronti di una nozione quantitativa di probabilità assai meno raffinata di quella odierna. Infatti, non tutte le teorie quantitative operano allo stesso modo e gli argomenti posti alla base della loro confutazione devono, quantomeno, essere integrati per consentire alla stessa concezione logico-qualitativa della probabilità di guidare l’inesorabile trasformazione meccanicista del ragionamento probatorio.  

2. Il Teorema di Bayes: la gestione algoritmica della complessità

Tra tutti i tentativi di trasposizione delle logiche matematiche al ragionamento probatorio per la fissazione numerica della probabilità di un’ipotesi casuale, il teorema di Bayes[33] è senza dubbio il più noto.

La regola di Bayes si presenta come strumento di calcolo del grado di credenza personale formulato in termini probabili in una spiegazione causale di un evento (H), alla luce di un determinato dato probatorio (E). In altri termini, attraverso il teorema di Bayes, nella sua formulazione più semplice, è possibile valutare l’incidenza di un dato probatorio E sul personal degree of belief di un giudicante in ordine ad una determinata ipotesi ricostruttiva H.

Per comprendere l’operatività del teorema di Bayes si può prendere ad esempio una realtà giudiziaria estremamente stilizzata[34]. Sia G il soggetto giudicante, il quale crede che l’ipotesi accusatoria H («Tizio ha ucciso Caio con un coltello») sia vera, sulla base di un determinato numero di risultanze probatorie E1,2,n. Utilizziamo l’intervallo 0 → 1 per indicare gli estremi entro i quali graduare questa credenza, dove 0 corrisponde alla totale mancanza di fiducia nell’ipotesi H, e 1 all’irraggiungibile certezza della sua verità. L’abduzione di H è seguita piercianamente dalla deduzione di tutte le possibili conseguenze di H,da ricercare sulla scena del delitto. Sicché, dato per vero che Tizio abbia ucciso Caio con un coltello, si deduce che Tizio potrebbe aver lasciato con un’elevata probabilità le sue impronte digitali sull’arma del delitto. Sia E1 la prova da cui emerge la presenza delle impronte digitali di Tizio sull’arma del delitto, così come accertato in sede di istruttoria. Ci si chieda con quale probabilità soggettiva ci si aspetterebbe di osservare E1, data H per vera, e, successivamente, con quale probabilità ci si aspetterebbe di osservare E1data H per falsa (¬H, da leggersi ‘non H’). Se il grado di probabilità soggettiva di osservare E1 data H per vera è pressoché identico a quello riscontrabile in caso di verità di ¬H, allora E1 è irrilevante ai fini della decisione. Invero, è riconosciuto valore pienamente probatorio a un’evidenza E1 solo quando essa riesca ad avvalorare H, indebolendo ¬H, o viceversa. Se la probabilità statistica di osservare E1 in caso di verità dell’ipotesi di accusa H [più semplicemente: P(E1|H)]è superiore rispetto alla probabilità statistica di osservarla in caso di ¬H [cioè P(E1|¬H)], allora E1avvalora l’ipotesi accusatoria.

Seguendo il ragionamento bayesiano, si ha una maggiore credenza in H sulla base della singola prova E1 soltanto se P(E1|H) >P(E1|¬H)[35], ovverosia:

Il rapporto tra P(E|H) e P(E|¬H) indica, in sostanza, il grado di verosimiglianza di H rispetto ad E, anche noto come “quoziente di verosimiglianza” di H[36] o “rapporto di Bayes[37]. La verosimiglianza dell’ipotesi accusatoria appare, pertanto, direttamente proporzionale al rapporto di Bayes, che diviene indice su cui fondare e quantificare la credenza in un’ipotesi alla luce di una prova. Al crescere del quoziente di verosimiglianza, cresce la probabilità di H, ove il valore pari ad 1 costituisce la soglia superata la quale l’ipotesi accusatoria H è più probabile del suo contrario ¬H. Ancora, nel caso di prova irrilevante, il coefficiente all’esito del rapporto risulta pari a 1 per l’equiprobabilità di P(E|H) e P(E|¬H)[38], mentre un’evidenza che non sia statisticamente conforme a H, genera un coefficiente minore di 1 suffragando ¬H, essendo il numeratore inferiore al denominatore[39]. Adottando gli schemi propri della proporzionalità inversa[40], il teorema di Bayes, che nell’individuazione del quoziente di verosimiglianza ha il suo fulcro, si rappresenta in questi termini:

Ovviamente, trattandosi di un contesto rigorosamente statistico, è necessario fissare sin dal principio la

“regola dell’implementazione” tra ipotesi accusatoria e suo contrario, tale che:

    ovvero    

In altre parole, se la probabilità di osservazione di E1data H è pari a 0.8 nella scala 0 → 1, la corrispettiva probabilità di osservare E1 in caso di non colpevolezza dell’imputato (¬H) deve necessariamente ragguagliare il restante 0.2. In tale ipotesi, il quoziente di verosimiglianza risulta di molto superiore a 1, in particolare pari a 4, denotando un grado di verosimiglianza di H rispetto ad E molto più elevato di quello di ¬H.

Anche limitandosi a tale livello di astrazione, il teorema di Bayes si presenta come heuristic device per il giudizio oggettivo sull’ammissibilità di una prova in relazione alla sua rilevanza[41].

Trasponendo il calcolo del quoziente di verosimiglianza nel contesto dinamico dell’istruttoria, caratterizzata, di norma, da un compendio probatorio articolato (E1,2,n) il teorema di Bayes offre più chiaramente le sue potenzialità. Assai raramente, infatti, il grado di credenza razionale rimane immutato nel corso dell’istruttoria. Ciò a cui si assiste è, al contrario, la modifica del grado di credenza di H, o in termini di incremento o di decremento, potendosi definire il ragionamento probatorio come «determinazione razionale progressiva» della probabilità dell’ipotesi accusatoria, continuamente ricalcolata[42] al crescere della complessità del quadro probatorio[43].  L’approccio iterativo al teorema di Bayes consiste nel ripetere il calcolo del peso di P(H) rispetto alle risultanze di volta in volte acquisite. Date n prove, è possibile applicare il teorema di Bayes a ciascuna di esse, al fine di ottenere un quoziente probabilistico P(H|E1,2,n), sempre entro una scala 0 → 1, in cui P(En/H) = 1 - P(En/¬H).

In un approccio iterativo, la formula di Bayes si potrebbe rappresentare attraverso un’espressione semplificata del tipo:

resa in forma percentuale, a partire da una media di quozienti di verosimiglianza corrispondenti a ogni P(En|H)[44]. Ovviamente, non osta all’applicazione iterativa la constatazione che, almeno astrattamente, «il numero delle prove adducibili a sostegno di un’ipotesi H (o dell’ipotesi contraria) è – come è – teoricamente infinito»[45], garantendo questa espressione un risultato sempre ricompreso in 0→1.

Anche se il teorema di Bayes non nasce come una dottrina delle prove, rimanendo un metodo di calcolo di P(H) a partire dalla frequenza dell’evento ipotizzato in quella data classe, in ambito giuridico riscontra un fascino peculiare. Nondimeno, la trasposizione in ambito giudiziario di un simile teorema rende necessario ridefinire in termini quantitativi tutti i fattori coinvolti nel ragionamento probatorio, non essendo immaginabile il ricorso al linguaggio matematico senza valori numerici spendibili. Sicché, essendo richiesto che l’accertamento della responsabilità penale superi la soglia del dubbio ragionevole, i neobayesiani si sono trovati a dover quantificare non solo il canone della preponderance of evidence del processo civile, ma anche il ben più ambiguo canone dell’oltre ogni ragionevole dubbio.

Nello specifico contesto processualpenalistico, l’applicazione di un modello bayesiano consente di verificare se la «probabilità personale che la versione dell’accusa [Ha] sia vera in quanto opposta alla versione della difesa [Hd[46], ma impone, al contempo, la verifica del superamento della soglia critica di probabilità P* (il dubbio ragionevole)[47]. Il giudizio può, quindi, concludersi con una condanna allorquando , ove però è richiesto che .

Pertanto, quand’anche si dovesse giungere a una probabilità intermedia del tipo , il mancato raggiungimento della soglia critica non consente di esprimere un giudizio esente da dubbi in grado di intaccare ragionevolmente il grado di credenza soggettiva raggiunta, imponendo ex articolo 530, comma 2, cpp un’assoluzione. Il dato probatorio complessivo E, pur non mancando e anzi risultando idoneo a suffragare maggiormente una tesi rispetto all’altra, non consente il superamento della soglia che questa concezione colloca rigidamente in «qualche numero vicino a 1»[48]. Più in generale, rimanendo entro un ambito quantitativo di probabilità, si è affermato che il dubbio è irragionevole quando la probabilità dell’ipotesi accusatoria «sulla base delle premesse disponibili, disti da uno solo per un intervallo trascurabile»[49].

Il bayanesimo giuridico, che si presenta come «una teoria non solo “vera” ma in grado di risolvere pressoché tutti i problemi di valutazione delle prove»[50], dà adito, in realtà, a numerose obiezioni. A scanso di equivoci, va anticipato che nessuna di esse, per quanto persuasive, ha radicalmente impedito la proliferazione di applicazioni strumentali delle teorie matematiche di impianto bayesiano al processo.

3. (segue): Critiche all’approccio bayesiano

Prendendo le mosse da quanto poc’anzi detto, il calcolo quantitativo del quoziente di verosimiglianza ha consentito di approcciarsi anche al tema del ragionevole dubbio da una prospettiva nuova, spudoratamente meccanicista, attraverso la quantificazione più o meno arbitraria della soglia oltre la quale un dubbio sulla verità dell’ipotesi accusatoria H cesserebbe di essere ragionevole. Anche la giurisprudenza italiana degli anni Novanta ha peccato della stessa hybris, fissando tale soglia in un valore limite tendente a 1, sostanzialmente pari quindi al 99% o, ancora, al 99,999%. Tuttavia, ci si limita a segnalare che l’identificazione numerica della soglia critica non sembra alla portata dell’ermeneutica matematica, tanto più che in sé, come ricorda Tribe, l’esistenza di una soglia che consenta al giudice di condannare l’imputato pur sapendo che esiste un certo margine di probabilità della sua innocenza è un costo della precisione «intimamente immorale»[51]. Sebbene la quantificazione di tale soglia non appaia ostativa al funzionamento del teorema, è del tutto evidente che l’impossibilità di fissare un valore numerico oltre il quale la probabilità di una ipotesi possa dirsi ragionevolmente vera oltre ogni dubbio svuoterebbe di rilevanza il teorema di Bayes, relegandolo a strumento di integrazione del ragionamento probatorio, diversamente da come originariamente ipotizzato.

Peraltro, ragionando sempre sul ragionevole dubbio circa la verità di un’ipotesi H alla luce delle evidenze probatorie, non si può non constatare che il teorema di Bayes mostra una sostanziale indifferenza alla completezza del compendio probatorio, di cui il quoziente di verosimiglianza non reca alcuna traccia[52]. Anche volendo trasporre le logiche pascaliane alla valutazione delle prove acquisite a dibattimento attraverso la declinazione bayesiana delle inferenze causali, «non si può fare a meno di usare, implicitamente o esplicitamente, una valutazione della completezza dei fatti posti all’attenzione della Corte»[53]. È evidente che un quoziente di verosimiglianza ottenuto all’esito di un’istruttoria completa non si differenzia ex se da quello ottenuto combinando dati probatori scarni e lacunosi. Il che non può non influenzare anche la valutazione sulla persistenza o meno di un ragionevole dubbio. Eppure, sembra innegabile che tra i due quozienti solo il primo presenta un grado di affidabilità tale da giustificare una qualsiasi statuizione, pur non essendo il teorema di Bayes in grado di coglierlo. Un teorema che non ingloba il dato sulla pienezza cognitiva né distingue tra probabilità assoluta e subordinata[54] nella peculiarità del sistema processuale penale fornisce esiti ex se indistinguibili sia in caso di quadro probatorio sufficientemente completo sia in caso di grave deficit probatorio. Constatazione questa forse già sufficiente a escludere che quella bayesiana sia «una buona teoria dell’accertamento giudiziale dei fatti»[55].

A questa, come ad altre obiezioni, il neobayanesimo giuridico ha tentato di resistere attraverso l’inserimento di un dato relativo alle lacune probatorie nel teorema di Bayes[56]. La probabilità di Ha, risultante dalla totalità delle prove acquisite E, andrà integrata con «un apposito elemento di correzione (L) corrispondete alle lacune che il quadro probatorio E»[57] mostra rispetto alla completezza ipotetica del quadro probatorio. Sia Fa «l’insieme delle prove che ci si può aspettare [deduttivamente] di sentire a sostegno di H (nell’ipotesi che H sia ciò che è accaduto)»[58] e Fdil corrispondente per la ¬H. In un modello di giudizio che percepisca l’esigenza di completezza o, quantomeno, sufficienza del dato probatorio, si dovrebbe confrontare il dato emerso Ea con quello general-deduttivo Fa, ricavato piercianamente dall’ipotesi inizialmente abdotta, al fine di calibrare meglio e più consapevolmente il grado di probabilità di Ha. Si consideri ora L come l’insieme delle lacune probatorie (L = La Ld), tale che (L + E) dà conto dell’intero compendio probatorio osservato e osservabile. Aggiornando così il teorema di Bayes si ha un più affidabile sistema di valutazione delle prove ai fini di una condanna, esprimibile in questi termini:

Se la lacuna relativa ad H rispetto a quello che dovrebbe essere il quadro probatorio completo non è giustificata, inevitabilmente si riduce il grado soggettivo di credenza in H[59], comprimendola al di sotto della soglia critica P*, comportando l’assoluzione per insufficienza di prove. Si tratta di un correttivo che appare astrattamente risolutivo[60] e che raffina ulteriormente la logica bayesiana sulle esigenze epistemiche del giudizio.

Ciò detto, permangono molti altri limiti a cui la dottrina neobayesiana non è ancora riuscita a porre definitivamente rimedio. Si è detto che il teorema di Bayes opera entro un’affascinante, ma impraticabile logica proposizionale binaria vero/falso, in cui se P(H|E) tende (o è uguale) a 0, allora, di converso, P(¬H|E) è pari a un grado di certezza prossimo (o uguale) a 1. Ebbene, ove la probabilità della tesi accusatoria sia pari o tendente a 0, si dovrebbe bayesianamente concludere che l’ipotesi accusatoria è tendenzialmente falsa, perché da P(¬H|E) = 1 - P(H|E) risulta un’alta probabilità (≥ P*) di ¬H. Eppure, sarebbe scorretto ritenere che, ove manchi la prova di H, sussista macchinalmente la prova di ¬H. Più correttamente, in una siffatta ipotesi si versa in «una situazione di permanentee (allo stato delle cose) irresolubile incertezza intorno all’esistenza di [un evento] X», ascritto alla responsabilità dell’imputato sub H, rispetto alla quale «non vi sono elementi di conferma per nessuna ipotesi»[61], tantomeno ¬H. L’incapacità della logica bayesiana di distinguere tra assenza di prove a sostegno di un’ipotesi H (la «situazione di ignoranza» di cui parla Schafer[62]) e sua radicale falsità non appare, allo stato, né superata né superabile. Infatti, «non è detto che il grado di conferma di un’ipotesi debba essere inversamente collegato a quello dell’altra», proprio perché «non vi è nessuna complementarietà tra le due situazioni», almeno «dal punto di vista della situazione probatoria che in concreto viene a realizzarsi»[63]. Nella logica del ragionevole dubbio, la prova di ¬H (innocenza) non opera semplicemente perché non necessaria. Al contrario, una simile applicazione espone il giudizio a sforzi non richiesti, poiché la prova oltre ogni ragionevole dubbio della falsità di un’ipotesi non si discosta, quanto a modalità di accertamento e difficoltà, dalla prova della sua verità. Con la differenza che, mentre ai fini della condanna un simile sforzo intellettuale ed economico è ragionevole, per la prova dell’innocenza appare totalmente inutile e antieconomico, posto che il processo è chiamato a vagliare la verità proposizionale della sola imputazione. Per dirla sempre in termini bayesiani, la prova della falsità richiede il superamento di una soglia critica (Pf*) pari a Pf* = 1 - P*, cioè prossima allo 0, in una scala 0 → 1. Tuttavia, se per la condanna è necessario il superamento di P*, per la assoluzione ex articolo 530 comma 2 cpp è sufficiente che P(H|E) ≤ P*, a nulla rilevando quanto prossima a 0 sia in concreto Pf*[64].

Ma la principale e più nota obiezione prende le mosse dalla determinazione del grado di convincimento razionale sulla base della frequenza di un certo fenomeno all’interno di un sistema dato e preesistente. Questi dati frequenziali, anche detti prior probabilities (o base rate informations), costituiscono il fondamento imprescindibile del calcolo bayesiano[65]. Ebbene, il teorema di Bayes offre rare applicazioni al di fuori delle «esercitazioni accademiche»[66], in cui, ammessa e non concessa un’ideale completezza probatoria, le prior probabilities risultino determinabili efficacemente[67]. La serie di domande per ricavare dati statistici potrebbero essere poi sostanzialmente “infinite” per cercare di affinare un dato statistico via via in condizioni più simili al caso concreto[68]. Per altro, rimanendo entro le rare ipotesi in cui siano determinabili le prior probabilities,rimane comunque rischioso tentare di estrarre da un dato frequenziale informazioni che potrebbero facilmente risultare non rilevanti nel caso concreto o canalizzare il ragionamento probatorio entro pericolosi tunnel (anti)cognitivi. Si pensi al celebre caso giudiziario del «Blue Bus» (Smith v. Rapid Transit, Inc.[69])presentato da Tribe[70] per screditare il ricorso alla cd. naked statistic evidence basata su prior probabilities irrilevanti al caso concreto. Anzitutto, conoscere che in una determinata città l’85% dei bus di colore blu è gestito dalla società A e che solo il restante 15% è gestito dalla società B, non consente ex se di individuare a quale compagnia appartenga il bus blu coinvolto in un incidente notturno[71]. Al più, si può affermare che la frequenza con cui è possibile osservare un autobus blu appartenente ad A è tendenzialmente di 0,85, ma null’altro. Inoltre non è possibile trarre dal dato statistico conferme o smentite sull’attendibilità del testimone che dichiari di aver visto un autobus blu della compagnia B, perché senza ulteriori elementi[72] non è possibile escludere ragionevolmente che abbia visto ciò che è meno frequente[73]. «Il massimo che si possa dire dell’evidenza del presente caso è che forse – riconosce la Corte – le probabilità matematiche sono a favore della affermazione che l’autobus del convenuto [compagnia A] ha provocato l’incidente. Ma questo non [risulta] sufficiente»[74]. Ai fini di stabilire se l’autobus blu coinvolto nell’incidente appartenga o meno al parco macchine della convenuta compagnia A, a nulla rileva la prior probability circa il rapporto di autobus blu a sua disposizione su tutti quelli presenti in città. In caso contrario, si produrrebbe il risultato di ritenere quel convenuto responsabile di ogni incidente coinvolgente un autobus blu; il che, chiaramente, è inaccettabile. Si pensi anche al cosiddetto «paradosso dell’intruso»[75]the paradox of gate-crasher») in cui si vuole accertare se uno degli spettatori di un concerto abbia realmente pagato il biglietto di ingresso, senza avere nessun elemento di prova. Conoscere la frequenza con cui il fenomeno che si imputa anche al soggetto si presenta tra gli spettatori (per esempio sapere che solo il 49% degli spettatori ha presentato regolare biglietto) non produce alcuna utilità inferenziale[76]. Posto che non esistono altre prove, gli organizzatori potrebbero vincere una causa civile, ispirata alla preponderance of evidence e non alla più esigente Bard rule? La logica frequentista dovrebbe ammettere di sì, ma, se così fosse, si produrrebbe il paradosso di esporre a responsabilità chiunque abbia preso parte all’evento per la preponderanza della prova statistica a suo sfavore[77]. Sotto questo profilo il teorema di Bayes, se adottato come unico strumento decisorio, finisce per convogliare il giudizio in un cul de sac caratterizzato dal sacrificio dell’eccezione alla normalità dell’avvenire.

Si potrebbe obiettare che «la comprensione del mondo esige necessariamente che si ricorra a generalizzazioni»[78], di cui è esempio il nostro stesso linguaggio. Talché è corretto affermare che tra prove “generalizzate” (ad esempio le massime di esperienza o a dati statistici) e prove “individuali” (tracce del singolo fatto concreto) non intercorra una differenza di categoria, ma solo di grado di approssimazione[79]. Così come è possibile giungere ad asserire che «qualsiasi inferenza probatoria si fonda [inconsapevolmente] sull’applicazione del teorema di Bayes, mediante l’interpretazione soggettivista della probabilità come grado di credenza razionale»[80]. Eppure, è fuor di dubbio per le ragioni anzidette che sono le prove “individuali”, per quanto prove di verosimiglianza à la Wach, ad assolvere alla ricostruzione di fatti specifici e a rendere processualmente fruibili le massime di esperienza o le leggi statistiche di cui il processo certamente non può fare a meno[81]. Parafrasando la sentenza Franzese, su cui si tornerà nel prosieguo, sembra inevitabile ritenere che il garantismo penale si debba tradurre anche, e soprattutto, in garantismo inferenziale, poiché a nulla servirebbe imbastire un “giusto processo” paritetico se poi è l’imputato a doversi difendere da un dato statistico apparentemente invincibile e sottratto, in relazione all’accertamento del nesso causale, al rigore del ragionamento controfattuale.

Senza una simile integrazione “individualizzante”, un’alta probabilità iniziale di P(H) rischia di divenire una prova astratta, fondata su una presunzione di conformità dell’accadere con quanto osservato in passato, di cui si nutrono le anamorfosi del giudizio e su cui sono edificate tante – troppe – colonne infami[82].

In conclusione, dell’applicazione in ambito giuridico del teorema di Bayes resta la capacità di descrivere un percorso di intimo convincimento anche in un’ottica dinamica di ingresso e combinazione di nuove evidenze, senza però fornire ancora un modello definitivo di riduzione della complessità del giudizio di valutazione delle emergenze probatorie. Non v’è dubbio che il grande successo che tale teorema ha riscontrato, specie negli ordinamenti di Common Law, consiste nella sua valenza come heuristic method in grado di rappresentare con precisione geometrica l’algoritmo decisorio, in piena ottica illuminista. Precisione i cui costi ingenti potrebbero non essere irrimediabilmente superiori ai benefici[83], come intendono dimostrare i recenti tentativi di passare dal “decidere la verità, al “calcolare la verità’, di cui si dirà infra.

4. Il fallimento degli altri approcci quantitativi

L’esperienza bayesiana non esaurisce lo spettro degli approcci matematico-statistici al giudizio. Altre teorie hanno tentato di applicare il calcolo della probabilità alla valutazione delle prove, tentando di superare alcuni dei limiti delle teorie bayesiane.

Tra queste, una delle più raffinate e complesse è la «versione non ortodossa dell’impostazione classica bayesiana»[84] nota come Evidentiary Value Model (EVM)[85], sviluppatasi autonomamente in Svezia al fine di risolvere i dubbi sollevati dalla codificazione del concetto di libero e razionale convincimento del giudice[86]. Della concezione bayesiana il modello svedese conserva l’idea che la credenza in un’ipotesi H sia quantificabile e che il teorema di Bayes rappresenti il modello base per il calcolo del peso probatorio di una singola evidenza. Tuttavia, escludendo che la formazione di una credenza si sostanzi in una mera determinazione statistica della probabilità di osservare H alla luce di E, l’EVM propone di definire il giudizio come valutazione della “relazione probatoria” tra l’ipotesi accusatoria e il compendio probatorio acquisito. In altri termini, al giudice non interessa principalmente stabilire la verità del factum probandum, «quanto stabilire che esista un’appropriata “relazione probatoria” fra [probandum e probans], poiché anche un alto grado di credenza nella verità di [una proposizione accusatoria] “al di là di ogni ragionevole dubbio”, ha valore giudiziario solo se è stabilito sulla base di una “appropriata” relazione probatoria»[87] che la giustifica. Ne deriva la necessità di indirizzare la ricerca giudiziale non sulla sola verità del tema accusatorio, «ma sulla presenza, o possibile presenza, di una connessione causale o logica fra la prova ed il tema»[88].

Valutare la prova significherebbe in quest’ottica stimare la probabilità che la singola prova di volta in volta acquisita “dimostri” l’ipotesi, ricorrendo alla metafora dell’apparato di misurazione proposta da Freeling e Sahlin[89]. Come noto, l’attendibilità delle misurazioni scientifiche rappresenta un dato imprescindibile di qualsiasi ricerca[90]. Se l’apparato di misurazione «funziona bene, allora la lettura dell’apparato dà il valore corretto, ma, se non funziona bene allora la lettura»[91] dell’apparato appare inattendibile. Allo stesso modo una testimonianza, ad esempio, assume un certo valore nella misura in cui riteniamo che il testimone sia realmente sincero e informato sui fatti su cui è chiamato a deporre, ma anche che ricordi sufficientemente bene quanto richiesto. Questa connessione è quantificata in termini di relazione probatoria, che è pari a zero ove si ha motivo di ritenere che la testimonianza che avvalora H sia completamente inattendibile ed è pari ad 1 ove si ritenga che sia, invece, attendibile.

In termini dinamici, l’Evidentiary Value Model consente di combinare i diversi valori della relazione probatoria (A) delle singole prove acquisite rispetto all’ipotesi H, attraverso un’espressione del tipo:

dove il rapporto tra ogni singolo valore probatorio è di tipo disgiuntivo ed indipendente ( , poiché la questione non è capire «se tutti i fatti probatori provano il tema [H], ma se qualcuno di essi lo fa»[92].

Il punctum puriens consiste nell’impossibilità di quantificare con precisione il fattore elementare con il quale tutta la teoria opera, vale a dire l’evidentiary value di partenza di ogni singola evidenza probatoria. La realtà nella quale il giudizio opera è connotata da incertezza non solo sul factum probandum, ma anche sul suo rapporto con il factum probans. A questo punto, occorre domandarsi quale senso avrebbe l’efficace «analogia tra la prova e lo strumento di misura»[93], se ciò che la teoria del valore probatorio intende misurare è solo sommariamente valutabile. Come nel caso della dottrina bayesiana, ci si trova dinnanzi a una formulazione che ha il pregio teorico di spiegare il complesso fenomeno della ponderazione della decisione alla luce del valore delle nuove prove, senza però fornire strumenti per valutarlo.

Indubbiamente, non può dirsi risolutivo il tentativo di attribuire all’evidentiary value un dato numerico “vago”[94] entro il range 0 → 1, da “impossibile” (pari a 0), fino a “ovvio” (pari a 1), passando entro i gradi intermedi, dal meno al più probabile, di “improbabile”, “plausibile”, “probabile” e “confermato” (oltre la soglia critica)[95]. Una simile rinuncia alla precisione nel calcolo della variabile numerica fondamentale non appare coerente con il fondamento matematico dell’Evidentiary Value Model. Parimenti, affermare che i dati probatori combinati tra loro debbano offrire un valore di connessione del factum probans con il factum probandum P(A|E) in termini di altissima probabilità, non risolve il problema della quantificazione numerica della soglia critica del ragionevole dubbio da inserire nell’algoritmo. Verrebbe da domandarsi perché debba intendersi come “quasi vera”, “confermata” un’ipotesi che sia suffragata da prove attendibili al 99%, e non il 95% o 99,999%. Nel ricorso quotidiano agli strumenti di misurazione o diagnostica, ammettiamo l’esistenza di un margine di errore, ritenuto trascurabile se inferiore a certe percentuali. In ambito processuale il costo della precisione sembra eccessivo[96]. Per giunta, qualsiasi fissazione numerica del ragionevole dubbio, da cui gli approcci quantitativi non possono prescindere, rimangono «rozze approssimazioni […] che non hanno alcun significato numerico attendibile»[97] e che offrono solo risultati tendenziali.

Considerazioni del tutto analoghe possono essere svolte per l’elaborazione delle combined evidences proposta da Schafer[98]. Ammettendo che la teoria proposta non dispone di strumenti per il calcolo del grado di credenza iniziale, Schafer sottolinea come il pregio delle teorie combinatorie non debba essere ricercato nello sviluppo di modelli teorici più o meno idonei a quantificare credenze soggettive, caratterizzate dall’irriducibilità in termini numerici. Al contrario, esse dovrebbero fornire all’organo giudicante strumenti per quantificare credenze soggettive già raggiunte entro il margine 0 → 1, per poi poterle combinare efficacemente. Eppure, anche in questo caso si deve rilevare il rischio che il soggettivismo non venga eliminato, ma solo espresso in una più rassicurante, ma sempre fittizia, forma numerica.

Peraltro, l’oggettivizzazione della valutazione in termini comunque sempre probabili, tipicamente proposta dalla dottrina di matrice tedesca[99], tende per lo più a tenere in considerazione l’attendibilità di una prova in termini di frequenza relativa e predeterminata[100], che ha molto in comune con le prior probabilities bayesiane, comprese le relative criticità. Rimane da domandarsi quale sia l’effettiva utilità di conoscere la frequenza di testimonianze false, ipotizzando sempre di godere di una certezza classificatoria per distinguere le testimonianze “vere” da quelle “false”. Se nove testimonianze su dieci sono vere (sincere perché si dice ciò che si ricorda e ciò che si ricorda corrisponde alla verità storica), come si potrebbe cogliere da ciò una qualche utilità nella valutazione della singola testimonianza? Evidentemente, in nessun modo, nemmeno quando la frequenza si riferisca alla serie di testimonianze rilasciate dalla stessa persona escussa in altre circostanze e indichi una spiccata tendenza a mentire[101]. Si ripropongono problemi già affrontati, e risolti con un abbandono di questi dati, per altro raramente nella disponibilità del giudicante, se non come meri “indicatori”, svuotati di valenza probatoria senza evidenze integrative “individualizzate”.

5. Tanto rumore per nulla?

Si è osservato che tutti gli approcci quantitativi alla verità probabile nel processo innalzano il calcolo matematico a garanzia di razionalità della decisione, al punto da cercare di comprimere in termini aritmetici peculiarità soggettivistiche a cui il processo non può rinunciare. Questo atteggiamento a tratti naïf naufraga dinnanzi alla mancanza di uno strumento idoneo a quantificare le prior probabilities o gli evidentiary values, senza i quali non è possibile procedere a calcoli combinatori di sorta. Se a ciò si aggiunge che persino le stesse massime di esperienza diffusamente utilizzate sono raramente esprimibili attraverso rigorosi dati statistici[102], è chiaro che l’assenza di dati quantitativi di partenza se non è sempre incolmabile, è frequentemente incolmata.

In ogni caso, conoscere l’esatta frequenza di un certo evento entro una classe, a meno che sia pari al 100%, risulta sostanzialmente inconcludente, per lo meno sul piano probatorio e motivazionale. «Perché un giudice – si chiede provocatoriamente Eggleston – in una serie di circostanze che probabilmente non si ripeterà mai, dovrebbe basare le proprie conclusioni relative al merito del procedimento su ciò che egli ritiene un bilancio delle probabilità»[103] relative a casi precedenti solo simili?

Di tutti i limiti dell’impianto bayesiano, comune tutti gli approcci quantitativi, il ricorso alle naked statistics è forse il più eclatante, poiché cerca di imporre una tendenziale uniformità osservata in precedenza a eventi nuovi e non ricompresi nel suddetto calcolo frequenziale. Anche se non mancano autori che reputano opportuno allargare i dati statistici relativi a eventi di un certo tipo entro la classe di riferimento, per ottenere supporto probatorio sufficiente per tutti gli eventi simili ivi osservati[104], questa sembra una posizione ampiamente inconciliabile con la funzione euristica del processo indissolubilmente legata al caso concreto. Come precisa Frosini, «delle statistiche nude non si deve generalmente tener conto nel dibattimento processuale, ma sono ammesse eccezioni»[105] previste dal legislatore, specie in materia civilistica[106].

Al di fuori di tali ipotesi, si ritiene quasi unanimemente che la prova statistica sia in sé insufficiente a fornire la prova del fatto da ricostruire[107], perché «il giudice deve accertare una relazione che riguarda un singolo caso e non un insieme di casi»[108]. Ciò non implica che il ricorso alla prova statistica rimanga appannaggio solo dei bayesiani, poiché essa, a seconda del tipo di fatto che si intende provare, può comunque mostrare una qualche utilità processuale, o persino essere decisivo[109]. Come noto, il dato statistico rientra nel patrimonio di conoscenze del giudice per l’accertamento del nesso causale, ed è anzi proprio questo il caso in cui esso «può risultare significativo – se non, addirittura, determinante»[110]. Purtuttavia, il grado di fondatezza dell’ipotesi accusatoria non può mai coincidere con la frequenza con cui il tipo di evento che si intende provare si osserva in una classe data (ed entro cui è sussumibile il caso de quo)[111].

In un contesto di crescente rilevanza della prova scientifica, il giudice è chiamato a resistere al canto delle sirene dell’id quod plerumque accidit e colmare lo scarto che sussiste tra la frequenza statistica (generale e non direttamente rivolta al fatto concreto) e l’ipotesi sul fatto specifico che si intende provare. Rendere processualmente fruibile una prova statistica significa “individualizzarla”, sfruttando il supporto inferenziale fornito dalla tendenziale uniformità rispetto ai casi precedentemente osservati, senza però commettere l’errore di sacrificare le specificità del fatto concreto alle logiche di economia processuale. Sicuramente, un dato statistico particolarmente prossimo alla certezza (pari al 100% di osservazione di quell’evento in determinate circostanze) fornirà all’inferenza sul fatto da provare una «base più oggettiva»[112], ma non colmerà di certo da solo quel quid pluris richiesto per superare nel caso di specie la soglia epistemica del ragionevole dubbio. La giustificazione di una credenza posta alla base della motivazione non può – e non deve – mai tradursi in una mera individuazione della legge causale in grado di spiegare il maggior numero di ipotesi simili. Ciò emerge molto chiaramente nella sentenza Franzese, che si preoccupa di precisare che non è consentito, soprattutto sotto il profilo epistemico, «dedurre automaticamente e proporzionalmente dal coefficiente di probabilità statistica espresso dalla legge di copertura la conferma dell’ipotesi», specie quando si tratta di ricorrere a una «nozione “debole” di causalità». Si avrebbe altrimenti «un’abnorme espansione della responsabilità, in violazione», soprattutto, «della garanzia di responsabilità per fatto proprio»[113]. Per questo motivo, il dato statistico su cui si basa il bayanesimo deve essere integrato, transustanziato ed eventualmente smentito dalle peculiarità del caso concreto, la cui forza probatoria non sembra allo stato quantificabile numericamente.

Perché allora un oculato risparmio delle risorse intellettuali non ha indotto una parte della dottrina e della giurisprudenza ad abbandonare l'interesse e i tentativi di affinamento di algoritmi tanto complessi? La risposta non può che essere tranchant: le potenzialità di approcci simili in termini di semplificazione ed economicità del giudizio sono innegabili. Altrettanto innegabile è che il desiderio di oggettività nel giudizio quale espressione massima del due process of law non si sia mai rassegnato all’intime conviction, per quanto ormai pienamente trasposta nelle non meno rigide forme della razionalità qualitativa. Peraltro, si sbaglierebbe a ricondurre il sogno di poter applicare il linguaggio matematico all’algoritmo di valutazione della prova entro una più generale deriva meccanicista delle scienze cognitive[114].

Poco recettiva di simili proposte, dall’andamento carsico e periodicamente riscoperte, la nostra dottrina vanta un intervento che precede di qualche anno il recupero della dottrina americana del Teorema di Bayes in ambito giuridico negli anni Settanta del Novecento. Pur senza generare l’interesse sperato, la rappresentazione algebrica dei possibili esiti del giudizio isolatamente proposta da Carnelutti, in un articolo del 1961[115] segna il solco entro il quale pare opportuno incanalare il crescente, benché tardivo, interesse nella cd. “matematica del processo”. Carnelutti riconosceva una certa utilità delle funzioni algebriche quali «heuristic devices», in grado di far emergere la tendenziale prevalenza o meno delle ipotesi di colpevolezza e di non colpevolezza (nella consueta forma H e ¬H), senza, però, adottare alcun criterio matematico per la precisa ponderazione della probabilità di ciascuna ipotesi[116]. Invero, il senso di frustrazione che pervade il giurista “quantitativo” sembra derivare proprio dall’aspirazione di completa sostituzione del giudizio attraverso algoritmi probatori dall’aspirazione universale[117]. Più propriamente, tali teorie vanno riconsiderate come heuristic model per la valutazione probatoria, da cui trarre giovamento processuale e punti di vista inediti, almeno per il giurista di formazione classica, per nuove e più solide conferme della concezione qualitativa oggi dominante[118].

La consapevolezza dei limiti degli approcci quantitativi di cui si è dato conto non ha impedito di affinare modelli di calcolo del peso probatorio e della probabilità delle ipotesi causali, le cui recenti applicazioni sperimentali stanno spingendo repentinamente il dibattito processualistico ben oltre le colonne d’Ercole della probabilità baconiana.

6. Le ultime applicazioni sperimentali della matematica del processo

Tra i nuovi algoritmi processuali già applicati in via sperimentale, uno degli esempi più significativi è il Compas (Correctional offender managment profiling for alternative sanctions), brevettato da una società americana e inizialmente adottato da un ristretto numero di Corti di merito americane per la previsione su base statistica della probability of the offender’s recidivism ai fini della quantificazione della pena e della successiva extended supervision. Attraverso l’inserimento di una serie di dati oggettivi concernenti il trascorso criminale, le condizioni socioeconomiche e personali dell’imputato, nonché 137 domande a risposta vincolata poste allo stesso, Compas misura il rischio di recidivanza come “low”, “medium” e “high[119]. Si tratta di un software già largamente in uso ad alcuni corpi di polizia nazionali per calibrare l’intensità della supervisione dei soggetti in libertà vigilata, dopo essere stato ritenuto affidabile, tra gli altri, dalla Divisione di servizi per la giustizia penale dello Stato di New York. Nel 2016 anche la Corte suprema del Wisconsin, pronunciandosi sul caso State v. Loomis[120]ha avallato il ricorso ad algoritmi per la determinazione quantitativa del rischio di recidivanza, sulla cui affidabilità epistemica è necessario soffermarsi brevemente. Occorre sin da subito precisare che, trattandosi di algoritmo brevettato, «la metodologia usata per formulare tale valutazione non è stata comunicata né al giudice né all’imputato»[121]. Pertanto, non è possibile vagliare in concreto l’idoneità del meccanismo di calcolo approntato, ma solo la sua astratta idoneità a fornire informazioni rilevanti per il giudizio sul pericolo di recidiva.

Si è già detto che il bayanesimo giuridico si è sviluppato principalmente in relazione al calcolo della credenza soggettiva fondata sulla probabilità di una certa ipotesi ricostruttiva alla luce di determinati dati probatori. Invero, il modello bayesiano è idoneo a suffragare anche valutazioni prognostiche su un’ipotesi, a patto di disporre di un compendio di prior probablities sufficientemente integrato. Anche nel caso dell’algoritmo Compas, il ricorso a statistiche redatte dalla società privata sulla scorta di osservazioni di casi precedenti su scala nazionale per la determinazione della probabilità di recidivanza sembra seguire logiche prettamente bayesiane. Conoscere i limiti in cui il bayanesimo giuridico incorre consente di intuire quali siano le critiche che possono essere mosse al calcolo del rischio di recidivanza sulla base di dati statistici ottenuti osservando casi e soggetti diversi da quello del caso concreto. Pur rigettando il ricorso dell’imputato, che lamentava l’incompatibilità del Compas con i principi del giusto processo sotto il profilo dell’inidoneità epistemica e della violazione del diritto di difesa per l’impossibilità di conoscere il suo meccanismo di funzionamento, la Corte suprema del Wisconsin ha ridimensionato l’entusiasmo in futuristici scenari di giustizia predittiva. Nelle motivazioni della sentenza, la Corte suprema del Wisconsin ha evidenziato che algoritmi a base statistica, come Compas, «non prevedono la specifica verosimiglianza che un determinato imputato commetterà un nuovo reato. Al contrario, forniscono una previsione basata su una comparazione di informazioni del singolo imputato su quelle di un gruppo di soggetti simili»[122]. Sulla scorta di tale constatazione, la Corte suprema ha concluso che Compas «è solo uno di una serie di molti fattori che possono essere considerati e ponderati nella decisione»[123]. A ben guardare, infatti, il ricorso a mathematical tools deve ragionevolmente essere limitato, come già si è detto sulla scorta delle intuizioni di Carnelutti, alla combinazione di dati, a patto di poterli misurare in termini numerici, e mai in sostituzione del giudizio. Solo valutando l’esito di Compas quale fattore non esclusivo della decisione può assicurarsi che le decisioni siano rispettose del right to individualized sentencing, conservando la Corte «la discrezionalità e la conoscenza necessaria per disattendere, quando necessario, la valutazione»[124]. È, in sostanza, la conferma dell’impossibilità di eliminare l’intime conviction, specie in tema di valutazione prognostica del rischio di recidivanza, inevitabilmente affidato all’«intuition, instinct and sense of Justice»[125] del giudicante. Peraltro, nonostante i limiti imposti all’uso processuale di Compas, la Corte si mostra ben conscia dei rischi di un abuso, posto che «la maggior parte dei giudici non è in grado di comprendere gli esiti degli algoritmi di calcolo del rischio»[126] e che l’esercizio del diritto di difesa appare estremamente compromesso dalla segretezza del loro meccanismo di funzionamento[127]. È infatti crescente il numero di pronunce di Corti americane in cui si esalta entusiasticamente il ruolo probatorio dei risk assessment tools[128], ma anche il rischio che sulla presunzione di conformità dei casi presenti con quelli simili registrati in passato si sacrifichino le specificità del caso concreto, attraverso la trasformazione del ragionevole dubbio in mera quantificazione statistica del margine di errore giudiziario ritenuto accettabile. Se tale constatazione è valida in una realtà come quella americana, in cui il dibattito sull’uso processuale di algoritmi decisori e predittivi è ormai approfondito e diffuso, non resta che domarsi quale potrebbe essere la capacità dei giudici e delle Corti supreme continentali di far fronte all’inarrestabile diffusione di simili tools[129].

Nel 2016 anche l’University college of London ha sviluppato un algoritmo decisorio in grado prevedere le decisioni della Corte europea dei diritti dell’uomo[130]. Prendendo in esame la giurisprudenza recente della Corte in relazione ai soli articoli 3, 6 e 8 della Convenzione, l’algoritmo si è rivelato idoneo a valutare la violazione o meno degli articoli presi in esame in nuovi casi concreti posti all’attenzione della Corte, ottenendo un margine di successo (decisione conforme a quella calcolata dall’algoritmo) fino al 79%. L’algoritmo processa un input di parole chiave relative a tre macrosezioni. La prima, avente ad oggetto una sommaria descrizione del fatto, comprensiva di una sottosezione relativa alle circostanze legate al caso concreto e di un’altra relativa alle normative nazionali poste all’attenzione della Corte. La seconda riguardante le norme della Convenzione coinvolte da ogni singola decisione così come interpretate dalla giurisprudenza convenzionale. Infine, la terza relativa agli esiti di tutte le decisioni in termini di violazione o meno dei diritti della Convenzione riguardanti le parole chiave delle due precedenti sezioni. Da ciò, l’algoritmo effettua un raffronto con le parole chiave che descrivono il fatto del caso de quo e offre come output una previsione della decisione della Corte. Non v’è dubbio che un margine di errore che va dal 20 al 30% sembra ostativo a qualsiasi ambizione di sostituzione del giudizio di una Corte, espressione una pluralità di pensiero che la semplice statistica non riesce nemmeno a descrivere, limitandosi all’esito binario violazioneviolazione delle decisioni. Eppure, ancora una volta, il pragmatismo dei proponenti, che si limitano a proporre tale strumento come integrazione di un insostituibile giudizio umano, obbliga l’interprete a riconsiderare il ruolo dei tools nel processo. Un risultato fallimentare come il 21% di previsioni errate può anche essere letto come incidenza della tendenza a conformarsi al precedente nel 79% delle decisioni, su cui tutte le teorie bayesiane, a ben guardare, scommettono.

Sulla medesima scommessa teorica, una società privata francese ha sviluppato e messo in vendita un software rivolto agli avvocati del tutto simile a quello sviluppato dall’U.C.L. per la previsione dichiaratamente solo probabile degli esiti di una causa, sommariamente descritta alla luce di precedenti decisioni processate in un database costantemente aggiornato[131]. L’obiettivo dichiarato dagli sviluppatori è, anche in questo caso, fornire un contributo per «testare la tenuta delle argomentazioni e scegliere la strategia migliore» attraverso il calcolo delle probabilità di vittoria della causa, ottimizzando le risorse intellettuali e di tempo. Per altro, il sito suggerisce di ricorrere all’algoritmo ivi proposto anche per conoscere i margini di successo o meno della lite, e negoziare di conseguenza attraverso il ricorso agli istituti alternativi al giudizio. Nel campo delle alternative dispute resolution, i rischi connessi allo scorretto uso degli algoritmi di giustizia predittiva sono amplificati, posto che non è inimmaginabile che i privati si affidino ad essi in via esclusiva, per la definizione apparentemente “oggettiva” delle controversie.

In Italia l’eco di questi metodi formali applicati al processo penale, tanto affascinanti quanto pericolosi, è giunta con un certo ritardo, a parte qualche pronuncia di giudizi nazionali che sporadicamente hanno adottato il teorema di Bayes[132]. Ancora di recente il Tribunale di Milano[133] ha fatto uso del bayanesimo giuridico per escludere che un’impronta dattiloscopica, quand’anche sicuramente lasciata dal colpevole e verificata con un errore inferiore al 99.9%, sia in sé sufficiente per suffragare una sentenza di condanna. Ciò, in quanto tale dato deve essere inserito all’interno di una logica combinatoria di tipo bayesiano, nella quale P(H|E) è data dal raffronto di tutte le risultanze disponibili e, ove queste individuino un quoziente di verosimiglianza inferire a 1 (screditando l’ipotesi accusatoria), il dato potrebbe non raggiungere nemmeno lontanamente la soglia critica del ragionevole dubbio, comunque la si intenda determinare. Nel caso di specie, partendo da una probabilità iniziale di colpevolezza pari a 0,1 % sulla base delle altre risultanze istruttorie, la prova scientifica con un margine di attendibilità pari a 99,9% offre una probabilità di colpevolezza pari soltanto al 50%[134]. A questi timidi tentativi di trasporre gli algoritmi predittivi e abduttivi al processo penale italiano, si deve aggiungere il KeyCrime[135], in uso dal 2007 presso la Questura di Milano per la prevenzione e repressione di reati seriali e, in particolare, rapine seriali nel contesto territoriale di riferimento. Attraverso la raccolta dei dati relativi a tutte le rapine già accertate definitivamente nel milanese, il KeyCrime individua i trend comuni tra i vari reati attribuiti a ciascun soggetto, nonché le connessioni statisticamente frequenti tra caratteristiche personali[136]. Oltre ad incoraggianti risultati sul piano di previsione e prevenzione mirata, il KeyCrime combina i big data a disposizione con le informazioni raccolte sul luogo del delitto, giungendo a profilare un possibile responsabile, già noto o ancora ignoto. Rinviando ad altra sede lo studio degli effetti che la applicazione di un simile software comporterebbe sul nostro garantismo penale, ci si limita a constatare che l’indagine giudiziaria ne risulterebbe mutata e indirizzata non solo alla raccolta degli elementi di prova, ma anche dei dati personali dell’indagato apparentemente irrilevanti, ma necessari per consentirne un raffronto con il profilo fornito dal KeyCrime[137].

7. Conclusioni. L’Umanesimo digitale e il diritto ad un giudizio umano

Molto tempo è ormai passato da quando, nel 1949, Jerome Frank teorizzava il ricorso ai calcolatori al processo per l’applicazione oggettiva delle norme giuridiche, mostrando una netta insofferenza per le incertezze del giudizio umano[138]. Oggi, come si è visto, l’epistemologia giudiziaria si è spinta ben oltre, lanciando sfide inedite che la dottrina, la giurisprudenza e, in primis, il legislatore si trovano oggi costretti ad affrontare.

Non si può negare che la re-ontologizzazione dell’indagato come ente informazionale[139] – essenziale per consentire il funzionamento dei tools sopracitati – comporti la necessità di ridefinire i tradizionali termini del garantismo penale, nell’accezione “allargata” proposta da Ferrajoli quale «modello teorico e normativo di diritto penale in grado di razionalizzare e minimizzare la violenza dell’intervento punitivo vincolandolo – nella previsione legale dei reati, come nel loro accertamento giudiziario – a limiti rigidi imposti a tutela dei diritti della persona»[140]. Tra questi, inevitabilmente, il diritto alla privacy, declinato nella sua massima espressione di diritto al corretto utilizzo dei propri dati personali e al minor sacrificio possibile per il perseguimento degli obiettivi di giustizia penale. Invero, l’Umanesimo digitale passa anche per la giustizia penale ed esige che il progresso tecnologico applicabile alla ricerca e alla valutazione della prova sia quanto prima filtrato dal legislatore, nel suo insostituibile ruolo di regolatore per la minimizzazionedel potere giudiziario. Rivendicare una dimensione digitaledel garantismo penale obbliga a interrogarsi sulla ragionevolezza dell’enorme sacrificio imposto alla privacy dell’imputato da strumenti di indagine come la profilazione e del crime linkage, a fortiori a seguito dell’obbligo europeo di condivisione dei dati personali per la repressione dei reati imposto dalla Direttiva Ue 680/2016.

Molti interrogativi sorgono anche sotto il profilo dei principi Daubert[141], posto che i meccanismi di funzionamento degli algoritmi di crime Analysis sono per lo più coperti dal segreto industriale, rendendo impossibile la verificabilità, la sottoposizione al controllo della comunità scientifica e la precisa determinazione del tasso di errore[142]. Inoltre, assai serio è il rischio di discriminazione sulla base di alcuni dati personali sensibili, tra cui la razza e l’estrazione sociale, evidenziato in innumerevoli studi che la più attenta dottrina americana ha proposto per contrastare il crescente affidamento delle Corti di merito a tools come Compas[143].

Come si è anticipato, il più grande vulnus di simili approcci rimane la mancanza di individualizzazione della decisione, con l’inaccettabile asservimento alla nuda statistica delle peculiarità del caso concreto; il che impone di ridimensionarne il ruolo nell’accertamento giudiziale dei fatti e nella valutazione delle prove. Sembra esserne consapevole anche il legislatore europeo della Direttiva Ue 680/2016 il quale, pur incentivando il ricorso al profiling e ai tools di elaborazione e combinazione di dati in fase di investigazione, si premura di esigere che «una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici negativi o incida significativamente sull’interessato [debba essere] vietata». Unica eccezione è la presenza di un’autorizzazione da parte del diritto dello Stato membro o dell’Unione europea, previa concessione di adeguate tutele per l’interessato, tra cui l’ineliminabile «diritto ad ottenere l’intervento umano da parte di un titolare del trattamento»[144].

Ciò dimostra che, fuori dall’Italia, il dibattito sull’applicazione degli algoritmi al processo penale è ormai giunto ad una fase avanzata, in cui non è più in discussione l’an, bensì il quomodo. Il diritto al giudizio umano così chiaramente scolpito dal legislatore europeo assurge a sintesi di un nuovo garantismo digitale, in grado di restituire all’intime conviction un ruolo probabilmente ridimensionato, ma non totalmente sacrificato sull’altare dell’illusoria ambizione di ottenere l’oggettività nei giudizi tramite il ricorso al calcolo aritmetico.

In conclusione, a dispetto delle apparenze iniziali, l’inesorabile sviluppo della matematica del processo sembra offrire realmente al sistema giudiziario un compendio di algoritmi cognitivi sempre più sofisticati, in grado di supportare– non surrogare – il giudicante nel perseguimento di una maggiore prevedibilità delle decisioni ed eliminazione delle anamorfosi. Al contempo, però, i rischi sottesi all’uso commerciale e all’abuso dei mathematical tools nel processo sono tanto significativi e permeanti da rendere improcrastinabile l’individuazione di criteri per discernere tra algoritmi utili al giudizio e junk science. Compito a cui nessuno, tantomeno il legislatore, può sottrarsi. D’altronde, le colonne d’Ercole sembrano già alle spalle.

[1] P. Calamandrei, Verità e verosimiglianza nel processo civile, in Riv. Dir. Proc. Civ., III, 1955, p. 164, in richiamo a A. Wach, Vorträge über die Reichs-Civilprocessordnung, II ed., A. Marcus, Boan, 1896, p. 226.

[2] F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, in Riv. it. dir. proc. pen., 2009, p. 54.

[3] G. Canzio, Il giudizio di cassazione tra verità e dubbio, in L. Zilletti - E. Rosso (a cura di), Il giudizio di cassazione nel processo penale, Giuffrè, Milano, 2011, pp. 36 ss.

[4] Cfr. C. Zaza, Il ragionevole dubbio nella logica della prova penale, Giuffrè, 2008, p. 50. Come noto, assai raramente il processo conosce casi in cui un conseguente sia univocamente derivabile da un solo antecedente, sicché all’epistemologia giudiziaria viene richiesto di compiere una scelta tra le diverse ipotesi ricostruttive. Non può essere, infatti, revocato in dubbio che gli impulsi retroduttivi che innervano il giudizio «costituiscono il supporto indispensabile» (F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 54) per risalire dal probans noto al probandum ignoto. In particolare, il ragionamento probatorio si caratterizza piercianamente per un ben più articolato compendio di fattori inferenziali: «dall’abduzione, che consente la formulazione di nuove ipotesi, alla contestazione dialettica delle ipotesi stesse, da passaggi deduttivi ad inferenze probabilistiche, dal ricorso alle nozioni del senso comune all’uso di prove scientifiche» (M. Taruffo, Sui confini. Scritti sulla giustizia civile, Il Mulino, Bologna, 2002, pp. 327 ss.). A ben guardare, infatti, la formulazione abduttiva di un’ipotesi è solo il primo degli ingranaggi del meccanismo conoscitivo, improntato alla selezione, tra tutte le possibili spiegazioni casuali, della «inference to the best explanation»idonea a superare la soglia del ragionevole dubbio. Sul punto, ci si limita a limitare a rinviare a H. Putnam, Mind, Language and Reality, Cambridge University Press, Cambridge, 1979 e C. Pizzi, Diritto, abduzione e prova, Giuffrè, Milano, 2009.

[5] G. Capograssi, Giudizio, processo, scienza, verità (1950), in ID, Opere, vol. V, Giuffrè, Milano, 1959, p. 6.

[6] Nemmeno la mera positivizzazione del ragionevole dubbio e l’articolo 497 cpp sembrano, a ben guardare, smentire tale radicato disinteresse. Cfr. chiaramente F. Caprioli, Verità e giustificazione nel processo penale, in Riv. it. Dir. proc. pen., 2013, p. 609.

[7] Cass., Sez. un., sentenza n. 30328/2002, Franzese, in Cass. pen., 2002, pp. 3643 ss.

[8] Sulla probabilità oggettiva si v. A. I. Goldman, Epistemology and Cognition, M.I.T. Press, Cambridge-London, 1986, pp. 312 ss.; G. Shafer, The construction of Probability Arguments, in B.U.L. Rev. 1986, pp. 799 ss., nella trad. It. ID, La costruzione degli argomenti probabilistici, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, Giuffrè, Milano, 2003, p. 275 ss. e C. R. Callen, Notes on A Grand Illusion: Some Limits on the Use of Bayesian Theory in Evidence Law, in Ind. Law Journal, 1982, p. 3.

[9] Uno dei primi autori a parlare di probabilità “soggettiva” è Ramsey, in F.P. Ramsey, Verità e probabilità (1926), in ID, I fondamenti della matematica e altri scritti di logica, trad. it., Feltrinelli, Milano, 1964. Di poco successivo, e autonomo rispetto al precedente inglese, è il contributo di De Finetti, in B. De Finetti, Sul significato soggettivo della probabilità, in Fundamenta Mathematicae, XVII, 1931, pp. 298 ss. Nella stessa direzione anche L.J. Savage, The Fundations of Statistics, John Wiley & Sons, New York, 1954, che però suggerisce l’abbandono dell’ambigua formula “probabilità soggettiva”, in favore di una “probabilità personale”, per altro già chiaramente espressa nella precedente formulazione come personal degree of belief.

[10] Sulla sostanziale equiparabilità sotto il profilo della accezione soggettiva e della stima della probabilità in termini di previsione di eventi futuri o abduzione di eventi passati, v. R. Eggleston, Prova, conclusione probatoria e probabilità, Giuffrè, Milano, 2004, pp. 10 ss. e pp. 315 ss. Si rinvia a quanto si dirà nel paragrafo conclusivo del presente contributo circa l’algoritmo prognostico Compas. Sulla necessità di distinguere la struttura del ragionamento abduttivo da quello deduttivo previsionale, si rinvia a F. Caprioli, Pericolosità sociale e processo penale, in M. Pavarini - L. Stortoni (a cura di), Pericolosità e giustizia penale, Bononia University Press, Bologna, 2013, pp. 21 ss, nel quale si legge che «non si tratta di ricostruire un comportamento umano appartenente al passato ma di prevedere un comportamento umano futuro. Il giudice dunque non ragiona abduttivamente, come fa quando è chiamato a stabilire se l’imputato è innocente o colpevole: non formula ipotesi sulla base delle evidenze a sua disposizione per poi scegliere l’ipotesi migliore, non cerca spiegazioni di fatti del presente (le prove) in fatti del passato. Come ogni ragionamento prognostico, la valutazione di pericolosità sociale ha natura deduttiva: muove dall’antecedente al conseguente, dalla causa all’effetto e non viceversa». Contra M. Taruffo, Sui confini. Scritti sulla giustizia civile, Il Mulino, Bologna, 2001, p. 334.

[11] Trattandosi di un dato difficilmente quantificabile è stato suggerito il ricorso alla cd. “propensione a scommettere” della teoria dei giochi, più avvezzi a gestire gradi soggettivi di convincimento e di valutazione. In questo senso F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 56. Cfr. anche M. Taruffo, La prova dei fatti giuridici, in AA.VV., Trattato di diritto civile e commerciale, III, Giuffrè, Milano, 1992, p. 179, il quale nota come il coinvolgimento della teoria dei giochi e delle scommesse complica estremamente il modello matematico quantitativo, senza fornire per altro alcuna spiegazione soddisfacente sulla modalità di formazione della credenza. In forte critica si esprimono G. Shafer, La costruzione degli argomenti probabilistici, cit., pp. 282 ss. e L. Brilmayer, Prove del secondo ordine e logica bayesiana (1986), trad. it., in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., pp. 221 ss.

[12] M. Taruffo, La prova dei fatti giuridici, cit., p. 169.

[13] Cfr., per un cenno, per esempio J. Cohen - I. Christensen, Information and Choice, Oliver and Boyd, Edimburgo, 1970. M. Taruffo, La prova dei fatti giuridici, cit., p. 168, richiamando D. H. Kaye, Introduzione: che cos’è il bayesianesimo?, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., p. 5, ricorda che ne sono state calcolate fino a sette, senza per altro che si possa dire completo l’elenco.

[14] Così battezzata da Cohen in richiamo a Pascal, cui va il merito di aver superato le ambizioni di certezza della gnoseologia, in favore di una probabilità semplice, intuitiva. Per una ricostruzione della concezione pascaliana, in contrapposizione con quella baconiana, v. G. Licci, La metafora della casualità giuridica, Jovene, Napoli, 2011, pp. 91 ss.

[15] M. Taruffo, La prova dei fatti giuridici, cit., p. 168.

[16] F. Stella, Giustizia e Modernità, Giuffrè, Milano, 2001, pp. 361 ss. Per altro, è proprio sulla sua elaborazione in ambito giudico del paradigma nomologico-deduttivo che un simile orientamento si basa, volgendolo in termini probabilistici sì alti da poter essere paragonati alle leggi universali. Infatti «è possibile enunciare delle conclusioni che sono “quasi certe” o “quasi vere” se le leggi statistiche, impiegate nelle premesse, sono “quasi universali”, perché provviste di un coefficiente percentualistico vicinissimo al 100% dei casi» (Ibidem, 361). 

[17] C. Piergallini, La regola dell’“oltre ogni ragionevole dubbio” al banco di prova di un ordinamento di civil law, in M. Bargis - F. Caprioli (a cura di), Impugnazioni e regole di giudizio nella legge di riforma del 2006, Giappichelli, Torino, 2007, p. 384.

[18] Ex multis, si segnala Cass., Sez. IV, sent. n. 1652/2002, in Riv. it. Dir. proc. pen., 2002, pp. 737 ss., con nota di F. D’Alessandro, La certezza del nesso causale: la lezione ‘antica’ di Carrara e la lezione ‘moderna’ della Corte di cassazione sull’“oltre ogni ragionevole dubbio”.

[19] F. D’Alessandro, Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, in Criminalia, 2012, p. 332.

[20] In questa direzione, per esempio, Cass., Sez. IV, sent. n. 4320/1983, in Foro it., 1986, II, pp. 351 ss. ove si afferma che «quando è in gioco la vita umana anche solo poche probabilità di successo di un immediato o sollecito intervento sono sufficienti, talché sussiste il nesso di causalità quando un siffatto intervento non sia stato possibile a causa dell’incuria colpevole del sanitario che ha visitato il paziente» (Rv. 158947). Similmente si v. anche Cass., Sez. IV, sent. n. 7118/1989, in Cass. pen., 1990, pp. 1278 ss. e Cass., Sez. IV, sent. n. 1846/1991, in Foro it., 1992, pp. 363 ss. Ancor più netto è il distacco dalla concezione quantitativa che si riscontra in Cass., Sez. IV, sent. n. 360/1993, inedita, ove si legge che «sussiste responsabilità del medico che colposamente ometta un intervento chirurgico necessario, quando anche esso non sia tale da garantire in termini di certezza la sopravvivenza del paziente, se vi sia una limitata, purché apprezzabile, probabilità di successo, indipendentemente da una determinazione matematica percentuale di questa» (Rv. 201554).

Per ulteriori riferimenti giurisprudenziali si rinvia a F. D’Alessandro Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, cit., p. 332, nota 2.

[21] Cfr. C. Piergallini, La regola dell’“oltre ogni ragionevole dubbio” al banco di prova di un ordinamento di civil law, cit., p. 388. Per una ricostruzione del dibattito giurisprudenziale in tema di logiche probabilistiche e nesso causale v. L. Masera, La malattia professionale e il diritto penale, in Diritto Penale Contemporaneo online, 10 novembre 2011, pp. 4 ss.

[22] F. D’Alessandro, Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, cit., p. 333.

[23] C. Piergallini, La regola dell’“oltre ogni ragionevole dubbio” al banco di prova di un ordinamento di civil law, cit., p. 390.

[24] Cass., Sez. un., sentenza n. 30328/2002, Franzese, cit. Sul punto, significativo è il monito di Canzio, estensore della sentenza, per il quale «a nessuno, neppure al giudice penale, è consentito dedurre fatti da norme» (così in G. Canzio, La causalità tra diritto e processo penale: un’introduzione, in Cass. pen., 2006, 1978). Cioè, quale che sia il coefficiente percentualistico della legge scientifica, quest’ultima da sola non basta, occorrendo piuttosto ciò che D’Alessandro efficacemente chiama la «prova della concretizzazione della generalizzazione nel caso di specie» (F. D’Alessandro, Spiegazione causale mediante leggi scientifiche, a dieci anni dalla sentenza Franzese, cit., p. 340).

[25] Tra i primi, si v. M. O. Finkelstein - W. B. Fairley, A Bayesian Approach to Identification Evidence, in Harv. L. Rev., 1970, 489 ss.; C. Nesson, Reasonable doubt and Permissive Inference: the Value of Complexity, in Harv. L. Rev., 1979, 1187 ss.; D. Shaviro, Statistical Probability Evidence and the Appearance of Justice, in ibidem, 1989, pp. 530 ss.; R. O. Lempert, Statistics in the Courtroom, in Columbia L. Rev., 1985, pp. 1098 ss.; D. Kaye, Quantifying Probative Value, in B.U.L. Rev., 1985, p. 761; G. Shafer, The construction of Probability Arguments, in ibidem, 1986, pp. 799 ss.; D. A. Nance, A comment on the Supposed Paradoxes of a Mathematical Interpretation of the Logic of Trials, in ibidem, 1986, p. 947 e L. J. Cohen, An Introduction to the Philosophy of Induction and Probability, Oxford University Press, Oxford, 1989.

[26] Su cui, recentemente, A. Forza - R. Rumiati - G. Menegon, Il giudice emotivo. La decisione tra ragione ed emozione, Il Mulino, Bologna, 2017.

[27] Cfr., su tutti, l’analisi sociologica di R.E. Nisbett - L. Ross, L’inferenza umana. Strategie e lacune del giudizio sociale (1980), Il Mulino, Bologna, 1989, spec. pp. 39 ss., pp. 67 ss., pp. 108 ss., pp. 123 ss., pp. 159 ss., ma anche R. Rumiati, Giudizio e decisione. Teorie e applicazioni della psicologia della decisione, Il Mulino, Bologna, 1990, p. 18 e pp. 53 ss., nonché J. Cohen - I. Christensen, Information and Choice, Oliver & Boyd, Edimburgo, 1970, pp. 88 ss. Nel test riportato in W.B. Fairley, Probabilistic Analysis of Identification Evidence, in Journal of Legal Studies, 1973, pp. 494 ss. a una serie di soggetti privi di competenze statistiche viene richiesto di calcolare le probabilità che su 12 gettoni ne venissero estratti almeno 7 verdi dall’urna contenente gettoni al 70% verdi. Dall’esperimento è emersa una vera e propria tendenza a sottostimare, a fronte di una probabilità matematica corretta pari al 97,7%, riscontrandosi percentuali medie tra il 60% e l’80%.

[28] Cfr. G.W. Leibniz, Elementi di diritto perpetuo (1695), in Id, Scritti politici e di diritto naturale, Utet, Torino, 1965. Ibidem, p. 191 si legge quello che potrebbe essere considerato il manifesto fondativo della matematica del processo: «vi è chi nega che il diritto sia una scienza perché non concerne le cose necessarie, ma il “per lo più”, mentre la scienza non si ha che delle cose eterne. Io ritengo che anche i fondamenti del diritto siano eterni, e che anche delle cose che accadono per lo più possa darsi una scienza di eterna verità, quando si venga a conoscere il fondamento di probabilità e il grado di probabilità stessa: come vediamo nelle dimostrazioni che i matematici fanno sul rischio».

Per una pregevole presentazione del contributo di Leibniz si v. I. Hacking, L’emergenza della probabilità. Ricerca filosofica sulle origini delle idee di probabilità, induzione e inferenza statistica, il Saggiatore, Milano, 1987, p. 22, pp. 101 ss., P. Garbolino, Probabilità e logica della prova, Giuffrè, Milano, 2014, pp. 123 ss., nonché Id, Strumenti matematici e informatici per il ragionamento giudiziario: le reti bayesiane, in Cass. Pen., 2007, pp. 326 ss.

[29] Si v. per esempio P.S. De Laplace, Saggio filosofico sulle probabilità (1814), in Id, Opere, Utet, Torino, 1967, pp. 341 ss. Cfr. A. Mura, Introduzione. Per un bayesianesimo critico, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., XII.

[30] L. Ferrajoli, Diritto e ragione. Teoria del garantismo penale, Laterza, Roma, 1991, p. 111.

[31] Cfr. E.M. Catalano, Prova indiziaria, probablistic evidence e modelli matematici di valutazione, in Riv. dir. proc., 1996, pp. 517 ss.

[32] L. Luparìa, Trial by probabilities. Qualche annotazione “eretica”, in M. Cucci - G. Gennari - A. Gentilomo (a cura di), L’uso della prova scientifica nel processo penale, Maggioli Editore, Rimini, 2012, p. 95. Esigenza, questa, che non può non essere considerata dalla concezione qualitativa, nella quale il ricorso alla prova statistica, come si vedrà, si mantiene come utilissimo strumento indirettamente euristico (si v. C. Brusco, Il rapporto di causalità: prassi e orientamenti, Giuffrè, Milano, 2012, pp. 134 ss.).

[33] Il Teorema di Bayes reca il nome del teologo e matematico inglese Thomas Bayes, al quale si deve il primo tentativo di far uso induttivo della probabilità, come riportato in un suo articolo postumo: T. Bayes, Saggio sulla soluzione di un problema della dottrina delle chances (1763), trad. it., in P. Garbolino (a cura di), Sulla probabilità, Librit, Ferrara, 1994. Sulla incidenza della concezione soggettiva della probabilità sulla scuola bayesiana, si v. H.E. Kyburg, Probability theory, Prentice Hall, New York, 1969.

Sembra utile riportare anche la definizione offerta in P. Cherubini, Fallacie nel ragionamento probatorio, in L. De Cataldo Neuburger (a cura di), La prova scientifica nel processo penale, Cedam, Padova, 2007, p. 251, ove si legge che il teorema di Bayes si può designare come «funzione logico-probabilistica che descrive la procedura corretta per revisionare la fiducia verso un’ipotesi alla luce di un insieme di prove».

[34] Si riprendono e si rielaborano i diversi esempi di Mura, riportati in A. Mura, Introduzione. Per un bayesianesimo critico, cit., XV ss. e Id, Teorema di Bayes e valutazione della prova, in G. Ubertis (a cura di), Prospettive interdisciplinari per la giustizia penale, in Cass. Pen., 2004, p. 1809.

[35] In F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 57, nota 25 si riporta un esempio ricorrente nella dottrina sul tema. L’ipotesi che il testimone abbia deposto a sfavore di Caio «perché Caio ha effettivamente ucciso Sempronio» risulta più probabile rispetto all’evenienza di una falsa testimonianza. In tal caso il quoziente di verosimiglianza della testimonianza è maggiore di 1.

[36] Così P. Garbolino, Introduzione, in P. Gärdenfors - B. Hansson - N. E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, Giuffrè, Milano, 1997, XV.

[37] Cfr. A. Mura, Teorema di Bayes e valutazione della prova, cit., p. 1812.

[38] In particolare, una prova si mostra logically relevant solo ove il quoziente sia diverso da 1, rispecchiando pienamente il dettato della Rule 401 della Federal Rule of Evidence statunitense, per la quale «evidence having any tendency to make the existence of any fact that is of consequence to the determination of the action more probable or less probable than it would be whithout the evidence». 

[39] Cfr. P. Garbolino, Introduzione, cit., XIV; R. Eggleston, Prova, conclusione probatoria e probabilità, cit., p. 15 e A. Mura, Teorema di Bayes e valutazione della prova, cit., pp. 1810 ss.

[40] Cfr. M. Black, Induction and Probability, Macmillan Publishing Company Inc, New York, 1984, pp. 117 ss.

[41] Così R.O. Lempert, Modeling Relevance, in Mich. L. Rev., 1977, p. 1031.

[42] Sulla necessità di parlare di ricalcolo e non di correzione di precedenti errori si rinvia a B. De Finetti, Teoria delle probabilità, Einaudi, Torino, 1970, pp. 244 s.

[43] Cfr., ex multis, anche L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, trad. it., in F. Stella (a cura di), I saperi del giudice. La casualità e il ragionevole dubbio, Giuffrè, Milano, 2004, passim, spec. pp. 206 ss.;M. Cohen - E. Nagel, An introduction to Logic and Scientific Method, Brace & World Inc., New York, 1934; C. Scandelari, Sulle argomentazioni probabilistiche in clinica, in U. Vincenti (a cura di), Diritto e clinica. Per l’analisi della discussione del caso, Cedam, Padova, 2000, pp. 84 s.

[44] In A. Mura, Teorema di Bayes e valutazione della prova, cit., 1813 si precisa che risulta totalmente equivalente applicare la formula sequenziale con n prove di volta in volta aggiunte, ovvero utilizzare la formula “statica”:

coinvolgendo in essa tutti i valori P(H|En) in una sola soluzione. Per altro la formula iterativa ivi offerta, si discosta dalla presente, oltre che per l’uso di varianti equivalenti (ibidem, 1811), per l’espressione non in termini percentuali, ma in scala unitaria 0 → 1.

[45] F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 58. È chiaro che l’utilizzo di una scala 0 → 1 non consenta di sforare la soglia limite, corrispondente al grado pieno di convinzione (vale a dire il 100%) della fondatezza dell’accusa H da parte di G. Un numero molto elevato di prove, anche nel caso di forte discordanza, andranno a stabilizzare il quoziente complessivo, non certo ad aumentare ex se la soglia di convincimento. Si prenda ad esempio il caso in cui si disponga di 10 prove (E), cui, per nove di esse, P(H|E1,9) si attesta costantemente al 90%. Ove anche l’ultima evenienza desse come rapporto di Bayes una cifra percentuale pari al 90%, la soglia complessiva (iterativa) rimarrebbe al 90%, rendendo però al tempo stesso statisticamente più attendibile il dato.

[46] D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., p. 204.

[47] Chiaramente, a seconda che la soglia critica sia inclusa entro il margine di dubbio ragionevole o meno si avrà una probabilità soggettiva P richiesta almeno pari o superiore (≥) a P* ovvero esclusivamente superiore (>) a P*.

[48] Ibidem.

[49] L.J. Cohen, Il ruolo del peso probatorio nella prova penale, in P. Tillers - E.D. Green (a cura di), L’inferenza probabilistica nel diritto delle prove. Usi e limiti del bayesianesimo, cit., p. 173.

[50] M. Taruffo, La prova dei fatti giuridici, cit., 170, ove non si condivide pienamente tale entusiasmo.

[51] L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 233. Ivi (ma similmente anche ibidem, pp. 385 ss.) si legge che, anche fissando una soglia apparentemente molto alta di probabilità richiesta ai di superare il ragionevole dubbio come il 95%, si lascia comunque un margine di dubbio misurabile nel 5% (0,05 nella scala 0 →1). Ebbene, Tribe sostiene che «ci sia qualcosa di intimamente immorale nel condannare un uomo definendolo un criminale, dicendo a se stessi “credo che ci sia la probabilità di uno a venti che questo accusato sia innocente, ma sono disposto a correre il rischio di 1/20 di sacrificarlo erroneamente, nell’interesse della sicurezza pubblica e mia personale”». Forse, più propriamente, Tribe giudica “immorale” fissare una soglia una volta per tutte di dubbio ragionevole, che significa ammettere una certa soglia di rischio di condannare un innocente. È sicuramente un argomento persuasivo, generalmente condivisibile, ma non valido per ritenere a contrario moralmente corretta la concezione qualitativa, che tra i tanti pregi, non può certo vantare un superamento totale di questo rischio.

[52] Cfr. F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 59.

[53] L.J. Cohen, Il ruolo del peso probatorio nella prova penale, cit., p. 177.

[54] Come si legge ibidem, 173, «il criterio di prova richiede […] un elevato grado di probabilità assoluta, piuttosto che un elevato livello di probabilità subordinata», ove la prima corrisponde fondamentalmente all’esito della valutazione di un dato probatorio non carente, e la seconda risulta, pur in coerenza con gli assiomi probabilistici, scarsamente affidabile. Si tratta di una differenza fondamentale, dalle evidenti implicazioni sotto il profilo epistemico e dell’obbligo di motivazione. Per coglierne la portata è sufficiente riportare l’esempio con cui Cohen presenta la differenza tra probabilità assoluta e subordinata, con la deduzione intuitiva dei chiari rischi sul piano processuale che la valutazione di attendibilità della seconda, se confusa con la prima, comporta. Ibidem, pp.177s s. si legge: «S’immagini una lotteria con tanti biglietti quanto si vuole e con un solo biglietto vincente. Allora la proposizione che Tizio non è il vincitore può avere, sulla base delle informazioni disponibili in merito al numero totale dei biglietti che partecipano all’estrazione, una possibilità subordinata grande a piacere. Ma sarebbe certamente sciocco inferire un’altissima probabilità assoluta che il biglietto di Tizio non è il biglietto vincente. Si avrebbe qualche ragione per dubitare della validità di tale inferenza sino a quando non si sapesse che la lotteria è stata condotta equamente. Per esempio, se fosse un fatto che Tizio è un bandito e che i suoi compagni armati controllano l’estrazione, questo fatto farebbe parte della totalità dei fatti che una persona ragionevole può ritenere pertinenti alla conclusione. Di conseguenza, la probabilità della conclusione sulla base di questa totalità di fatti sarebbe di parecchio inferiore alla probabilità sulla base delle prove che erano originariamente disponibili».

[55] M. Taruffo, La prova dei fatti giuridici, cit., pp. 222 ss., nota 13.

[56] Cfr. D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, cit., pp. 206 ss.

[57] F. Caprioli, voce “Condanna” (dir. proc. pen.), in Enc. Dir., Annali, v. II, t. I, Giuffrè, Milano, 2008, p. 117, nota 137.

[58] D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, cit., p. 210.

[59] Cfr. D. Lindley - R. Eggleston, The Problem of Missing Evidence, in Law Q. Review, 1983, p. 86.

[60] In D.H. Kaye, Abbiamo bisogno d’un calcolo del peso probatorio?, cit., 220 si rinviene una certa fiducia, critica e non certo bieca, nelle potenzialità delle basi probabilistiche del giudizio. Kaye infatti scrive: «Sebbene sia possibile che tutti i tentativi di spiegare le basi logiche o empiriche della probabilità soggettive giustificabili siano destinati a fallire, ritengo che sia troppo presto per abbandonare questa linea di ricerca. Pertanto, il messaggio che ho cercato di comunicare nella polemica con Cohen non è che la sua teoria è falsa, ma che la sua campagna contro le teorie che impiegano probabilità numeriche per analizzare il giudizio di merito nel procedimento giudiziario deve ancora aggiudicarsi una vittoria decisiva. Tali teorie hanno ormai una sufficiente ricchezza da produrre comprensione del diritto delle prove, ed esse sono suscettibili d’ulteriore raffinamento e integrazione».

[61] M. Taruffo, La prova dei fatti giuridici, cit., p. 222. Cfr. anche F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 60.

[62] Cfr. G. Shafer, A Mathematical Theory of Evidence, Princeton University Press, Princeton-London, 1976, pp. 22 ss., ma anche, in ambito civilistico, R. J. Allen, A Reconceptualization of Civil Trial, in B.U.L.  Rev., 1986, p. 24, pp. 37 ss.

[63] M. Taruffo, La prova dei fatti giuridici, cit., p. 264.

[64] Se così non fosse, si aprirebbero scenari inediti, in cui, così come per condannare occorrerebbe una P(H|E) ≥ P*, per assolvere si pretenderebbe una P(H|E) ≤ Pf*, aprendo un varco intermedio tra Pf* e P* dove non potrebbe che concludersi con un non liquet poiché l’ipotesi accusatoria non risulta né vera né falsa. Un limbo euristico (quello rappresentato da Pf* ≤ P(H|E) ≤ P*)che, naturalmente, tutti gli ordinamenti processuali scongiurano, privilegiando ora la presunzione di innocenza, ora quella di colpevolezza, o ancora ricorrendo al principio di onere della prova nel processo civile, per colmare comunque la distanza rispetto alla soglia critica, evitando l’impasse.

[65] Cfr., ex multis, D. H. Kaye, Introduzione: che cos’è il bayesianesimo?, cit., 7 ss. e R. Rumiati, Giudizio e decisione. Teorie e applicazioni della psicologia della decisione, cit., 32 ss.

[66] M. Taruffo, La prova dei fatti giuridici, cit., p. 175.

[67] Il costo della precisione obbliga ad escludere dal calcolo bayesiano prior probabilities non fondate su basi oggettive, poiché non avrebbe senso alcuno architettare una struttura logica con componenti e linguaggi matematici, se poi il calcolo consequenziale non è fondato su basi quantitativamente affidabili (cfr. C.R. Callen, Notes on A Grand Illusion: Some Limits on the Use of Bayesian Theory in Evidence Law, cit., 4). Almeno in una concezione quantitativa, non sarebbe ammissibile il ricorso a dati probabilistici non oggettivi, ma prefissati sulla base di valutazioni soggettive intrinsecamente imprecise come ritenere che circa «il 90% dei testimoni che arrossiscono mente» (ibidem, p. 176).

[68] Significativo può essere l’esempio offerto J.F. Beltràn, La valutazione razionale della prova, Giuffrè, Milano, 2012, p. 110 per spiegare questo fenomeno. Ove sia necessario accertare se ad avere ucciso la vittima sia stato il fratello, il ricorso alle prove statistiche richiederebbe per esempio che si conosca la frequenza con cui gli uomini uccidono le proprie sorelle. Ma ciò non basterebbe. Si cerca allora di affinare il dato, cercando di conoscere la frequenza con cui uomini scapoli come l’imputato uccidano le proprie sorelle. E, ancora, quanti uomini scapoli, ultrasessantenni, uccidono le proprie sorelle. Ma è chiaro che, per quanto più fine il dato non è idoneo a cogliere il caso concreto. E le domande potrebbero proseguire all’infinito ambendo, al più, a cogliere con quanta probabilità, data la normalità dell’accadere, un imputato con le caratteristiche simili a quelle del caso de quo ha ucciso la vittima, ma mai il dato sarà pienamente trasponibile sul singolo individuo coinvolto, perché la statistica opera in termini generali per definizione. Ciò che «alla fine è fondamentale – scrive De Finetti – è avere come punto di partenza le probabilità iniziali degli eventi reali, senza che rilevi il modo in cui sono state valutate» (B. De Finetti, Inicial probabilities. a prerequisite for any valid induction, in Synthese, 1969, p. 14).

[69] Smith v. Rapid Transit, Inc., 317 Mass. 470, 58 N. E. 2d, 754.

[70] L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 195, spec. nota 37, in riferimento al caso giudiziario del 1945 Smith v. Rapid Transit, Inc., 317 Mass. 469, 58 N. E. 2d, 754. L’eco di questo esempio ha generato un ampio dibattito sia in ambiente statistico che giuridico. In relazione a quest’ultimo si segnala C. Nesson, The Evidence or the Event? On Judicial Proof and the Acceptability of Verdicts, in Harv. L. Rev., 1985, pp. 1379 ss. e C.R. Callen, Adjudication and the Appearance of Statistical Evidence, in Tul. L. Rev., 1991, pp. 459 ss.

[71] Cfr. E.M. Catalano, Prova indiziaria, probablistic evidence e modelli matematici di valutazione, cit., pp. 526 ss.

[72] È proprio da questa valutazione che emerge, come si vedrà meglio in seguito, l’esigenza di adottare un modello di probabilità logica, in cui non rileva solo il dato statistico, ma anche ulteriori aspetti come, ad esempio, il grado di manutenzione. Sicché, ove la compagnia B non avesse provveduto a revisionare il sistema di frenata, il cui eventuale malfunzionamento è in grado di spiegare l’evento dannoso, la probabilità cambierebbe qualitativamente in modo ampiamente significativo. Cfr. J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 111. Chiaramente, una questione ancora diversa, ma altrettanto pregnante, è quella relativa alla precisione della classe di riferimento, poiché se si considera il dato fornito a livello di un’intera città, la frequenza potrebbe essere totalmente diversa in una determinata via, o ancora in una determinata via a una determinata ora.

[73] M. Taruffo, La prova dei fatti giuridici, cit., p. 178. Certo il discorso cambierebbe radicalmente se da ‘meno frequente’ si passa a ‘impossibile’, mentre un grado di frequenza bassissimo, per esempio un caso su mille, non dovrebbe alterare, almeno rigoristicamente, la valutazione.

[74] Così Smith v. Rapid Transit, Inc., cit., nella traduzione offerta in L. H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 195, nota 37.

[75] Esempio proposto da L.J. Cohen, The Probable and the Provable, cit., p. 75, e ampiamente richiamato in dottrina. Si v. D.H. Kaye, The Paradox of the Gatecrasher and Other Stories, in Ariz. St. Law Journal, 1979, pp. 101 ss.; S.E. Fienberg, Gatecrasher, Blue Buses, and the Bayesian Representation of Legal Evidence, in B.U.L. Rev., 1986, pp. 693 ss. e B. V. Frosini, Le prove statistiche nel processo civile e penale, Giuffrè, Milano, 2002,  pp. 66 ss.

[76] Ragionare in termini di quantificazione delle probabilità, si è talvolta detto, consente di minimizzare il numero di errori nella ricostruzione dei fatti rilevanti (cfr., in relazione al processo civile, R. J. Allen, A Reconceptualization of Civil Trial, cit., 50 ss., ripreso in L. Brilmayer, Prove del secondo ordine e logica bayesiana, cit., p. 226 e N. J. Castellan (a cura di), Individual and Group Decision Making: Current Issues, Lawrence Erlbaum, Hillsdale, 1993, pp. 142 ss.). Se si ragiona in questi termini, nel caso di specie si dovrebbe ammettere che negare la responsabilità dello spettatore individuato e presunto non pagante sulla base del dato statistico espone a 501 possibilità di errore, contro 499 possibilità assumere una decisione priva di errori. La logica propenderebbe per cogliere questo rischio maggiore, accogliendo la domanda dell’organizzatore dello spettacolo per evitare di correre un rischio di errore più altro di quello di assenza di errori. Nel caso degli autobus, dove le percentuali sono più nette a sfavore della compagnia A e a favore della compagnia B, ciò appare ancora più fulgidamente.  Tuttavia, non si potrebbe ritenere giustificata una decisione che si basi solo su una probabilità di frequenza per la riduzione dell’errore. Si tratta, a ben guardare, di un azzardo in cui si conosce la frequenza dell’esito su cui scommettere, ma non si dice nulla sul piano specifico del caso de quo. Dalla probabilità di frequenza (“51 spettatori su 100 non hanno pagato il biglietto”) occorre passare a ciò che Ferrer Beltràn (in J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 99) chiama la “probabilità di proposizione”, cioè l’effettiva probabilità il soggetto in questione afferisca o meno a quella maggioranza di spettatori inadempienti, per la quale il solo dato statistico si mostra, sempre e inevitabilmente, insufficiente. 

[77] Parimenti, a nulla servirebbe sapere che il 98% dell’eroina presente sul suolo statunitense è importata illegalmente per avere integrata la fattispecie penale di occultamento di sostanza stupefacente illegalmente importata, se non operando una presunzione di colpevolezza. Si tratta di un altro esempio presentato in L. H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., p. 194, riferito al caso Turner v. United States, 396, U. S. 398 (1970). Invero, in questo caso la giuria fu istruita nel senso di tenere conto del dato statistico come vera e propria prova dell’importazione illegale, risultando improbabile che si realizzi il 2% di possibilità che l’eroina fosse importata illegalmente e, quindi, condannando l’imputato per la presunzione di importazione illegale secondo l’id quod plerumque accidit. Cfr. anche Learvy v. United States, 395 U. S. 6 (1969). Innumerevoli le critiche alla sterilità di una simile valenza probatoria della statistica, tra cui si v. R.D. Mosher, Statutory Criminal Presumptions: Reconciling the Pratical with the Sacrosant, in U. of Cal. L. Rev., 1970, pp. 157 ss.

[78] J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 106.

[79] Cfr. F. Schauer, Profiles, Probabilities and Stereotypes, Harvard University Press, Cambridge, 2003, pp. 101 ss. e il ben più risalente H. Reichenbach, The Theory of Probability. An Inquiry into the Logical and the mathematical Foundations of the Calculus of Probability (1949), II ed., University of California Press, Berkeley, 1971, pp. 465 ss.

[80] J. Ferrer Beltràn, La valutazione razionale della prova, cit., p. 109 (corsivo aggiunto).

[81] A. Stein, Foundations of Evidence Law, Oxford University Press, Oxford, 2005, pp. 84 ss. e L.J. Cohen, Twelve Questions about Keynes’s Concept of Weight, in British Journal of Philosphy of Science, 1985, pp. 265 ss.

[82] Sembra utile il richiamo al caso R. v. Sally Clark, 2003 Ewca Crim 1020, in cui una donna era stata accusata della morte di entrambi i figli all’età di poche settimane, dopo che la morte del secondo figlio per la stessa sindrome che si pensava avesse ucciso il primogenito (la cd. Sids, «sindrome di morte improvvisa del lattante»), rese altamente improbabile credere razionalmente all’ipotesi di una tragica fatalità. Dall’expert testimony emerse un dato statistico circa la probabilità di morte per Sids di due fratelli pari a 1 caso su 73.000.000. Un’ipotesi troppo remota per consentire alla difesa dell’imputata di coltivare il ragionevole dubbio circa spiegazioni causali alternative al duplice omicidio. Ciò a cui si assiste nel caso Sally Clark è l’associazione di eventi presumibilmente connessi tra loro dall’ipotesi accusatoria, tralasciando invece la possibilità che la correlazione operi, per esempio, su un piano di predisposizione congenita (su questo specifico punto si v. P. Cherubini, Fallacie nel ragionamento probatorio, in L. De Cataldo Neuburger, La prova scientifica nel processo penale, cit., pp. 278 ss., spec. nota 28). Presupposto per la congiunzione di dati probabilistici è l’indipendenza logica dei fatti (A e B) coinvolti, sostenuta dal perito, per il quale al verificarsi dell’uno si sarebbe potuto non verificare il secondo, senza la causa esterna idonea a spiegare entrambi, prima singolarmente poi nel loro insieme (come la predisposizione genetica). Sicché, la probabilità combinata dell’evento «morte per Sids» di un infante, pari a 1/8543, con la stessa possibilità per il secondogenito (1/8543 1/8543), rende estremamente improbabile su un piano strettamente statistico che la stessa madre subisca la perdita di entrambi i figli per una sindrome tanto rara (la cui morte per altro non comporta segni molto differenti dal soffocamento meccanico). Tanto è bastato per ritenere l’imputata colpevole oltre ogni ragionevole dubbio. Come fa notate Cherubini, «la concomitanza di Sids in due bambini di una stessa madre era percepita come “troppo improbabile per essere fortuita”, ma non lo era affatto: non avrebbe dovuto creare nessuna ipotesi di non-indipendenza» (P. Cherubini, Fallacie nel ragionamento probatorio, cit., p. 278) dando luogo alla cd. proescutor’s fallancy, con la maldestra trasposizione della probabilità condizionata sul terreno dell’ipotesi accusatoria. Generata l’ipotesi di associazione, a catena conseguirono gli errori di valutazione, costantemente rinvigoriti dal ruolo probatorio quasi esclusivo attribuito al dato statistico e da una certa “tendenza alla conferma” dell’ipotesi accusatoria vista la netta preponderanza probabilistica. Ciò che si verifica è, invero, una tautologia probatoria, perché, in assenza di altre prove, il giudizio di condanna appare sfornito di quelle prove individualizzate legate al caso di specie, relative, per esempio, all’eventuale origine congenita delle Sids nei soggetti coinvolti. Utilizzare le stesse evidenze per generare un’ipotesi e, successivamente, per confermarla è chiaramente un’abduzione tautologica (sul punto, ibidem, p. 279, nota 29), priva cioè delle conferme deduttive e induttive tipiche del metodo pierciano. L’imputata era stata condannata sulla base di una evidenza che John Klotter chiama “circostanziale”, ovverosia una prova «from which a fact is reasonably inferred but not directly proven» (J.C. Klotter, Criminal Evidence, Anderson Publishing, Cincinatti, 1992, p. 68), la quale espone a un elevatissimo rischio di errore e si traduce in una logica di scommessa in cui il rischio di errore è di 1/73.000.000. Ciò che più stupisce è che non si sia tentato minimamente di arginare questo rischio, ricercando «almeno un indizio supplementare e indipendente per l’ipotesi dell’infanticidio» (C. Pizzi, Diritto, abduzione e prova, cit., p. 148). Solo in un secondo momento, attraverso l’esecuzione di tests microbiologici (con funzione di controprova) che confermarono la pur improbabile tesi della morte naturale, emerse l’inadeguatezza di un’inferenza meramente statistica e non “individualizzata” a superare la soglia del ragionevole dubbio. Riemergono, a questo punto, le obiezioni al bayesianesimo già esposte supra circa il rischio di indifferenza alla completezza probatoria e, soprattutto, la quantificazione del ragionevole dubbio, posto che, qualsiasi valore numerico si possa individuare, una probabilità di non colpevolezza pari a 1 su 73.000.000 verrebbe quasi sicuramente ritenuta idonea a suffragare una condanna oltre ogni ragionevole dubbio. Per una ricostruzione completa del caso, anche dal punto di vista degli errori di associazione di eventi non indipendenti come la morte per sindrome congenita, si v. almeno L. Schneps - C. Colmez, Math error number 1: multiplying non-independant probabilities. The Case of Sally Clark, in Id, Math on trial. How Numbers get Used and Abused in the Courtroom, Basic Book, New York, 2013, pp. 3 ss.

[83] Tribe confida di non sentirsi «ancora pronto a dire che i costi legati alla precisione matematica […] siamo così ingenti da superare qualsiasi profitto che possa derivare da un uso attentamente limitato della prova probabilistica in circostanze speciali; tuttavia credo proprio che quelle circostanze debbano essere straordinarie davvero perché chi propone come prova i metodi matematici riesca perlomeno a imbastire un caso plausibile» (L.H. Tribe, Processo e matematica: precisione e rituale nel procedimento giudiziario, cit., pp. 237 ss.). Assai più tranchant Michele Taruffo, che chiosa sostenendo l’“antieconomicità” del bayesianesimo (M. Taruffo, La prova dei fatti giuridici, cit., pp. 180 ss.).

[84] Così P. Garbolino, Introduzione, cit., IX.

[85] Sul punto, la letteratura svedese è vasta. Tra i pochi testi tradotti in lingua italiana si segnala P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., che raccoglie una serie di saggi particolarmente significativi anche perché non perfettamente unanimi tra loro. Essa risale comunque a una serie di contributi di Ekelöf ed Edman, in parte presenti nel testo di cui sopra, oltre ai quali segnala, in lingua inglese, M. Edman, Adding independnet pieces of evidence , in S. Hallén, Modality, Morality and Other Problems of Sense and Nonsense, Gleerup, Lund, 1973 e P. O. Ekelöf, Free evaluation of Evidence, in Scandinavian Studies in Law, 1964, pp. 5 ss., tradotto in italiano in Id, La libera valutazione delle prove, in Studi in onore di A. Segni, Giuffrè, Milano, 1973, pp. 93 ss.

[86] Sul punto, si v. P.O. Ekelöf, Le mie riflessioni sul valore probatorio, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., pp. 1 ss.

[87] P. Garbolino, Introduzione, cit., X.

[88] R.W. Goldsmith, La valutazione della prova nel giudizio penale, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., p. 118. Alla luce di questa constatazione, si può constatare che, a differenza dell’Evm, il modello bayesiano «prende in considerazione prove ed altri tipi di informazione semplicemente in quanto influenzino la probabilità del tema, e non in quanto abbiano una relazione probatoria con il tema» (ibidem, p. 120).

[89] A.N.S. Freeling - N.E. Sahlin, La combinazione delle prove, in ibidem, pp. 60 ss. su cui torna, nello stesso volume, M. Edman, La combinazione di prove indipendenti, cit., pp. 141 ss.

[90] È il dato, ineliminabile, del cd. “margine di errore”, che viene preso in considerazione in tutte le misurazioni empiriche o numeriche attraverso il simbolo ‘±’ raffigurante il range numerico di sensibilità dell’apparecchio di misurazione sull’esito. Tanto maggiore è il grado di precisione richiesto (si pensi alle misurazioni dell’infinitamente piccolo), tanto maggiore è l’incisività di questo margine. In una realtà come quella processuale, specie in un approccio quantitativo in cui il ragionevole dubbio è fissato in un valore numerico, non tenere in considerazione il margine di errore (che può far apparire leggermente più alto o leggermente più basso il dato misurato) può avere conseguenze devastanti.

[91] A.N.S. Freeling - N.E. Sahlin, La combinazione delle prove, cit., p. 60.

[92] Ibidem, p. 121. Per altro, ed è un dato che Goldman saluta con estremo favore nel raffronto con il modello bayesiano, il più recente modello del valore probatorio esige solamente che almeno una delle prove abbia un valore in grado di sostenere il tema oltre la soglia del ragionevole dubbio, a nulla valendo nel calcolo del peso le prior probabilities P(H) che consentono al giudice di operare la valutazione di fatto computando un pregiudizio, ammesso che sia determinabile. Invero, appare ancora frequente in talune formulazioni dell’Evm, come quella offerta in A.N.S. Freeling - N. E. Sahlin, La combinazione delle prove, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., 59 ss., ritrovare il ricorso alle prior probabilities, esponendo così anche l’Evm alle medesime critiche del bayesianesimo cui si è fatto cenno, anche sotto questo profilo, nel paragrafo precedente. È chiaro che non è sufficiente ipotizzare che i dati probabilistici iniziali siano il frutto di una comune esperienza, come sostiene Ekelöf (P.O. Ekelöf, Le mie riflessioni sul valore probatorio, pp. 17 ss.), per arginare il rischio che essi risultino assai di rado nella disponibilità del giudicante. L’unico elemento che consente di utilizzare queste probabilities è la loro determinatezza secondo leggi statistiche; volgerle in termini sommari cioè «frequenze statistiche fittizie» che si presentano piuttosto come «rozze generalizzazioni», sicché, senza la precisa determinazione quantitativa, «nessun calcolo può funzionare producendo risultati numerici» (così si esprime, criticamente, M. Taruffo, La prova dei fatti giuridici, cit., p. 184).

[93] M. Taruffo, La prova dei fatti giuridici, cit., p. 184.

[94] Per un’accesa critica, si. v. M. Huber, Das Beweismass und Zivilprozess, Carl Heymanns, Köln, 1983, p. 114.

[95] Cfr. P.O.Ekelöf, Le mie riflessioni sul valore probatorio, cit., p. 8). Ibidem, p. 5, nota 9 l’autore propone un raffronto dei tre gradi di conferma intermedi (“plausibile”, “probabile” e “confermato”) con i tre gradi di prova presenti nell’ordinamento processuale americano (e non solo) della “netta preponderanza delle prove”, tipica del processo civile, della “prova chiara e convincente” e della prova “oltre ogni ragionevole dubbio”, con i quali vi sarebbe molto in comune. Il raffronto emerge ancora più efficace se si riprende un’interessante proposta di McBain di sostituire queste ultime espressioni con formule più intuitive, come “probabile”, “altamente probabile” e “quasi certo”, (J.P. Mcbain, Burden of Proof: Degrees of Belief, in California Law Review, 1944, pp. 243 ss.), sicuramente adatti anche a questa proposta classificatoria di Ekelöf.

[96] A onor del vero, la Suprema Corte di Cassazione ha talvolta dimostrato di cogliere e accettare il rischio di errore sotteso al test del Dna perché trascurabile. Da ultimo, in Cass. pen., sez. V, sentenza n. 36090/2015 si legge che «la valenza processuale dell’indagine genetica condotta sul Dna, atteso l’elevatissimo numero di ricorrenze statistiche confermative, [è] tale da rendere infinitesimale la possibilità di un errore» (pp. 35 ss.).

[97] M. Taruffo, La prova dei fatti giuridici, cit., p. 190.

[98] G. Shafer, A Mathematical Theory of Evidence, cit., passim. Per una rassegna critica si v. I. Levi, Consonanze, dissonanze e meccanismi probatori, in P. Gärdenfors - B. Hansson - N.E. Sahlin (a cura di), La teoria del valore probatorio. Aspetti filosofici, giuridici e psicologici, cit., pp. 24 ss.

[99] Solo per un esempio, si v. R. Bender, Das Beweismass, in AA.VV., Festschr. für F. Baur, Mohr Siebeck, Tübingen, 1981, pp. 247 ss.; R. Bender - S. Röder - A. Nack, Tatsafeststellung vor Gericht, I, Gläubwürdigkeits und Beweislast, Vernehmungslehre, München 1983, pp. 190 ss.

[100] Specialmente R. Bender - S. Röder - A. Nack, Tatsafeststellung vor Gericht, cit., pp. 191 ss.

[101] È di tale avviso R. Schreiber, Theorie des Beweiswertes für  Beweismittel im Zivilprozess, Springer, Berlin, 1968, criticato con argomenti  simili a quelli proposti contro la naked statistic evdence, in M. Huber, Das Beweismass und Zivilprozess, cit., pp. 67 ss. e pp. 89 ss. Risulta però difficilmente negabile che, nella libera valutazione della prova, un simile dato non può che avere un’influenza piuttosto significativa, se non decisiva. E non dovrebbe sembrare mal motivata la sentenza che giustifichi il giudizio di inattendibilità della testimonianza sulla base di un dato di pregressa tendenza a mentire in ambiti giudiziari. Ma è chiaro che non potrà risultare l’unico elemento, perché se è vero che si tratta di tendenza è anche vero esiste un’ipotesi non necessariamente irragionevole che ciò non accada nel caso di specie e che impone al giudice una completa giustificazione (ancorché sommariamente esposta).

[102] Sul punto v. anche M. Taruffo, Senso comune, esperienza e scienza nel ragionamento del giudice, in Id, Sui Confini. Scritti sulla giustizia civile, cit., pp. 140 ss. e G. Tuzet, Filosofia della prova giuridica, Giappichelli, Torino, 2013, p. 188.

[103] R. Eggleston, Prova, conclusione probatoria e probabilità, cit., p. 45.

[104] Il riferimento è a F. Schauer, Profiles, Probabilities and Stereotypes, cit., pp. 79 ss. Una posizione simile è anche quella espressa in D. Shaviro, Statistical Probability Evidence and the Appereance of Justice, cit.,pp.  530 ss., ripresa J. J. Koehler - D. Shaviro, Verdical Verdicts: Increasing Verdict Accuracy Through the Use of Overtly Probabilistic Evidence and Methods, cit., pp. 247 ss. e aspramente criticata da Callen in C.R. Callen, Adjudication and the Appearance of Statistical Evidence, cit., pp. 459 ss.

[105] B.V. Frosini, Le prove statistiche nel processo civile e penale, cit., p. 65.

[106] Forse il caso più significativo, e interessante banco di prova per le concezioni quantitative, è quello relativo alla prova della discriminazione sul posto di lavoro, che l’articolo 4 comma 6 della legge 10 aprile 1991, n. 125 consente di esprimere anche in forma statistica (il lavoratore può fornire elementi «anche fondati su dati statistici»), al fine di ottenere l’inversione dell’onere probatorio sulla base di una semplice prevalenza statistica che faccia pensare alla discriminazione.

[107] Così, nella dottrina italiana, ex multis,M. Taruffo, La prova del nesso causale, cit., p. 108; F. Stella, Giustizia e modernità, cit., pp. 296 ss.; B.V. Frosini, Le prove statistiche nel processo civile e penale, cit., p. 39. Anche la dottrina inglese giunge a una simile conclusione; si v. in particolare D. H. Kaye - D.A. Freedman, Reference Guide on Statistics, in AA.VV., Reference Manual on Scientific Evidence, National Academy of Science, Washington, 2011, pp. 94 ss.

[108] G. Licci, Figure del diritto penale: Il sistema italiano, Giappichelli, Torino, 2013, p. 311. Non mancano, tuttavia, pronunce di segno contrario. In tema di accertamento dell’età anagrafica del sedicente minore privo di documenti di riconoscimento, per esempio, la Cassazione continua a ritenere sufficiente esami antropometrici (es. esame auxologico) in grado di offrire, su base statistica, un quoziente di verosimiglianza a sostegno della tesi della maggiore età o della minore età sulla base di precedenti osservazioni in soggetti diversi. Il costo di una simile approssimazione è dato da un margine di errore troppo ampio per giustificare una statuizione non fondata su altri riscontri “individualizzati”. Invero, la Cassazione è tranchant e ancora di recente ha confermato che «costituisce strumento idoneo di accertamento dell'età dell'imputato l'esame radiografico del polso o delle ossa carpali del ragazzo in quanto consente di valutare il processo di accrescimento dell'organismo nell'età evolutiva» (Cass., Sez. IV, sent. n. 16946/2015, Rv. 263448). Tra le rare pronunce di merito di segno contrario, ove ci si limita a fare un uso corretto delle prove statistiche senza sacrificare le peculiarità del caso concreto, si v. Trib. Torino, sent. 27 gennaio 2015, accessibile al link www.questionegiustizia.it/doc/Tribunale_Torino_sentenza_27_gennaio_2014.pdf.

[109] Sul punto cfr. F.C. Benenson, Probability, Obiectivity and Evidence, Routledge, London, 1984; D. Kaye, Naked Statistical Evidence, in Yale Law Journal, 1980, p. 603; C.R. Callen, Notes on A Grand Illusion: Some Limits on the Use of Bayesian Theory in Evidence Law, cit., p. 38 e L. Masera, La malattia professionale e il diritto penale, cit., spec. pp. 14 ss.

[110] F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, cit., p. 74. Sembra opportuno riprendere il celebre esempio del “lancio del sasso” usato in R. Carnap, An introduction to the philosophy of science (1974), a cura di M. Gardner, Dover Publications, New York, 1995, pp. 187 ss. per descrivere il ruolo della statistica nell’accertamento causale: «A stone shatters a window. Did the stone intend to do this? Of course not, the scientist will say. A stone is a stone. It posseses no soul capable of intention. On the other hand, most people, even the scientist himself, will not hesitate to say that event b, the breaking of the window, was caused by event a, the collision of the stone with the glass», e questo perché la statistica può segnalare che nella maggior parte dei casi in cui una pietra di determinate dimensioni colpisce un vetro con una certa velocità, questa ne causa la rottura. Sarebbe ragionevole pensare “senza esitazione” che la pietra scagliata verso la finestra abbia effettivamente infranto il vetro, ma non è escluso che un altro idoneo fattore causale sia intervenuto in concomitanza o in precedenza rispetto al lancio del sasso (ad esempio, un’altra pietra scagliata da un diverso soggetto dall’interno dell’abitazione). Il compito della ricerca scientifica e giudiziale non è limitato alla raccolta delle testimonianze dei soggetti che hanno visto, per esempio, un bambino lanciare pietre verso la casa. Il ragionevole dubbio va superato con le logiche dell’“altrimenti”, cioè con quell’atteggiamento, quasi spirituale, di ricerca di spiegazioni possibili (purché ragionevoli) ogni qual volta la certezza raggiunta sia solo “pratica”, cioè fondata su una base statistica, vagamente trasfusa in massime di esperienza, di per sé incompatibile con la prudenza epistemica e lo stesso articolo 533 comma 1 cpp.

[111] Si pensi ai casi in cui sia necessario stabilire quale sia l’effetto dannoso dell’assunzione di un medicinale, conoscendo l’incidenza statistica dell’effetto dannoso entro una classe di popolazione. Nel caso di percentuali significative di osservazione, come per esempio la soglia del 95% indicata da Walzer e Monahan come certezza pratica (L. Walker - J. Monahan, Sampling Evidence at the Crossroad, in S. Cal. Law Review, 2007, pp. 1 ss., accessibile anche su http://ssrn.com/abstract=963204) non sono mancate sentenze che hanno attinto ampiamente al dato statistico, una volta mostrata la sua adeguatezza a dar conto di un certo fenomeno. È quanto accaduto nel c.d. caso McLaughlin vs. Phillip Morris, nel quale il giudice di prime cure ha pronunciato sentenza ricorrendo a una prova per campione di incidenza dei danni verso soggetti fumatori di sigarette light appartenenti alla classe di riferimento (stimati in circa cinquanta milioni), al fine di vagliare la pretesa soggettiva degli appartenenti alla class, alla luce del danno altamente frequente osservato. È chiaro che si tratta pur sempre di una prova statistica per campione, pertanto non sono infondati i dubbi circa la correttezza (rectius, giustificazione) dell’inferenza che ha portato a ritenere provato il nesso causale di un evento pregiudizievole a partire dall’incidenza della causa nei casi simili. Si deve pensare che la prova sia stata suffragata da ulteriori evidenze, anche perché, altrimenti, il ragionevole dubbio che un danno alla salute abbia avuto altre cause (o concause) pare difficilmente superato se si considera ciascun caso concreto. Di diverso avviso sarebbe chi, come Luca Masera, propone di attribuire rilievo pienamente probatorio agli studi epidemiologici, nonostante da essi si possa trarre la ragionevole certezza che una condotta abbia determinato l’insorgenza di una patologia non monocausale, ma non anche la prova “eziologica individualizzante” che la singola patologia di un determinato soggetto sia causalmente riconducibile (come causa o concausa) a quella determinata condotta. Per scongiurare il rischio di un’abdicazione della repressione penale in tema di malattie professionali, a cui tipicamente si riferiscono le prove epidemiologiche, Masera non esclude il ricorso alle approssimazioni statistiche per giustificare una condanna, laddove esse consentano di raggiungere la prova «oltre ogni ragionevole dubbio circa la colpevolezza dell’imputato [nonostante permanga] un dubbio sulla ricostruzione del fatto oggetto di accertamento». In altri termini, «il dubbio sulla condotta costitutiva del reato è compatibile con la condanna, se risulta comunque certo che l’imputato ha commesso il reato contestatogli» (L. Masera, La malattia professionale e il diritto penale, cit., 16, ma si veda anche Id, Accertamento alternativo ed evidenza epidemiologica nel diritto penale. Gestione del dubbio e profili causali, Giuffrè, Milano, 2007 e ID, Epidemiologia e nesso di causalità, in Cass. pen., 2008, p. 445). Invero, tale orientamento, per quanto utilissimo suffragio agli algoritmi decisori fondati su prior probabilities, sconta gli stessi limiti in termini di mancanza di prova individualizzata.

[112] M. Taruffo, La prova dei fatti giuridici, cit., p. 199, nota 196.

[113] Così Cass., Sez. un., 10 luglio 2002, Franzese, cit., pp. 3650 ss.

[114] Sul punto si v. D. Bruni, Love letters. La dimensione soggettiva del senso e la sua omologazione espressiva, in F. Bianchini (a cura di), Imitare la mente. Un dibattito interno alle scienze cognitive, in Disc. Fil., XXI, n. 1, 2011, p. 182, nota 1) in cui si evidenzia la necessità disporre di linguaggi e dati formalizzati, al fine di consentire non solo il calcolo, ma la gestione algoritmica dei calcoli. Se sul piano del formante legislativo, l’introduzione dei codici risponde in parte a queste esigenze di certezza (cfr., su tutti, G. Tarello, Storia della cultura giuridica moderna. Assolutismo e codificazione nel diritto, Il Mulino, Bologna, 1976), sul piano dell’oggetto del giudizio tutti gli sforzi si sono mostrati, finora, sostanzialmente vani. Per una visione marcatamente ottimistica circa l’utilità del calcolatore nell’ambito del giudizio si v., su tutti, il recente C. Bona, Macchine al posto dei giudici, in L. De Cataldo Neuburger, “L’operazione decisoria” da emanazione divina alla prova scientifica. Passando per Rabelais, Cedam, Padova, 2014, pp. 283 ss., spec. p. 286.

[115] F. Carnelutti, Accertamento del reato e favor rei, in Riv. dir. proc., 1961, pp. 337 ss.

[116] A questa impostazione sembra per altro rifarsi lo stesso articolo 533, comma 1 cpp, nella misura in cui si richiede, ai fini della condanna, una netta preponderanza della probabilità di colpevolezza rispetto a quella di non colpevolezza (chiaramente, a patto che non vi siano dubbi ragionevoli circa spiegazioni alternative). E forse questo intendeva dire anche Cordero, cedendo terreno alla concezione quantitativa, quando scriveva che, «se nessun giudizio storico è tale che sia assolutamente impossibile predicare il contrario, il concetto di verità processuale si può ottenere soltanto a prezzo di una determinazione quantitativa sulle probabilità contrarie» (F. Cordero, Note sul procedimento probatorio, in Jus, 1963, p. 45, corsivo aggiunto).

[117] Forse è proprio sulla base di questo obiettivo conclamato che la delusione cresce nel constatare che l’immissione di un qualunque elemento empirico (come una prova testimoniale o documentale) espone ad elevati indici di insuccesso pratico. Proponendosi l’approccio bayesiano come generale modello di funzionamento di un processo decisorio-inferenziale, quindi anche giudiziario, basato su prove di qualsiasi tipo (cfr. M. Taruffo, voce “Prova scientifica” (dir. proc. civ.), in Enc. Dir., Annali, vol. II, t. I, Giuffrè, Milano, 2008, p. 971), ci si aspetterebbe una capacità straordinaria di processare un insieme comprensivo, se non di ogni prova atipica, almeno di quelle tipizzate e maggiormente utilizzate.

[118] È questa anche l’opinione di Grimaldi, che in M. Grimaldi, Al di là di ogni ragionevole dubbio: voce, scienza e legge nella fonetica forense, in www.questionegiustizia.it/articolo/al-di-la-di-ogni-ragionevole-dubbio_voce_scienza-e-legge-nella-fonetica-forense_10-02-2015.php, 10 febbraio 2015, suggerisce il ricorso al teorema di Bayes per la verifica della verosimiglianza dell’appartenenza ad un determinato soggetto di una voce registrata. Ciò che si propone è fornire attraverso uno strumento statistico di raffronto tra diverse probabilità di tipo bayesiano «un ulteriore indizio a favore o sfavore di una certa ipotesi che, come tale, sarà il Giudice, tramite gli atti a sua disposizione il dibattimento, a inquadrare nell’ambito più complesso dell’intero processo».

[119] Si tratta di informazioni fornite dalla stessa società Northpointe Inc. sul proprio sito per presentare il proprio algoritmo (www.northpointeinc.com/files/downloads/FAQ_Document.pdf). Così coniugati dati oggettivi relativi alla storia criminale dell’imputato e risposte fornite dallo stesso imputato, Compas processa tutte le informazioni raccolte suddividendole in 12 sezioni: “Current Charges”, “Criminal History”, “Non-Compliance”, “Family Criminality”, “Peers”, “Substance Abuse”, “Residence/Stability”, “Social Environment”, “Education”, “Vocation”, “Leisure/Recreation”, “Social Isolation”, “Criminal Personality”, “Anger” e “Criminal Attitudes.”

[120] Loomis, 881 N. W. 2d 749 ss. (Wis. 2016), accessibile al link www.wicourts.gov/sc/opinion/DisplayDocument.pdf?content=pdf&seqNo=171690.

[121] State v. Loomis.Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, in Recent cases, Harv. L. Rev., 130, 2017, 1530 (traduzione dell’autore).

[122] Loomis, 881 N. W. 2d, cit., § 15 (traduzione dell’autore).

[123] Ibidem, § 99 (traduzione dell’autore).

[124] State v. Loomis.Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, cit., 1532 (traduzione dell’autore).

[125] J.M. Yatt - S. L. Chanenson - M. H. Bergstrom, Reform in Motion: The Promise and Perils of Incorporating Risk Assessments and Cost-Benefit Analysis into Pennsylvania Sentencing, in Duq. U. Law Rev., 2011, p. 707.

[126] State v. Loomis.Wisconsin Supreme Court Requires Warning Before Use of Algorithmic Risk Assessments in Sentencing, cit., 1535 (traduzione dell’autore).

[127] È proprio sotto quest’ultimo aspetto che viene mossa una delle più dure critiche al COMPAS e alla sentenza della Corte Suprema del Wisconis, la quale ha escluso la contrazione dei diritti di difesa ridimensionando il ruolo effettivamente svolto dagli algoritmi nel processo. Contro tale conclusione si scaglia, tra gli altri, K. Freeman, Algorithmic injustice: how the Wisconsin Supreme Court Failed to protect due process rights in State v. Loomis, in North Carolina Journal of Law & Technology, XVIII, 2016, pp. 75 ss., ove si propone «di trasformare Compas da property algorithm a open-source algorithm che i difensori possano analizzare e utilizzare autonomamente» e di introdurre «un processo di verifica in cui un supervisore esterno alla società effettui costanti controlli sul sistema per garantirne precisione e funzionamento appropriato» (ibidem, 101, traduzione dell’autore).

[128] Tra le più eloquenti è la decisione della Corte Suprema dell’Indiana Malenchik v. State, 928 N.E.2d 564, 574 (Ind.2010) ove si legge che tali algoritmi «enable a sentencing judge to more effectively evaluate and weigh several express statutory sentencing considerations such as criminal history, the likelihood of affirmative response to probation or short term imprisonment, and the character and attitudes indicating that a defendant is unlikely to commit another crime».

[129] Oltre a Compas, si ricordi ancora almeno l’algoritmo HCR-20V3 (Historical Clinical Risk Managment), giunto alla terza versione e adottato, in fase per lo più sperimentale, in oltre trenta paesi. Si v. J. L. Ireland - A. Carol - P. Brich, Violent and sexual offenders, Rutledge, New York, 2018, nonché AA.VV., The HCR-20V3 in Germany, in International Journal of forensic mental health, 2014, pp. 122 ss. e AA.VV., The utility of HCR-20V3 and PCL:SV in the prediction of diversion non compliance and reincarceration in diversion programs, in Criminal Justice and Behaviour, 2012, pp. 475 ss.

[130] Il progetto è accessibile al link www.ucl.ac.uk/news/news-articles/1016/241016-AI-predicts-outcomes-human-rights-trials. Per la presentazione della ricerca da parte degli autori si v. N. Aletras - D. Tsarapatsanis - D. Preoţiuc-Pietro - V. Lampos, Predicting judicial decisions of the European Court of Human Rights: a Natural Language Processing perspective, in PeerJ Computer Science, 2016, p. 2; e p. 93, accessibile su https://doi.org/10.7717/peerj-cs.93.

[131] https://predictice.com/.

[132] Tra le rarissime pronunce si v. Trib. Torino, 23 dicembre 1991, Leonardis, in Cass. pen., 1992, 2212 ss.; Trib. Min. Venezia, 27 novembre 1986, Pasqual c. Doro, in Giur. mer., 1989, 639 (sulla quale si segnala anche la nota di G. Manera, Dichiarazione giudiziale di paternità e decorrenza dell’obbligo di mantenimento. Nuova metodologica per l’accertamento della paternità, in ibidem). Per un esame più approfondito delle sparute pronunce di tribunali italiani in cui ricorre il teorema di Bayes si rinvia a E. M. Catalano, Prova indiziaria, probablistic evidence e modelli matematici di valutazione, cit., pp. 530 ss.

[133] Trib. Milano, sez. gip., sent. 18 giugno 2015, giud. Gennari, accessibile al link www.penalecontemporaneo.it/upload/1445325933Trib_MI_Gennari.pdf.

[134] Cfr. P. Garbolino, Il teorema di Bayes applicato alla prova dattiloscopica trova cittadinanza nel Tribunale di Milano, in Cass. Pen., 2016, pp. 3463 ss. e J. Della Torre, Il “teorema di Bayes” fa capolino al tribunale di Milano, in Diritto Penale Contemporaneo online, p. 2015, www.penalecontemporaneo.it/d/4213-il-teorema-di-bayes-fa-capolino-al-tribunale-di-milano.

[135] www.poliziadistato.it/statics/16/la-chiave-del-crimine.pdf. Tra i pochissimi studi della dottrina, si segnala, ancorché con un approccio economicista, il pregevole G. Mastrobuoni, Crime is terribly revealing: an evaluation predictive policing, University of Essex - Collegio Carlo Alberto, 2017,  https://dx.doi.org/10.2139/ssrn.2989914.

[136] Tra cui, si segnala, l’estrazione sociale, con determinate modalità esecutive della condotta

[137] Sono meritori di nota anche il software G.I.A.N.O.S., sviluppato nel 1993 dall’Associazione bancaria italiana (Abi) per consentire agli istituti bancari l’adempimento dei doveri imposti dalla normativa antiriciclaggio e il software S.O.Cr.A.TE.s., promosso dal Governo italiano per «fornire uno strumento di supporto alle indagini delle forze di polizia e alle decisioni dell’autorità giudiziaria riguardo alle misure cautelari e ai benefici penitenziari» (v. il cursorio comunicato stampa www.giustizia.it/giustizia/it/mg_1_12_1.page?contentId=SPS1195236&previsiousPage=mg_2_3_4_7). Si tratta, anche in questo caso, di un modello di offender e crime profiling,attualmente solo sperimentale e circoscritto agli autori di reati efferati a sfondo sessuale, basato su dati personali, comportamentali, patologici e descrittivi delle modalità esecutive del reato.

[138] J. Frank, Courts on Trial, Princeton University Press, New York, 1949.

[139] Su cui si rinvia a L. Floridi, La quarta rivoluzione. Come l'infosfera sta trasformando il mondo, Cortina Editore, Milano, 2017.

[140] L. Ferrajoli, Cos’è il garantismo, in Criminalia, 2014, p. 130.

[141] Sono ancora perfettamente applicabili anche al profiling e alle nuove tecniche di indagine basate sulla algoritmizzazione del processo le considerazioni di F. Caprioli, La scienza “cattiva maestra”: le insidie della prova scientifica nel processo penale, in Cassazione Penale, 2009, pp. 3520 ss.

[142] Si rinvia a S. Achter - B. Millelstadt - L. Floridi, Why a right to explanation of automated decision-making does not exist in the General Data Protection Regulation, in International Data Privacy Law, 2017. 

[143] Sul punto, magistrale è il contributo di S. B. Starr, Evidence-Based Sentencing and the scientific rationalization of discrimination, in Standford Law Review, 2014, pp. 803 ss.

[144] Articolo 11 della Direttiva Ue 680/2016 (corsivo aggiunto), che ripropone il contenuto dell’articolo 22 del Regolamento Ue 679/2016, di analogo tenore. Tale formulazione richiama il ben più risalente articolo 15 della Direttiva Ce 46/1995.

Fascicolo 4/2018
Editoriale
di Renato Rordorf
Obiettivo 1
Una giustizia (im)prevedibile?
di Andrea Natale
di Paolo Grossi

In questa riflessione, l’Autore ragiona sulla storicità e sulla fattualità del diritto, inseparabilmente intriso degli interessi e dei valori che si agitano nella società. In tale prospettiva, la certezza del diritto – e la sua prevedibilità – possono essere strumentalizzate a fini di conservazione di determinati assetti economici e sociali. L’Autore attraversa varie tappe storiche e individua nell’entrata in vigore della Costituzione repubblicana un passaggio di fase, in cui si riconosce il nesso diritto/società con una impostazione apertamente pluralistica del fenomeno giuridico. Di qui la centralità del ruolo degli interpreti, in approccio continuo coi fatti di vita e di essi percettori

di Enrico Scoditti

La diretta applicazione da parte dei giudici comuni dei principi costituzionali, laddove manchi la disciplina legislativa del caso, solleva interrogativi sul piano della prevedibilità del diritto e del peso degli orientamenti soggettivi di valore, interrogativi riconducibili al più ampio dibattito su democrazia e costituzionalismo. Quando il giudice risolve la controversia mediante il bilanciamento dei principi costituzionali in relazione alle circostanze del caso, o mediante la concretizzazione di clausole generali, si appella al bilanciamento ideale o all’ideale di norma contenuto nella clausola generale. Allo scopo di garantire la sicurezza giuridica, quale elemento fondamentale dello Stato di diritto, deve riconoscersi che, in sede di giurisdizione per principi o per clausole generali, è operante anche nei sistemi di civil law la regola dello stare decisis. Un esempio di diritto del caso concreto, dove trova applicazione la regola della vincolatività del precedente giudiziario, è quello del contratto iniquo e gravemente sbilanciato in danno di una parte.

di Pietro Curzio

Dopo aver posto alcune premesse, l’Autore rileva che è lo stesso ordinamento – nell’attribuire alla Corte di cassazione il compito di assicurare «l’esatta osservanza e l’uniforme interpretazione della legge» – a riconoscere che, di una stessa disposizione possono essere date più interpretazioni; di qui, il rischio di imprevedibilità delle decisioni. L’Autore prende allora in considerazione le «ragioni del cambiamento» e le «ragioni della stabilità», evidenziando come entrambe rispondano ad esigenze di rilievo costituzionale, soffermandosi, infine, sugli strumenti ordinamentali che possono garantire il delicato punto di equilibrio che la giurisdizione deve riuscire ad individuare.

di Donato Castronuovo

L’Autore propone alcune variazioni sul tema della crisi della fattispecie penale, sia sul piano del formante legale sia su quello del formante giurisprudenziale, in relazione, rispettivamente, a clausole generali recate da disposizioni di legge oppure a clausole contenute in regulae iuris di origine giudiziale. Gli effetti prodotti dalle clausole generali sulla accessibilità e prevedibilità delle norme penali sono esaminati, attraverso due esempi, in funzione dell’evoluzione della giurisprudenza sovranazionale e di quella della Corte costituzionale.

di Ombretta Di Giovine

L’Autrice affronta il tema dell’interpretazione penalistica in una prospettiva aperta a saperi esterni, ed evidenzia la difficoltà di distinguere l’interpretazione, analogica, dall’analogia in senso stretto. Avvalendosi del richiamo a pronunce della Corte di cassazione a sezioni unite, cerca di dimostrare come i maggiori rischi di arbitrio si annidino peraltro non tanto nel mancato rispetto del testo (dai confini non previamente definibili), quanto nell’omessa o parziale esplicitazione delle premesse valoriali del ragionamento giuridico. Dichiara infine una cauta apertura verso l’intuizione del giudicante nei soli (seppur sempre più numerosi) casi di “dilemma”, non risolvibili attraverso gli strumenti tradizionali della deliberazione e della razionalità di scopo.

di Carlo Sotis

Queste pagine hanno ad oggetto gli effetti del test di ragionevole prevedibilità della giurisprudenza Cedu sull’art. 7 e si compongono di tre parti. In una prima si riassumono i vari criteri elaborati dalla giurisprudenza della Corte di Strasburgo per effettuare il test. In una seconda si propone una riflessione su luci e su un’ombra proiettate dalla ragionevole prevedibilità convenzionale. In una terza si avanza l’ipotesi che, accanto a quella “classica”, si affaccino due nuove ragionevoli prevedibilità.

di Massimo Donini

Lo studio analizza la tenuta di una possibile sostituzione della fattispecie mediante il case law, escludendo che si tratti di una alternativa possibile, essendo entrambi componenti essenziali del sistema giuridico. Vengono individuate le condizioni del diritto giurisprudenziale legittimo in diritto penale nell’attività di concretizzazione e applicazione della legge ai casi, muovendo da una rinnovata elaborazione del rapporto tra disposizione e norma, fondamentale anche per accertare i procedimenti analogici occulti, per i quali si definisce uno specifico test di verifica nel quadro di una ridefinizione del procedimento analogico in un quadro di teoria generale del diritto, e non solo dei distinti doveri ermeneutici specifici del penalista. La possibilità che il diritto giurisprudenziale legittimo, in parte negli hard cases, approdi all’enucleazione di casi-norma, e non solo a esempi applicativi nuovi o nuove interpretazioni in astratto della legge, produce l’esigenza di una disciplina o considerazione differenziata del parametro della prevedibilità, per l’efficacia retroattiva o solo ex nunc delle nuove evoluzioni o dei mutamenti intervenuti. I distinti momenti di irretroattività oggettiva o di scusabilità soggettiva per le innovazioni imprevedibili sono infine declinati sulla base degli articoli 7 Cedu, 27, co. 1, Cost. e 5 cp. Conclude lo scritto la proposta di sei regole di deontologia ermeneutica penale.

di Maria Giuliana Civinini

L’Autrice affronta la questione del precedente della Corte Europea dei Diritti dell’Uomo sotto il duplice punto di vista della formazione della giurisprudenza della Corte e del vincolo sul giudice nazionale, mettendo in evidenza le particolarità del sistema convenzionale

di Martina Condorelli e Luca Pressacco

Il fenomeno dell’overruling è stato negli ultimi anni oggetto di particolare attenzione da parte della dottrina e della giurisprudenza italiana, anche sulla scorta del ruolo crescente attribuito al “diritto vivente” e degli orientamenti della giurisprudenza europea. Nel presente contributo, gli Autori ripercorrono gli itinerari, specialmente giurisprudenziali, che hanno progressivamente conferito rilievo giuridico al fenomeno dell’overruling. In particolare, vengono analizzati presupposti, limiti ed effetti del revirement giurisprudenziale nei settori amministrativo, civile e penale, per dare conto dei rimedi esperibili al fine di tutelare l’affidamento nell’interpretazione di regole di natura sostanziale o processuale.

di Alberto Giusti

Nell’ambito della riforma attuata dal d.lgs n. 40/2006, il dinamismo nomofilattico esce rafforzato dalla portata del novellato articolo 374, comma 3, cpc. Nel delicato equilibrio tra etica della convinzione ed etica della responsabilità, la riforma attribuisce al rapporto tra sezioni semplici e sezioni unite uno specifico valore complementare, non gerarchico, in grado di prevenire contrasti «inammissibili» attraverso il vincolo di coerenza, per le prime, rispetto al principio di diritto alla base del decisum enunciato dalle seconde – o comunque ricavabile dalla sentenza. Tale sistema è coerente con la possibilità che hanno le sezioni semplici di sollecitare, mediante ordinanza interlocutoria, il mutamento di giurisprudenza, e non pregiudica la loro legittimazione a sollevare dubbi di costituzionalità o di compatibilità con il diritto dell’Ue in merito all’interpretazione resa dalle sezioni unite di detto principio.

Le esperienze dell’ultimo decennio (esplicitate, nell’ultimo paragrafo, da tre esempi significativi, due dei quali hanno portato all’overruling delle sezioni unite) fanno concludere per un bilancio positivo del meccanismo introdotto dalla riforma, quale strumento capace di assicurare una ordinata evoluzione del diritto vivente, nel consapevole equilibrio tra innovazione e coerenza argomentativa e sistematica.

di Giorgio Fidelbo

Il precedente come valore “culturale” e la sua vincolatività (relativa) sono, rispettivamente, la considerazione di fondo e la novità principale della “riforma Orlando” (legge 23 giugno 2017, n. 103). La storica tensione generata dai contrasti giurisprudenziali interni alle sezioni della Suprema corte, moltiplicatrice di decisioni nella sua qualità di giudice di “terza istanza”, sembra attenuarsi con l’introduzione del vincolo del precedente e la rimessione obbligatoria alle sezioni unite (ex articolo 618, comma 1-bis, cpp), laddove il collegio di una sezione semplice non condivida il principio di diritto da quelle enunciato, applicabile al caso oggetto del ricorso. Al di fuori di un ordine gerarchico dei rapporti, tale meccanismo consente all’attività interpretativa delle sezioni semplici di tradursi in un contributo nomofilattico che, nella forma del “dialogo” interno, rafforza in senso unitario l’evoluzione giurisprudenziale, permettendo al sistema – come dimostrano alcune prime esperienze applicative – di rinnovarsi. Il vincolo del precedente e la portata della riforma hanno implicazioni significative in tema di prospective overruling, con un richiamo alle incongruenze che hanno visto le sezioni unite penali e quelle civili divergere in merito all’accezione stessa della legalità – sulla questione, la Consulta (con la sentenza n. 230 del 2012) ha frenato lo slancio delle prime, escludendo un’equiparazione tra la legge e il “diritto vivente”.

di Enzo Vincenti

Il duplice scopo della massimazione (informativo e sistematico) si coniuga, nell’era digitale, con l’obiettivo, perseguito dal legislatore processuale nell’ultimo decennio, di valorizzare il “precedente di legittimità” come criterio e misura della prevedibilità delle decisioni giudiziarie future solo attraverso uno strumento evoluto tecnologicamente che ne consenta la più rapida ed estesa conoscenza, ne organizzi i flussi e, quindi, la renda davvero fruibile. Un tale strumento è rappresentato, anche storicamente, da ItalgiureWeb, la banca dati giuridica nazionale informatizzata del Ced della Corte di cassazione, tramite la quale si è potuta realizzare la più significativa simbiosi tra il contenuto (la giurisprudenza, ma non solo) e il suo veicolo di conoscenza (l’informatica), con funzione servente anche della effettività e trasparenza della giurisdizione.

di Claudio Castelli e Daniela Piana

La giustizia predittiva, di cui già oggi si discute in molti Paesi e che viene presentata come un Giano bifronte, un grande rischio di riduzione ad una gestione automatizzata degli small claims ovvero di una differenziazione delle risposte giudiziarie che ha profili di potenziale discriminazione, è un orizzonte non più soltanto futuribile anche nel nostro Paese. Discuterne, darsi gli strumenti conoscitivi e quindi di governance per potere volgere quella che è una opportunità di cambiamento in una reale condizione di potenziamento della prevedibilità della trasparenza e del coordinamento fra sedi giudiziarie, nel pieno rispetto delle garanzie costituzionali di autonomia del giudice, è una priorità che questo lavoro mette al centro del dibattito della magistratura italiana e di tutti i protagonisti del mondo della giustizia.

di Claudio Costanzi

La progressiva affermazione della prova scientifica nel processo penale come nuova regina probationum ha innescato una lenta, ma inesorabile sollecitazione delle logiche qualitative del ragionamento probabilistico, così come descritte dalla sentenza Franzese. Gli argomenti allora utilizzati per confutare gli sterili e opposti approcci quantitativi all’accertamento del nesso causale si scontrano con i recenti tentativi di applicare la matematica alla valutazione e combinazione delle prove. Dagli Stati Uniti d’America e dalla Scandinavia è giunta l’eco travolgente di raffinate teorie per l’algoritmizzazione del giudizio attraverso la quantificazione della credenza soggettiva in un’ipotesi alla luce delle risultanze istruttorie. Compito del giurista e del legislatore è analizzare tali approcci comprendendone il funzionamento, approntando i necessari strumenti per resistere al rischio di degenerazioni meccanicistiche del ricorso ai big data, senza rinunciare agli indubbi vantaggi che i mathematical tools offrono al processo. Invero, l’attuale diffusione anche su scala europea di applicazioni sperimentali del teorema di Bayes e dell’E.V.M. sta cambiando silenziosamente il ragionamento probatorio, proponendo sfide inimmaginabili fino al decennio scorso.

di Clementina Barbaro

L’uso dell’intelligenza artificiale come strumento di supporto del lavoro degli operatori del diritto e dei tribunali è ancora un fenomeno embrionale in Europa. Tra le diverse soluzioni proposte, suscitano un interesse crescente quelle riguardanti l’analisi e il trattamento della giurisprudenza per ridurre l’alea del giudizio e garantire una maggiore prevedibilità delle decisioni giudiziarie. È necessario, tuttavia, interrogarsi sull’effettività di queste applicazioni, impropriamente qualificate di “giustizia predittiva”, alla luce delle caratteristiche attuali dell’intelligenza artificiale e, in particolare, del machine learning/apprendimento automatico. Il loro impatto sulla professione del magistrato, sulla produzione della giurisprudenza e sulle garanzie dell’equo processo merita inoltre di essere attentamente esaminato.

La Commissione europea sull’efficacia della giustizia (Cepej) ha condotto uno studio approfondito su questi temi e redige attualmente una «Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari», adottata alla sessione plenaria della Cepej del 3-4 dicembre 2018. Primo strumento europeo in materia, la Carta etica enuncia principi sostanziali e metodologici applicabili all’analisi e al trattamento delle decisioni giudiziarie e intende essere un punto di riferimento per l’attività di soggetti privati e pubblici attivi in questo settore, tanto per quanto riguarda lo sviluppo concreto di applicazioni di intelligenza artificiale quanto per l’elaborazione di politiche pubbliche riguardanti l’integrazione di tali applicazioni nel sistema giudiziario.

di Simone Gaboriau

Nel tempo della rivoluzione digitale, l’idea di affidare agli algoritmi una parte consistente del contenzioso in base alla sua “limitata” entità riposa su strategie non sempre trasparenti che eludono la pubblicità e la terzietà connaturate alla funzione giurisdizionale e ai suoi soggetti. Oltre a una risposta alle esigenze di ordine giudiziario e di riduzione dei costi – promossa dal Ministero della giustizia francese – cosa presuppone e quali effetti comporta un’automazione – ancorché parziale – della giustizia?

Ripercorrendo alcune esperienze francesi, le opinioni contrastanti espresse da diverse “voci” ufficiali e collocando il fenomeno in prospettiva storica allargata (compreso un richiamo, in tema di validità dei dispositivi, alle derive applicative generate da una soi-disant “polizia predittiva”), si analizzano le dinamiche strutturali della giustizia digitale guardando ai risultati finora raggiunti e alla natura degli interessi che essa serve. Al netto di considerazioni ideologiche, si ripropone oggi, con inedita urgenza – e indubbia necessità –, la rilevanza dei valori intangibili della giustizia e di una qualità connaturata al magistrato: l’umanità, dalla quale non tanto la tecnologia in sé, quanto le logiche – tutte umane – ad essa sottese sembrano, talvolta e in misura crescente, prendere le distanze.

Obiettivo 2
Il dovere della comunicazione
di Donatella Stasio

Nell’epoca della comunicazione e contro il “cattivismo” diffuso che sembra connotare lo spirito dei tempi, diventa ancora più urgente un’etica della comunicazione. La magistratura deve farsi carico dell’aspettativa sociale di conoscere e di comprendere la complessità della giustizia. Ma il dovere di comunicare presuppone la costruzione di una solida e diffusa cultura della comunicazione. Questa è, dunque, la sfida che attende la magistratura tutta, per recuperare credibilità e soprattutto fiducia, caduta ai minimi storici. La fiducia si nutre infatti della trasmissione del sapere, della promozione della conoscenza, dell’esercizio della trasparenza, di condotte rispettose della dignità dell’interlocutore, dell’ascolto, del rendere conto … . Si tratta di una “riforma” improcrastinabile, che chiede ai giudici (e in generale ai giuristi) anzitutto di uscire davvero dall’autoreferenzialità e poi di mettersi in gioco con umiltà, consapevolezza del proprio ruolo sociale, responsabilità, ed elaborazione del lutto di una giustizia perfetta.

di Vincenza (Ezia) Maccora

Risale al 2008 la spinta del Consiglio superiore della magistratura ad investire sulla comunicazione della giustizia sulla giustizia. In questo ultimo decennio si sono moltiplicate le iniziative in questo settore – Urp, Bilancio sociale, siti internet, attività di sensibilizzazione, attenzione al linguaggio, anche del corpo, con cui il magistrato entra in contatto con le parti – e dalla loro analisi si comprende il tentativo di allineamento delle Istituzioni giudiziarie italiane ai principi espressi a livello europeo. Tanta strada è stata percorsa ed ora spetta ai singoli magistrati il compito di impadronirsi del momento comunicativo, raccogliendo gli stimoli provenienti “dall’alto” e da qualche magistrato antesignano, superando le resistenze culturali che ancora si riscontrano. Questo obiettivo cerca di fare il punto su dove siamo arrivati e sul cammino ancora da percorrere, nella consapevolezza che impegnarsi sul piano della comunicazione/informazione è un dovere di tutti i magistrati e che da questa si alimenta anche la fiducia dei cittadini verso la giustizia.

di Vittorio Lingiardi

Per molti anni la professione dello psicoanalista è stata governata da tre principi fondamentali: neutralità, astinenza e anonimato. Col tempo, la cosiddetta “svolta relazionale” in psicoanalisi ha modificato, senza alterarne lo spirito etico e terapeutico, lo stile della comunicazione tra terapeuta e paziente. Prendendo spunto da questo esempio, ma rifuggendo parallelismi forzati e fuorvianti, propongo alcuni spunti di riflessione sull’importanza di una comunicazione empatica e accessibile, pur nel rigore della specificità, tra giudici e cittadini. Il tempo delle torri d’avorio è finito, e per non rimanere travolte dall’inconsistenza dei tweet, è importante che le professioni e le istituzioni, senza cedere al narcisismo della visibilità e all’esibizionismo dialettico, imparino a parlare alle cittadine e ai cittadini in modo tempestivo, non gergale, non propagandistico. Stile e modi di comunicazione dei giudici influenzano infatti la formazione dell’immagine, individuale e collettiva, psichica e sociale, della giustizia. È bene che, “oltre le sentenze”, ci siano parole che le spiegano e le accompagnano. Per non vivere in un mondo dominato dall’imperativo della comunicazione ma che ha perso la capacità di comunicare.

di Franco Ippolito

Tracciare l’esatta distinzione tra consenso e fiducia, nella società democratica e nello Stato costituzionale di diritto, è esigenza essenziale per la magistratura. Per un pieno recupero della fiducia è necessario rifuggire dalla ricerca del consenso e concorrere alla formazione di una opinione pubblica fondata sulla corretta informazione e comunicazione, sull’esercizio della critica razionale e ragionata, sul rispetto degli altri.

di Elisabetta Cesqui

Una comunicazione trasparente è fondamentale per un corretto esercizio della giurisdizione, dare conto del proprio agire e del servizio reso alla generalità è questione che attiene la sua stessa legittimazione.  L’informazione sull’attività degli uffici deve passare attraverso servizi dedicati, Bilanci sociali e una concezione più moderna delle relazioni dell’Ispettorato del ministero. L’informazione sui procedimenti, specie quelli di rilevante interesse per la generalità, deve trovare un punto di equilibrio tra le esigenze proprie del processo, il diritto di cronaca giudiziaria, la tutela della dignità delle persone e quella della riservatezza. Serve perciò una comunicazione gestita dagli uffici, costante, chiara, senza discriminazioni tra giornalisti. È necessario valorizzare, non mortificare l’intermediazione professionale degli operatori dell’informazione e rivedere il sistema normativo dei divieti e delle sanzioni. Condizione presupposta di una comunicazione corretta è la chiarezza, comprensibilità e appropriatezza dei provvedimenti e degli atti da comunicare. Un tentativo di conciliare le diverse esigenze nella nuova disciplina delle intercettazioni.

di Nello Rossi

Per la magistratura degli anni ‘50 e ‘60 valeva la regola non scritta ma ferrea del silenzio. Una vera e propria arte di tacere, frutto dell’omogeneità con la classe dominante e pegno della irresponsabilità sociale e culturale per le decisioni assunte. La stagione del risveglio sociale e culturale dei magistrati coincide con la loro presa di parola ed avvia un lungo percorso evolutivo, a più riprese contrastato, insidiato e revocato in dubbio. È un itinerario che si snoda attraverso diverse tappe: dalla difesa della libertà di manifestazione del pensiero nei confronti delle iniziative disciplinari all’elaborazione di un’etica del discorso pubblico del magistrato sino all’affermazione di un moderno e compiuto diritto-dovere di spiegare e di spiegarsi che appartiene agli uffici giudiziari ed all’occorrenza a ciascun singolo magistrato. Ma c’è un lavoro di lunga lena da fare per presidiare il confine tra libertà e prepotenze e perché la scelta per la comunicazione non sia solo una rivoluzione dall’alto…

di Patrizia Giunti

La sfida per l’inclusività della comunicazione giuridica non si vince con il solo richiamo alla semplificazione del linguaggio. La posta in gioco è più alta, chiama in causa la relazione del giurista con gli innumerevoli attori sociali della complessità globale e richiede un investimento forte sul piano dei modelli culturali.

di Nicoletta Giorgi

La capacità di comunicare deve diventare una nuova competenza funzionale all’esercizio della giurisdizione. Il recupero del rapporto di fiducia del cittadino per le istituzioni passa per l’esatta comprensione dei provvedimenti giurisdizionali e, quindi, dall’apprendimento della semplificazione linguistica e dalla reciproca alfabetizzazione di giornalisti e magistratura.

Serve un cambiamento organizzativo degli uffici e ancor prima un cambiamento culturale anche tramite l’adozione di una nuova metodologia formativa ispirata all’esperienze fuori confine.

di Giuseppe Pignatone

L’esercizio in concreto di un incarico direttivo in terra di mafia rende particolarmente consapevoli del dovere di comunicare per raggiungere i fini istituzionali dell’amministrazione della giustizia. Occorre “rendere conto” per consentire ai cittadini di esercitare il controllo sociale quale necessario contrappeso all’indipendenza e all’autonomia della magistratura. Ovviamente l’interlocuzione pubblica deve avere quale unico ed esclusivo scopo quello di comunicare la giustizia al cittadino, evitando di inquinare con interessi estranei (del magistrato o di terzi) tale finalità di interesse generale. Senza dimenticare che nel momento in cui viene meno il segreto investigativo, le risultanze delle indagini offrono alla pubblica opinione e al dibattito democratico una massa di conoscenze che possono essere utili o addirittura preziose. Si pensi al contributo che alla crescita sociale e civile del nostro Paese hanno dato le indagini sulle mafie e sulla corruzione. Compresi quei dialoghi o quei filmati che una volta depositati sono diventati patrimonio conoscitivo della società: dalla documentazione dell’omaggio ai boss alla Madonna di Polsi alla riunione dei vertici della ‘ndrangheta lombarda a Paderno Dugnano, dalla richiesta e dal pagamento di tangenti in varie parti d’Italia alle conversazioni tra i capi delle organizzazioni mafiose e gli appartenenti all’“area grigia”. Non vi è dubbio infatti che anche questa è comunicazione della giustizia.

di Giancarlo De Cataldo

L’Autore prende le mosse da una definizione della sentenza come atto finalizzato a rendere manifesto, sia alle parti processuali direttamente coinvolte, che alla collettività, l’iter logico che sorregge la motivazione del giudice. La sentenza viene poi analizzata come documento narrativo, con riferimento agli elementi che vi devono necessariamente comparire in ossequio al dettato normativo e alle possibili tecniche di redazione, in un percorso che dovrebbe tendere all’ottenimento della giusta completezza espositiva nel quadro di una maggiore concretezza e sinteticità. L’autore si chiede infine, in chiave problematica se non apertamente critica, se l’innegabile sforzo dei giudici di comunicare, attraverso la motivazione della sentenza, in modo più chiaro, conciso e comprensibile, possa servire a migliorare, se non l’accettazione, quanto meno la comprensione, da parte della collettività, delle regole del giudizio.

di Francesco Petrelli

Come e perché è necessario comunicare il processo. Occorre ristabilire l’alleanza fra processo e ragione, fra la cultura condivisa del Paese e il processo penale. L’errore dell’avvocatura non è stato quello di non aver saputo difendere il “giusto processo” ma di non averlo saputo “comunicare”. Di aver lasciato che intere classi politiche e dirigenti di questo Paese crescessero e venissero educate alla scuola illiberale di chi vede nel processo penale solo un ostacolo alla affermazione della legalità e non uno strumento di riaffermazione dello statuto democratico di un Paese. Una società spaventata, resa insicura ed incerta dalla crisi e dalla globalizzazione, ha cessato così del tutto di vedere nel diritto uno strumento di realizzazione della persona. Ciò che viene chiesto dal cittadino non sono più diritti ma sono in realtà tutele e protezioni, non nuovi spazi di libertà, ma più benefici e più assistenza, non diritti civili e garanzie della persona per poter sviluppare e veder maturare le proprie aspettative individuali, politiche e sociali. Ed in questo contesto è sempre più necessaria un’avvocatura capace di parlare la difficile lingua dei diritti dimenticati.

di Mariarosaria Guglielmi

I principali network delle magistrature europee hanno elaborato articolati documenti di indirizzo in tema di comunicazione giudiziaria, che rappresentano un insostituibile quadro di riferimento per una componente sempre più rilevante del rapporto tra magistratura e società, con implicazioni importanti nel contesto della crisi dello Stato di diritto. L’analisi dell’esperienza di altri Stati membri dell’Unione europea, e in particolare della Romania, aggiunge ulteriori elementi che depongono nel senso della necessità di un approfondito dibattito anche in Italia sul tema, svolto a partire da quanto elaborato nelle sedi transnazionali.

di Daniela Lecca

L’importanza del rapporto tra cittadini e istituzioni passa per la trasparenza della comunicazione pubblica, nel difficile bilanciamento tra natura dell’informazione, libertà di accesso ai dati, diritto di cronaca e tutela di alcuni fondamentali diritti della persona. Il caso speciale della Romania alla luce della nuova disciplina del rapporto triangolare tra magistratura, società e mezzi di comunicazione di massa.

di Raffaella Calandra

Un nuovo tipo di comunicazione, per far comprendere meccanismi e provvedimenti. I giovani magistrati aprono all’introduzione nei Palazzi di giustizia di profili professionali specifici, come un ufficio stampa, o all’incremento di formazione per i rapporti con i media. Dietro polemiche recenti, spesso ci sono informazioni inesatte, diffuse sui social. Ricerche demoscopiche collegano il crollo di fiducia nella magistratura anche alla comunicazione. La sfida di trovare un equilibrio tra le indicazioni degli organi sovranazionali e i richiami del Colle.

di Armando Spataro

Le modalità di pubblica comunicazione dei magistrati hanno dato luogo a frequenti critiche secondo cui essi parlerebbero per rafforzare il peso dell’accusa o la propria immagine. Si tratta di accuse quasi sempre infondate, ma che traggono spunto da innegabili criticità: basti pensare alla prassi delle conferenze stampa teatrali e dei comunicati stampa per proclami, o all’autocelebrazione della proprie inchieste con connesse accuse a chi si permette di esprime dubbi e critiche. Bisogna spiegare ai magistrati “come non si comunica”, convincendoli ad evitare i tentativi di “espansione” a mezzo stampa del proprio ruolo fino ad includervi quelli degli storici e dei moralizzatori della società. Il dovere di informare è naturalmente irrinunciabile, purché esercitato nei limiti della legge, del rispetto della privacy e delle regole deontologiche, ma è anche necessario che i magistrati si guardino bene dal contribuire a rafforzare un’ormai evidente degenerazione informativa, che spesso determina febbre “giustizialista”, alimentata da mostruosi talk-show ed attacchi alla politica ingiustificatamente generalizzati. I magistrati non sono ovviamente gli unici responsabili di questa pericolosa deriva cui contribuiscono anche strumentalizzazioni ad opera di appartenenti alle categorie degli avvocati, dei politici e degli stessi giornalisti che spesso producono informazioni sulla giustizia prive di approfondimento e di verifiche, e che sono caratterizzate dalla ricerca di titoli e di forzature delle notizie al solo scopo di impressionare il lettore. È necessaria, dunque, per venir fuori da questo preoccupante labirinto, una riflessione comune su informazione e giustizia tra magistrati, avvocati e giornalisti.

di Beniamino Deidda

L’Autore, dopo avere rievocato un periodo caratterizzato dall’assenza di comunicazioni all’esterno da parte dei magistrati, ricorda un processo celebrato presso la Pretura di Firenze nel 1971, nel quale il pretore spiegò brevemente le ragioni del dispositivo della sentenza. Le reazioni ribadirono la chiusura dei magistrati ad ogni forma di comunicazione che è durata fino alla pubblicazione del codice del 1988. Quel che è accaduto con il nuovo rito non soddisfa ancora alla necessità di “rendere conto” ai cittadini da parte dei magistrati, che è un’esigenza che trova la sua giustificazione nella Costituzione. Un tentativo di disciplinare nuove forme di comunicazione si trova nelle linee-guida recentemente approvate dal Csm. Ma è necessaria una nuova formazione per i magistrati.

Le «linee guida 2018 del Consiglio superiore della magistratura»
Due voci:
di Luigi Ferrarella

È quasi una rivoluzione il cambio di mentalità della magistratura nell’approccio alla comunicazione come una parte – e un dovere – del proprio lavoro, e particolarmente azzeccata (tra le proposte concrete) appare l’idea di una «informazione provvisoria» che subito renda più comprensibili i dispositivi delle sentenze. Ma il rifiuto della «rilevanza penale» quale unico parametro per la liceità di una cronaca giornalistica di fatti giudiziari, e l’identificazione nel giornalista dell’unico soggetto legittimato a operare a priori la valutazione di cosa si debba intendere per notizia di «interesse pubblico», restano per un giornalista i punti non negoziabili che rischiano di entrare in tensione con il metodo “ufficio stampa”, suggerito agli uffici giudiziari dalle «linee guida Csm» nel momento in cui esse perdono l’occasione per aprire invece a un accesso diretto e trasparente del giornalista a tutti gli atti non più segreti posti man mano in discovery alle parti.

di Edmondo Bruti Liberati

Il Csm interveniva in occasione di polemiche suscitate da interventi pubblici di magistrati per richiamare il dovere di misura e riserbo. Di recente ha affrontato “in positivo” il tema della comunicazione sulla giustizia. Le “Linee-guida” del 2018, segnano il punto di assestamento di questo percorso: la questione non è “se comunicare”, ma “come comunicare”. La tematica della comunicazione deve far parte della formazione fornita dalla Scuola superiore della magistratura con corsi pratici diretti non solo ai dirigenti. Oggi ciascun singolo magistrato, attraverso i social media, entra direttamente (spesso senza la necessaria consapevolezza) nella arena pubblica. Pur con limiti ed omissioni, le «Linee-guida 2018» del Csm costituiscono un significativo punto di arrivo. Vi è da augurarsi che il Csm attualmente in carica raccolga il testimone dal predecessore e fra quattro anni, ritorni sul tema, con un approccio diverso, orientato alla ricognizione delle prassi nel frattempo instauratesi. Dunque in conclusione: un punto di arrivo e insieme un punto di partenza.

Epilogo
di Elvio Fassone

Lo scritto affronta il tema da un'angolatura diversa da quella convenzionale, secondo la quale la “comunicazione” è il portare alla conoscenza di terzi notizie o informazioni che per loro natura debbono restare più o meno riservate: l'A. prende invece in esame quella comunicazione che consiste nel modo tacito di porsi e di proporsi del magistrato nei confronti del cittadino suo interlocutore, attraverso il comportamento, gli atteggiamenti, lo stile, il linguaggio e tutto ciò che, anche non intenzionalmente, contribuisce a costituire la relazione.

In questo modo comportamentale di comunicare non viene manifestata un'informazione o una notizia, ma il modo intimo e per lo più inconsapevole di interpretare il rapporto tra il magistrato ed il cittadino: a quest'ultimo non interessa sapere se il magistrato ha determinate qualità caratteriali, ma attraverso quellaforma di comunicazione il cittadino individua il livello di rispetto che il magistrato esprime verso la dignità del suo interlocutore. Più ancora, quel modo di porsi del magistrato, moltiplicato per la pluralità delle relazioni quotidiane, determina la sua immagine diffusa nel sentire comune, e quindi il consenso più o meno ampio del quale la magistratura gode nell'opinione pubblica, prezioso sostegno nelle frequenti tensioni con il potere politico.

Attraverso una sintetica rassegna di condotte, abitudini e linguaggi l'A. finisce con l'individuare un'interpretazione del ruolo (non universale, ma largamente diffusa) connotata da rigidità, formalismo, ostentato distacco e indifferenza agli aspetti umani della relazione, quasi che l'essere il magistrato definito come organo super partes lo connotasse come “al di sopra” anche psicologicamente e socialmente. Auspica, quindi, che si diffonda una maggior sensibilità verso questo aspetto della funzione, a tutto vantaggio del consenso del quale la giurisdizione ha necessità.

ARCHIVIO
Fascicolo 1/2019
Populismo e diritto
Fascicolo 4/2018
Una giustizia (im)prevedibile?
Il dovere della comunicazione
Fascicolo 3/2018
Giustizia e disabilità
La riforma spezzata.
Come cambia l’ordinamento penitenziario
Fascicolo 2/2018
L’ospite straniero.
La protezione internazionale nel sistema multilivello di tutela dei diritti fondamentali
Fascicolo 1/2018
Il pubblico ministero nella giurisdizione
La responsabilità civile fra il giudice e la legge
Fascicolo 4/2017
L’orgoglio dell’autogoverno
una sfida possibile per i 60 anni del Csm
Fascicolo 3/2017
A cosa serve la Corte di cassazione?
Le banche, poteri forti e diritti deboli
Fascicolo 2/2017
Le nuove disuguaglianze
Beni comuni

Dedicato a Stefano Rodotà
Fascicolo 1/2017
Il diritto di Crono
Il multiculturalismo e le Corti
Fascicolo 4/2016
NUMERO MONOGRAFICO
Il giudice e la legge
Fascicolo 3/2016
La giustizia tributaria
La riforma della magistratura onoraria
Fascicolo 2/2016
VERSO IL REFERENDUM COSTITUZIONALE
Forme di governo,
modelli di democrazia
IL CORPO
Anatomia dei diritti
Fascicolo 1/2016
NUMERO MONOGRAFICO
Formazione giudiziaria:
bilancio e prospettive
Fascicolo 4/2015
Il valore del dissenso
Il punto sul processo civile
Associazionismo giudiziario
Fascicolo 3/2015
Il diritto del lavoro alla prova del Jobs Act
Unitarietà della giurisdizione
Riforma della responsabilità civile
Fascicolo 2/2015
NUMERO MONOGRAFICO
Al centesimo catenaccio
40 anni di ordinamento penitenziario
Fascicolo 1/2015
Dialoghi sui diritti umani
I diritti fondamentali tra obblighi internazionali e Costituzione
La risoluzione amichevole dei conflitti
Schede di ordinamento giudiziario aggiornate al gennaio 2015
Il volume costituisce un'utile panoramica dei metodi di contrasto alla criminalità mafiosa e degli strumenti di prevenzione
Numero speciale di Questione Giustizia in formato digitale con atti, relazioni e dati sul sistema delle misure cautelari personali