Magistratura democratica

La tecnologia per lavorare meno o per lavorare meglio? Riflessioni sul futuro della giustizia ad alta intensità tecnologica

di Michele Miravalle

Il contributo indaga la percezione che i magistrati coinvolti nella ricerca hanno rispetto a un’accresciuta tecnologizzazione della loro professione, evidenziando i principali nodi critici affrontati durante le interviste e i focus group. Dopo aver fornito una proposta di classificazione degli strumenti tecnologici applicabili al giudizio, tra strumenti diagnostici e prognostici e strumenti autonomi o dipendenti dagli input umani, l’articolo distingue tra strumenti tecnologici utilizzati dal magistrato e sul magistrato. Dal magistrato, quando tali strumenti sono messi a disposizione per affinare, agevolare, velocizzare o ampliare qualsiasi attività processuale, a prescindere dalle funzioni ricoperte; sul magistrato, quando vengono invece utilizzati per “misurare” le performance professionali in termini di qualità e quantità di lavoro svolto dal singolo magistrato o dall’ufficio giudiziario di appartenenza.

1. Premessa. Una proposta di classificazione degli strumenti tecnologici applicabili alla giustizia / 2. Le tecnologie usate dal magistrato: dalla certezza alla probabilità del diritto / 3. Le tecnologie usate sul magistrato, tra efficientismo e ansie performanti 

 

1. Premessa. Una proposta di classificazione degli strumenti tecnologici applicabili alla giustizia

La rivoluzione tecnologica in atto profila un rinnovato scenario all’orizzonte della giustizia – e, di conseguenza, anche del lavoro degli uffici giudiziari e dei singoli magistrati. 

L’obiettivo di questo contributo è indagare la percezione che i magistrati coinvolti nella ricerca hanno rispetto a un’accresciuta tecnologizzazione della loro professione, evidenziando i principali nodi critici affrontati durante le interviste e i focus group

Prima di sistematizzare le opinioni dei magistrati sul punto, occorre chiarire che cosa si intende per tecnologie applicate alle professioni giuridiche.

Chiariamo dunque che per “tecnicizzazione del giudizio” si intende l’applicazione sistematica nel processo di technical tools, quali algoritmi[1], intelligenza artificiale[2], decisioni robotiche[3], big data, dati neurocognitivi[4]. Ognuno di questi strumenti necessiterebbe di un approfondimento particolare[5], ma ciò fuoriesce dallo scopo di questo contributo. 

Si adotta dunque un’interpretazione estesa del concetto di “strumento tecnico-scientifico”. Ognuna delle tecniche citate può essere infatti utilizzata sia dal magistrato che sul magistrato. Dal magistrato quando tali strumenti vengono messi a disposizione per affinare, agevolare, velocizzare o ampliare qualsiasi attività processuale, a prescindere dalle funzioni ricoperte; sul magistrato quando vengono, invece, utilizzati per “misurare” le performance professionali, in termini di qualità e quantità di lavoro svolto dal singolo magistrato o dall’ufficio giudiziario di appartenenza.

Avendo a mente questa ampiezza di possibili utilizzi, è utile definire una tassonomia di tali strumenti, individuando almeno due macro-distinzioni che aiutano a orientarsi in un contesto in rapido cambiamento. 

In primis, occorre richiamare la differenza tra strumenti con funzioni analitico-induttive, di carattere diagnostico, e strumenti con funzioni prospettico-predittive, di carattere prognostico. I primi sono in grado di individuare modelli (pattern) interpretativi, analizzando una ingente quantità di dati riguardanti, ad esempio, precedenti, e dunque decisioni già assunte[6]; i secondi, in base alle informazioni inserite, sono in grado di “prevedere” elementi salienti per il giudizio – nel giudizio penale, ad esempio, il rischio di recidiva, le possibilità di successo o insuccesso di un percorso di reinserimento post-condanna. 

Una seconda distinzione concerne il grado di autonomia dello strumento rispetto al controllo dell’uomo o, in altre parole, il “ruolo dell’umano” nell’attività dello strumento tecnologico. A tal proposito, occorre qui limitarsi a richiamare il ricco (e secolare) dibattito filosofico sui rapporti uomo-macchina, che inizia simbolicamente nel XVII secolo, quando Blaise Pascal nel 1642 presentò al mondo la Pascaline, primo calcolatore considerato prototipo dei moderni computer

L’idea di macchine totalmente autonome dall’uomo, che finiscono per assoggettarlo e annientarlo, è uno scenario che lasciamo (per ora) alla letteratura fantascientifica[7], ma certamente dobbiamo prendere atto come il mondo del diritto sia influenzato da una generale «diffidenza antimacchinica dettata dalla paura dell’uomo di perdere la sua centralità nell’universo»[8]. Tale diffidenza muove dalla sferzante critica di Heidegger, il quale intravvedeva nell’aumento del ruolo della tecnica nella vita dell’uomo, l’avvio dell’oblio dell’essere[9]

In realtà, l’attuale sviluppo degli strumenti tecnologici applicati alla giustizia non pone (ancora) la scelta dicotomica tra uomo e macchina, ma promuove piuttosto un approccio cooperativo tra “giustizia umana” e “giustizia macchinica”[10]. Anche se gli esperimenti portati avanti con le tecnologie del cd. machine learning potrebbero presto imporre di riconsiderare la questione[11]

Proprio dalle scienze computazionali[12] possiamo, infatti, ricavare la classificazione degli strumenti tecnologici applicati alla giustizia penale in due ulteriori categorie: «Human Supervised Learning» e «Unsupervised Learning». 

La differenza risiede nel ruolo di “supervisione” assunto dall’umano.

Nei sistemi di Supervised Learning è l’umano che deve “inserire” nella macchina una serie di input che la macchina elaborerà per arrivare a taluni output, attraverso l’uso di diverse metodologie, alcune di queste ispirate al funzionamento neuronale delle sinapsi cerebrali (cd. neural network). 

Nei sistemi di Unsupervised Learning è invece la macchina che, autonomamente e senza input umani, svolge operazioni tipiche del ragionamento giuridico e tradizionalmente demandate al giurista-interprete; si pensi all’approssimazione analogica tra casi simili[13], al bilanciamento delle circostanze del fatto di reato, alla scelta tra un minimo e un massimo edittale nel computo della sanzione, al calcolo del risarcimento del danno. La macchina, inoltre, raffina la sua tecnica interpretativa, limitando il suo margine di errore, con l’aumentare del numero di casi in memoria. 

Incrociando questi due assi della tassonomia, il carattere diagnostico o prognostico e il grado di autonomia rispetto agli input umani, si riesce a delineare una immaginaria mappa comprensiva della maggior parte delle tipologie di strumenti tecnologici applicabili al giudizio. I quattro gruppi omogenei di technical tools derivanti dai punti di incontro delle variabili (strumenti non automatizzati-diagnostici, non automatizzati-prognostici, automatizzati-diagnostici, automatizzati-prognostici) sono arricchiti da strumenti “ibridi”, che si collocano tra l’una e l’altra categoria.

Chiarite – seppur sommariamente – queste distinzioni, occorre ora individuare gli ostacoli sul percorso di integrazione tra giustizia e tecnologia. 

È necessario prendere atto che la maggior parte del dibattito scientifico sul punto si è svolto nel contesto statunitense, ove, anche grazie agli ingenti investimenti economici fatti nella ricerca, il percorso di adattamento dell’ordinamento giuridico sia statale che federale è più maturo, soprattutto in termini di precedenti giurisprudenziali[14].

In Europa, la necessità di “governare” l’integrazione tra giudizio e tecnologia ha subìto un impulso notevole solo dall’adozione, nel dicembre 2018, della «European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment»[15] da parte della Commissione per l’efficienza della giustizia del Consiglio d’Europa (CEPEJ)[16].

La Carta, importante strumento di soft law, ha “cristallizzato” alcuni principi che corrispondono alle preoccupazioni ricorrenti della comunità scientifica[17]. È interessante notare in particolare che, nella seconda appendice, la Carta suddivide in quattro categorie gli strumenti tecnologici applicati al diritto, a seconda del livello di “compatibilità” con i diritti fondamentali, coerentemente con il primo principio che la stessa Carta ha posto: quelli il cui uso è da incentivare; quelli da utilizzare, ma adottando alcune “precauzioni metodologiche”; quelli “sotto osservazione”, che necessitano ulteriori approfondimenti scientifici, in mancanza dei quali gli standard richiesti dal Consiglio d’Europa non sono integrati e, infine, gli strumenti tecnologici il cui utilizzo nell’ambito della giustizia è da disincentivare. 

In linea generale, traspare una tendenziale diffidenza che il Consiglio d’Europa mostra soprattutto verso la “tecnicizzazione” della giustizia penale, in confronto all’approccio di maggior apertura verso altre aree del diritto, quali il diritto civile e amministrativo. 

Nel diritto civile e amministrativo, si descrive e si “auspica” l’applicazione delle tecnologie facendo espliciti riferimenti agli strumenti utilizzati per definire automaticamente il quantum  dei risarcimenti contrattuali ed extracontrattuali, oppure per “mediare” le controversie in fase di pre-contenzioso[18]

Gli strumenti tecnologici applicati al giudizio penale vengono invece inseriti nella “lista nera” di strumenti da disincentivare, in particolare quelli utilizzati per il cd. criminal profiling e il risk assessment, utilizzati nei giudizi sulla pericolosità sociale del reo, al fine del calcolo della pena o dell’accesso a misure alternative alla detenzione, largamente utilizzati nel contesto statunitense e anglosassone.

Solo l’uso di strumenti tecnologici poliziali per facilitare il “controllo” del territorio e la prevenzione del crimine è considerato auspicabile, seppur con alcune precauzioni metodologiche.

Occorre, ora, domandarsi quali siano i motivi di maggiore preoccupazione che inducono a una diffusa diffidenza all’introduzione di tali strumenti nel contesto della magistratura italiana, per lo meno dal punto di vista del campione di magistrati coinvolti nella ricerca.

 

2. Le tecnologie usate dal magistrato: dalla certezza alla probabilità del diritto

Il primo problema riguarda la possibilità che l’applicazione sistematica di strumenti tecnologici metta in dubbio il paradigma fondativo della nostra cultura giuridica di stampo liberale, aprendo la strada a un approccio determinista e meccanicista ai fatti oggetto del contenzioso.

Anzitutto l’uso sistematico di tali strumenti, in particolare quelli con finalità predittive-prognostiche, contribuirebbe a traslare la giustizia dal linguaggio della certezza, tipico del diritto, a quello della probabilità, tipico della scienza. È un tema che qui viene solo enunciato, rilevando che la predizione probabilistica insita negli strumenti tecnologici applicati al diritto è antinomica rispetto alla verità “oltre ogni ragionevole dubbio”, perseguita nel processo nella sua funzione epistemologica[19].

Questo rischio è particolarmente evidente nel giudizio penale. È infatti diffusa tra i commentatori la preoccupazione che una giustizia penale ad alta intensità tecnologica possa minare le basi del garantismo e spostare l’attenzione (e la valutazione) degli operatori della giustizia dall’offesa (e dunque dal fatto di reato) al reo (e dunque al soggetto). E non il reo visto nella sua individualità e soggettività, ma un reo stereotipato, etichettato, confuso nel gruppo sociale di appartenenza. Così, il più grave vulnus dell’applicazione di strumenti tecnologici alla giustizia penale diverrebbe «la mancanza di individualizzazione della decisione, con l’inaccettabile asservimento alla nuda statistica delle peculiarità del caso concreto»[20].

Si tratta di un problema di non facile risoluzione, perché ha a che fare con la prospettiva metodologica fondamentale della scienza che studia gli individui per sussumere asserzioni valide in generale per la collettività[21], riponendo dunque nella “generalizzazione” una sua caratteristica fondativa. Ciò solo basterebbe a escludere ogni applicazione di metodi e tecniche scientifiche al giudizio penale, ma è la realtà dei fatti a dimostrare – anzi – la crescente «grande fame»[22] di scienza nelle aule di giustizia.

La questione ha risvolti operativi molto evidenti. Si pensi agli Stati Uniti, dove 24 giurisdizioni statali utilizzano strumenti di profilazione e risk assessment del reo, quali il sistema COMPAS («Correctional Offender Management Profiling for Alternative Sanctions») oppure nel Regno Unito, dove è in corso di sperimentazione uno strumento simile, chiamato HART («Harm Assessment Risk Tool»).

Sono strumenti che, utilizzando la tassonomia proposta nella prima parte del contributo, rientrano tra quelli non automatizzati-predittivi. Si dicono in grado di valutare il livello di rischio di recidiva e la pericolosità sociale di un individuo, incrociando in un formula algoritmica[23] una serie di variabili fornite dalla stessa persona condannata attraverso la compilazione di un questionario[24]

Alcune ricerche[25] sui risultati prodotti da questi calcoli algoritmici hanno dimostrato tratti discriminatori nei confronti di particolari gruppi sociali, sovrastimando sistematicamente il rischio per gli imputati afroamericani e, altrettanto sistematicamente, sottostimando il rischio per gli imputati “bianchi”. Dopo la pubblicazione dei risultati di queste ricerche, nella società civile e nella comunità scientifica si è aperto un ampio dibattito sull’opportunità di implementare questi strumenti.

Ma perché tanto stupore? L’uso di stereotipi e tipizzazioni è un “vizio” radicato nella giustizia penale e molto studiato, in particolare dalla scuola del realismo giuridico. Già nel 1949, Jerome Frank criticava la presunta razionalizzazione del diritto, smascherando bias inconsci e pregiudizi dei giudici contro le donne, le minoranze o le persone con difetti fisici[26]. Lo stupore diminuisce ancora se, poi, si allarga lo sguardo all’ampia produzione scientifica della criminologia critica, sulla selettività del processo di criminalizzazione, sulle funzioni latenti dei sistemi penali, non già riabilitative, ma di mera neutralizzazione selettiva delle “classi pericolose” e dell’ “umanità in eccesso”[27]

Il diritto penale dell’autore che mette a rischio il paradigma garantista non è, insomma, una novità causata dalla tecnologia. Già Ferrajoli, che aveva posto come caposaldo del modello garantista l’accertamento probatorio di «quel che “si è fatto”», non di «“quel che si è”, cioè la valutazione dell’identità immorale o malvagia del soggetto»[28], era consapevole delle difficoltà degli operatori della giustizia penale a resistere alla sirene della degenerazione da processo cognitivo a processo offensivo nei confronti dell’anima dell’imputato, della sua moralità, del suo carattere. Gli strumenti tecnologici non farebbero dunque altro che “camuffare” il pregiudizio umano con la tecnologia, sfruttando la discutibile presunzione di neutralità scientifica[29]

Abbandonando gli aspetti teorici, sul piano operativo è diffusa, tra i magistrati incontrati durante la ricerca, la preoccupazione verso un indirizzo ormai consolidato del legislatore: quello di voler “misurare” la qualità dei provvedimenti (e, di conseguenza, dei magistrati che li hanno scritti) in base alla loro conferma o revoca nei successivi gradi di giudizio. Secondo la recente “riforma Cartabia”, questo dato integrerà il fascicolo personale del magistrato sulla cui base vengono decisi gli avanzamenti di carriera.

Questa tendenza si inquadra nel più ampio processo di marginalizzazione del ruolo del giurista-interprete auspicata dalla tecnologia, che fa della standardizzazione una virtù, in cui ogni discostamento dal precedente, ogni interpretazione creativa è considerata una minaccia.

Giudizi standardizzati, tendenti a essere “rispettosi” dell’algoritmo, rischiano anche di cambiare la cultura giuridica del magistrato: il giurista non sarà più colui che “governa” il ragionamento giuridico, ma sarà – in tutto o in parte – sostituito dall’ingegnere, dal programmatore, dall’esperto di coding, dal genetista o dal neuroscienziato? Potrebbe egli perdere il ruolo di peritum peritorum ed essere relegato a funzione ancillare delle culture professionali “scientifiche”? È questo un effetto collaterale dell’asimmetria informativa insita nel rapporto tra chi “progetta” lo strumento tecnologico e chi lo utilizza – il giudice, l’avvocato, l’operatore giuridico. Finché prevarrà l’approccio tecnofobico, questi strumenti rimarranno un black-box[30] di cui il giurista non comprende né il funzionamento né i rischi, e il neopositivismo tecnologico potrebbe trasformare quel giurista da bocca delle legge a bocca della tecnologia.

A questo proposito, un magistrato intervistato ben sintetizza i rischi e gli inganni della neutralità tecnologica e dell’auspicio del legislatore di avere giudici standardizzati

«Trovo molto grave, molto pericoloso l’ancoramento della valutazione di professionalità al cd. fascicolo della performance e alla verifica circa la tenuta dei provvedimenti nei gradi successivi per i giudici ai pubblici ministeri, sulla base dell’accoglimento delle proprie richieste. Perché credo sia profondamente sbagliato dal punto di vista ideologico, nel senso che favorisce un appiattimento e una conservazione; quindi credo sia una scelta molto conservatrice, mentre è evidente che le maggiori innovazioni provengono, nel momento in cui si dissente, dall’opinione maggioritaria. Altrimenti, ci sarebbe conformismo, quindi credo che questo sia molto grave. Non è detto che sia un cattivo giudice se adotto un orientamento minoritario, anzi forse proprio perché è minoritario… posso fare una splendida – non io personalmente, dico: un giudice può fare una splendida – sentenza approfondita, con il più alto grado di cultura e preparazione, e viene riformato in appello con tre righe, in cui si copia una massima della Cassazione. Non significa che giudice dell’appello è più bravo del giudice di primo grado; anzi, evidentemente quest’ultimo, seppur smentito (ed è legittimo che sia così), magari ha dimostrato una maggior bravura e preparazione, quindi la tenuta dei provvedimenti non è certamente uno strumento di valutazione della professionalità e della capacità del magistrato» (intervista 11).

 

3. Le tecnologie usate sul magistrato, tra efficientismo e ansie performanti

Da questo stralcio di intervista si evince come la maggiore preoccupazione dei magistrati coinvolti nella ricerca sia quella del possibile uso di tecnologie sul magistrato, per misurarne le performance e la professionalità.

Sull’introduzione del “fascicolo della performance” del magistrato, che potrebbe rilevare sia in sede di valutazione di professionalità che ai fini dell’attribuzione di incarichi direttivi e semidirettivi, uno degli intervistati ha sottolineato: «Secondo me la vera stortura seria riguarda un po’ questa sorta di pagella dei magistrati, nel senso che applicare a un lavoro come il nostro, in cui si dà necessariamente… si scontenta sempre qualcuno, una logica da social network, questa cosa va a discapito dei cittadini, perché saranno poi i cittadini a sapere che un magistrato ha avuto come voto in pagella 10 e un altro ha avuto 6: e perché io devo andare da quello scarso e non posso andare da quello bravo? Giustamente. Questa cosa è una follia» (intervista 16). Secondo gli intervistati, il fascicolo favorirebbe una logica produttivistica tesa a smaltire l’arretrato a tutti costi, ancora una volta sacrificando il dovere di fornire ai soggetti coinvolti in un procedimento una risposta di giustizia. Come ha affermato Vincenza Maccora, «la riforma ha senza dubbio una non condivisibile propensione volta a valorizzare un approccio aziendalistico e produttivo del settore giustizia»[31]

«Il primo ostacolo che dobbiamo affrontare oggi nell’esercizio delle funzioni è il carico di lavoro. Abbiamo un carico tale che ci impedisce di fare le cose bene, per dirla molto semplicemente. E visto che uno, magari, tende ad investire più tempo su un fascicolo pur di farlo bene, io sono completamente fuori gioco. Nel senso che fai le cose bene, hai conferme e quant’altro, ma tenderai sempre ad accumulare arretrato (…). Questa è, purtroppo, la realtà dei fatti, che si scontra con la volontà di fare le cose per il meglio, alla perfezione, perdendoci anche più tempo (...). Tanto più in un tempo come l’attuale, in cui la statistica e una sempre maggior tendenza all’aziendalizzazione di tutto il sistema giustizia hanno dato un po’… il “colpo di grazia”, no?» (focus group n. 2).

«In alcuni uffici, ti scontri anche con un carico di lavoro esorbitante, e questo non ti consente di avere la situazione sotto controllo. È chiaro che se ciascuno di noi ha dieci procedimenti, dieci processi, a seconda della funzione esercitata, è un conto… ma quando ne hai trecento, milleottocento… Sono numeri che non ti consentono di fare il tuo lavoro in modo necessariamente performante, perché da un lato sei schiavo dei numeri, però dall’altro c’è anche il problema della qualità del servizio che offri al cittadino» (focus group n. 2).

Ecco ben riassunta la straordinaria “forza pratica” dello strumento tecnologico, in termini di risparmio di tempo e risorse, considerata una minaccia dal magistrato e – invece – un punto di forza dai decisori politici. Proprio l’efficienza e l’affidabilità della decisione promessi dall’autonomismo valutativo rendono tali strumenti estremamente attrattivi per una giustizia percepita come lenta, ingolfata, diseconomica. E così, gli strumenti tecnologici possono trovare un sostegno deciso nei policy maker, interessati a fornire ai consociati l’immagine di una giustizia rapida ed efficiente, ma anche nei sostenitori dell’approccio economico al diritto[32], rafforzando la convinzione che la giustizia debba essere anzitutto efficiente, e solo secondariamente anche giusta.

 

 

1. Vds. S. Wykstra, Philosopher’s Corner: What is “Fair”? Algorithms in Criminal Justice, in Issues in Science and Technology, vol. 34, n. 3/2018, pp. 21-23.

2. Vds. W. Barfield e U. Pagallo, Research Handbook on the Law of Artificial Intelligence, Elgar, Cheltenham (UK), 2018.

3. Vds. A. Carleo (a cura di), Decisione robotica, Il Mulino, Bologna, 2019.

4. Vds. L. Cominelli, Cognition of the Law. Toward a Cognitive Sociology of Law and Behavior, Springer, New York, 2018.

5. Alcuni autori raggruppano queste tipologie di strumenti e metodologie all’interno della cibernetica (o “nuova scienza”), giustificando quindi un’analisi comune. In questo senso, A. Simoncini, L’algoritmo incostituzionale. L’Intelligenza artificiale e il futuro della libertà, in Rivista di BioDiritto, n. 1/2019, pp. 63-89. Sarebbero, in particolare, tre le dimensioni della cibernetica: le tecnologie dell’informazione legate alla digitalizzazione (ICT – «Information and Communications Technology»); le neuroscienze, cioè lo studio delle basi biochimiche del comportamento umano, e la genomica, cioè la mappatura del DNA umano e il possibile intervento sul codice genetico degli individui.

6. Si pensi alle banche dati digitali (database) comunemente usati dagli operatori giuridici, che permettono di individuare il precedente più simile al caso di specie, scelto in pochi secondi tra una massa enorme di precedenti giurisprudenziali e informazioni. Tra quelli citati nel presente contributo, questa tipologia di strumenti è probabilmente la più conosciuta (e, dunque, meno temuta) dai giuristi. Essa rientra negli strumenti di cd. legaltech, cioè le metodologie in grado di far elaborare alla macchina una mole enorme di dati (sentenze, norme, regolamenti, elaborazioni dottrinali) per “prevedere” le decisioni dei giudici, a condizioni date. Per una panoramica, anche di carattere ricognitivo, sui temi del legaltech, vds. S. Stanco, Il legal tech e le linee di ricerca attuali, in G. Ziccardi e P. Perri (a cura di), Tecnologia e diritto. I fondamenti di informatica per il giurista, vol. I, Giuffrè, Milano, 2019, pp. 107-111.

7. È comunque interessante sottolineare che proprio la letteratura fantascientifica si sia per prima posta problemi salienti, che il giurista ha affrontato con grande ritardo. Basti pensare alle cd. “Tre leggi della robotica” sul rapporto uomo-robot enunciate dallo scrittore russo Isaac Asimov nel racconto Runaroud, del 1942 (tradotto in italiano col titolo Circolo vizioso – in Io Robot, Bompiani, Milano, 1963): «1) un robot non può recare danno a un essere umano, né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno; 2) un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengono alla prima legge; 3) un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la prima e la seconda legge». 
È il Parlamento europeo a dare dignità scientifica e normativa a queste leggi, richiamandole testualmente tra i principi generali della «Risoluzione recante raccomandazioni alla Commissione concernenti norme di diritto civile sulla robotica» (2015/2103/INL), approvata il 16 febbraio 2017.

8. A. Punzi, Judge in the Machine. E se fossero le macchine a restituirci l’umanità del giudicare?, in A. Carleo (a cura di), Decisione robotica, op. cit., p. 321.

9. Sulle implicazioni giusfilosofiche inerenti all’integrazione tra tecnica e diritto cfr., ex multis, N. Irti ed E. Severino, Dialogo su diritto e tecnica, Laterza, Roma-Bari, 2001.

10. Sulla “collaborazione” uomo-macchina, generalmente definita “collaborative intelligence”, vds. H.J. Wilson e P.R. Daugherty, Collaborative Intelligence: Humans and AI Are Joining Forces, in Harvard Business Review, vol. 96, n. 4/2018, pp. 114-123.

11. Sul ruolo dell’uomo e sul livello di autonomia delle macchine in ambito giuridico, l’approccio del giurista è sempre stato piuttosto diffidente, ma è oggi più aperto rispetto a quando, negli anni sessanta, si liquidava la “delega” di alcune funzioni giudiziarie alle macchine come un «nonsense al cubo»: vds. F.B. Wiener, Decision Prediction By Computers: Nonsense Cubed – and Worse, in American Bar Association Journal, vol. 48, n. 11/1962, pp. 1023-1028.

12. La comprensione dei sistemi di machine learning è ostica e richiede notevoli conoscenze specialistiche. Per un primo approccio al tema, intellegibile anche ai non specialisti, vds. D. Remus e F.K. Levy, Can Robots Be Lawyers? Computers, Lawyers, and the Practice of Law, paper, 27 novembre 2016 (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2701092).

13. Sull’approssimazione analogica “umana”, e su possibili futuri scenari, vds. A. Condello, Analogica. Il doppio legame tra diritto e analogia, Torino, Giappichelli, 2018.

14. Il più celebre precedente giurisprudenziale sull’utilizzo di strumenti tecnologici predittivi nell’ambito della giustizia penale è certamente il caso Loomis, deciso dalla Corte suprema del Wisconsin il 31 luglio 2016 – vds. State v. Loomis, 881 NW 2d 749 (Wis 2016). Per un commento, vds. Aa.Vv., Criminal Law – Sentencing Guidelines – Wisconsin Supreme Court Requires Warning before Use of Algorithmic Risk Assessments in Sentencing – “State v. Loomis”, 881 N.W.2d 749 (Wis. 2016), in Harvard Law Review, vol. 130, n. 5/2017, pp. 1530-1537. 

15. Per il testo completo: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c

16. Per un’analisi dettagliata della Carta, vds. C. Barbaro, Uso dell’intelligenza artificiale nei sistemi giudiziari: verso la definizione di principi etici condivisi a livello europeo?, in questa Rivista trimestrale, n. 4/2018, pp. 189-195 (www.questionegiustizia.it/data/rivista/articoli/560/qg_2018-4_17.pdf).

17. Il primo principio riguarda il rispetto dei diritti fondamentali che lo strumento tecnologico deve preservare, sia nella progettazione che nell’uso. Il riferimento è, anzitutto, ai principi enunciati dalla Convezione europea dei diritti dell’uomo. Il secondo principio è quello di “non discriminazione” e di contrasto ai pregiudizi. Il terzo riguarda la sicurezza dei dati inseriti e il loro uso eticamente orientato. Il quarto enunciato riguarda la trasparenza (intesa come possibilità di conoscere le caratteristiche dello strumento utilizzato, libero da copyright), l’imparzialità (intesa come assenza di bias, utilizzati nella fase di progettazione) e l’equità/etica (rectius: fairness, riferita alla necessità che lo strumento tecnologico sia “al servizio” della giustizia e non persegua fini ulteriori, ad esempio di carattere commerciale). Infine, la Carta dispone che gli strumenti tecnologici siano «under user control», cioè che il loro utilizzo sia frutto di una scelta consapevole e non di imposizione prescrittiva, e che il funzionamento sia intellegibile e rendicontabile.

18. Si pensi, ad esempio, all’ormai esteso utilizzo dell’«Alternative Dispute Resolution» (ADR), soprattutto in materia commerciale.

19. L’articolata questione dell’epistemologia giudiziaria e la disamina dei metodi qualitativi e quantitativi (tra cui il noto Teorema di Bayes) per giungere all’affermazione della verità processuale, non necessariamente uguale alla verità storica, sono argomenti classici della riflessione filosofico-giuridica applicata al diritto penale. Vds., ex multis, C. Costanzi, La matematica del processo: oltre le colonne d’Ercole della giustizia penale, in questa Rivista trimestrale, n. 4/2018, pp. 166-188 (www.questionegiustizia.it/data/rivista/articoli/559/qg_2018-4_16.pdf), e F. Caprioli, L’accertamento della responsabilità penale “oltre ogni ragionevole dubbio”, in Rivista italiana di diritto processuale penale, n. 1/2009, pp. 51-92.

20. C. Costanzi, La matematica del processo, op. cit., p. 188.

21. Negli Stati Uniti, l’annosa questione delle inferenze tra individuo e collettività è efficacemente riassunta nell’acronimo “G2i” (“Group to Individual”). È, questo, un tema di ricerca molto sviluppato soprattutto tra i giuristi esperti di neuroscienze: cfr., ex multis, D.L. Faigman et al., Group to Individual (G2i) Inference in Scientific Expert Testimony, in University of Chicago Law Review, vol. 81, n. 2/2014, pp. 417 ss. (file:///C:/Users/avvst/Downloads/SSRN-id2298909.pdf).

22. M.B. Crawford, The limits of neuro-talk, in New Atlantis, n. 19/2008, p. 71.

23. Tale formula è “segreta” e conosciuta soltanto dalle società commerciali proprietarie dello strumento.

24. Le variabili calcolate sono suddivise in 12 sezioni, che ricomprendono informazioni sullo status socio-economico, familiare, giuridico e sanitario.

25. Vds. J. Larson - S. Mattu - L. Kirchner - J. Angwin, How We Analyzed the COMPAS Recidivism Algorithm, in ProPublica, 24 maggio 2016 (www.propublica.org/article/how-we-analyzed-the-compas-recidivism-algorithm), e J. Skeem, Impact of Risk Assessment on Judges’ Fairness in Sentencing Relatively Poor Defendants, in Law and Human Behavior, vol. 44, n. 1/2020, pp. 51-59.

26. Cfr. J. Frank, Law and the Modern Mind, Stevens and Sons, Londra, 1949.

27. Sulla selettività del sistema criminale statunitense, vds. E. Grande, Guai ai poveri, Gruppo Abele, Torino, 2017 e, più in generale, L. Wacquant, Punir les pauvres. Le nouveau gouvernement de l’insécurité sociale, Agone, Marsiglia, 2004.

28. L. Ferrajoli, Giurisdizione e consenso, in Questione giustizia, edizione cartacea, Franco Angeli, Milano, n. 4/2009, p. 10 (https://francoangeli.it/riviste/articolo/37314).

29. Vds. C. O’Neil, Armi di distruzione matematica, Bompiani, Milano, 2017.

30. Cfr. F. Pasquale, The Black Box Society: The Secret Algorithms That Control Money and Information, Harvard University Press, Cambridge (MA)/Londra, 2016.

31. V. Maccora, La dirigenza degli uffici giudiziari: luci e ombre della riforma, in questa Rivista trimestrale, n. 2-3/2022, pp. 53-63 (www.questionegiustizia.it/data/rivista/articoli/1027/2-3_2022_qg_maccora.pdf). 

32. Ex multis, vds. G. Mastrobuoni e P. Pinotti, Econometrics of Crime, in Aa.Vv., Encyclopedia of Criminology and Criminal Justice, Springer, New York, 2014, pp. 1271-1280. Per una valutazione critica, cfr. B.E. Harcourt, Against Prediction. Profiling, Policing, and Punishing in an Actuarial Age, University of Chicago Press, Chicago, 2006.