Magistratura democratica
Prassi e orientamenti

Stupidità (non solo) artificiale, predittività e processo

di Domenico Dalfino
ordinario di diritto processuale civile, Università degli studi di Bari “Aldo Moro”
Alcune considerazioni critiche a partire dallo studio di Jordi Nieva Fenoll su Intelligenza artificiale e processo

1. Mode, tendenze, vanità personali

Negli ultimi anni si sta parlando moltissimo delle connessioni tra intelligenza artificiale e processo. Nelle molteplici declinazioni del discorso compaiono quasi sempre i termini robot, quale espressione di macchina (non più solo servente [1], ma appunto soprattutto) intelligente, e robotica, non come sostantivo [2] bensì attributo della giustizia o della decisione e, perciò, della giustizia o della decisione intelligente artificiale.

Si riscontra, invero, una certa devozione alle citazioni dotte. Non è infrequente che gli interventi si riempiano di altisonanti richiami ad illustri autori del passato, qualche volta nel tentativo di stupire per essere riusciti a scovare quello che nessun altro prima aveva scovato. Una caccia alla chicca, insomma. Di tutte queste citazioni, poche sono veramente pertinenti, molte necessiterebbero, per essere utili, di ben altro sviluppo e approfondimento.

Sta di fatto che, al netto di mode, tendenze e vanità personali, il tema è molto serio e merita di essere studiato, certamente non sottovalutato, se non altro perché riguarda un fenomeno concretamente in atto. Lo ha capito molto bene J. Nieva Fenoll che, nel suo recente e pregevole lavoro [3], lungi dall’affidarsi a luoghi comuni e preconcetti, si interroga analiticamente sulle applicazioni dell’intelligenza artificiale al processo e sulle conseguenze di tali applicazioni.

Nelle pagine che seguono dedicherò alcune considerazioni critiche alle conclusioni raggiunte dall’autore nel citato volume e volgerò lo sguardo allo specifico profilo della predittività, tema che pure ormai pervade l’interesse di molti giuristi per la sua stretta correlazione con quello della intelligenza artificiale.

2. Come il pensiero umano

In maniera metodologicamente ineccepibile, nelle prime pagine Nieva Fenoll si preoccupa di precisare cosa si debba intendere per intelligenza artificiale: «Non esiste un consenso completo su cosa significhi il termine “intelligenza artificiale”, ma si potrebbe affermare che tale termine descriva la possibilità che le macchine, in una certa misura, “pensino”, o piuttosto imitino il pensiero umano, basato sull’apprendimento e sull’utilizzazione di generalizzazioni, che le persone usano per prendere le decisioni quotidiane» [4]. La macchina, in altre parole, è intelligente se e nei limiti in cui sia in grado di pensare come un essere umano. L’intelligenza starebbe non tanto nel fatto di saper “pensare”, ma di essere in grado di “pensare imitando” il pensiero dell’uomo.

In realtà, la domanda preliminare a tutte le altre dovrebbe essere come quest’ultimo funziona. È sufficiente dire che il pensiero biologico è fatto di ragionamento, pianificazione, percezione, apprendimento, comunicazione e così via? Se così fosse, una macchina, per essere intelligente, dovrebbe essere in grado di svolgere tutte queste attività.

Che dire, poi, delle emozioni? Uno dei principali argomenti sostenuti dai detrattori dell’intelligenza artificiale consiste proprio nell’affermare la totale incapacità del robot di emozionarsi, provando rabbia, dolore, risentimento, gioia, odio, amore e così via. Tralasciando l’aspetto dell’amore, che ci porterebbe su lidi, per niente fantascientifici, ma lontani (almeno per il momento) [5] rispetto al tema in parola, vale la pena verificare se sia necessario o anche solo opportuno che la macchina esprima una qualche emozione quando impiegata nel processo. In particolare, quando ad essa si debba richiedere di redigere, depositare, notificare, scrutinare atti processuali oppure articolare, ammettere e valutare prove oppure ancora giudicare, decidere, motivare, impugnare.

Imitare il pensiero umano dovrebbe significare capacità di combinare quanto meno logica ed empatia. In prima approssimazione potremmo affermare che è solo un problema di tempo e di stato di avanzamento della tecnologia. “Prima o poi, qualcuno lo inventerà”. Del resto, osserva Nieva Fenoll, «è sbagliato dire che qualcosa non è tecnologicamente fattibile, poiché la scienza in un termine più o meno lungo finisce per smentire tale affermazione. Quello che ieri era impossibile dopodomani è possibile».

Lo stesso autore, però, conviene subito dopo che «alcune cose sono davvero impraticabili e, sebbene con molta cautela, è necessario esserne consapevoli per non chiedere all’intelligenza artificiale ciò che non può offrire». Quali sono queste “cose davvero impraticabili”? Che cosa l’intelligenza artificiale “non può offrire”?

Invero, il pensiero umano non è stato ancora spiegato esaustivamente, dal momento che gli stessi scienziati ammettono l’esistenza di zone inesplorate del cervello e di potenzialità vastissime ancora inespresse. A dirla tutta, c’è anche contrasto di opinioni sul fatto che le emozioni siano ontologicamente strutturate in noi fin da quando nasciamo; sostiene autorevolmente qualcuno, infatti, che il nostro cervello edifichi di volta in volta le emozioni e il loro significato a seconda del contesto di riferimento e che, quindi, l’intensità emozionale rappresenti il frutto di esperienze, che a loro volta ci consentono di fare predizioni [6]. L’intelligenza robotica dovrebbe imitare un quid del quale si hanno poche certezze scientifiche.

Ammettiamo, tuttavia, che ciò sia possibile, non oggi ma domani, e pensiamo al giudice. Senza considerare, come già detto, l’amore (ma anche l’odio, il risentimento, l’inimicizia) che valgono come cause di ricusazione, «è un bene o un male» che egli decida seguendo le proprie emozioni (come anche il nostro autore si domanda)? Dovremmo essere portati a rispondere che è un bene, perché le emozioni denotano umanità e una decisione umana appare più giusta. Potremmo, però, anche essere indotti a rispondere che è un male, perché il giudizio non sarebbe del tutto imparziale. E dunque, quando rifiutiamo le “decisioni robotiche” in quanto prive di emozioni ci collochiamo nella prima prospettiva, quando le propugniamo ci poniamo nella seconda. Il dibattito sulla intelligenza artificiale è intriso di queste considerazioni, in cui si dice e si disdice, si asseriscono punti fermi e si ammette la possibilità di superarli. Le contraddizioni fioccano, perché, a ben vedere, ciò che prima di tutto non è ancora fino in fondo chiaro è come funziona il “pensiero umano”, mentre se e come questo possa essere imitato è un problema successivo [7].

3. Quanto fa “tre più tre”?

Ciò non toglie che, come tutti sanno, l’intelligenza artificiale conosca utilissime applicazioni al processo: banche dati per la ricerca giurisprudenziale, programmi di gestione dell’udienza, sistemi esperti in tema di ammissione e valutazione della prova o di esperimento dell’esecuzione forzata, e molto altro ancora. Per adesso si tratta di ausili o metodi integrativi, non del tutto sostitutivi dell’uomo. Ben presto, a quanto pare, potrebbe avvenire il salto. Di qui i timori, le perplessità, lo scetticismo oppure, al contrario, gli entusiasmi.

In molti casi questo è auspicabile: nelle cause ripetitive, semplici e di modesta entità, «dove spesso è sufficiente la mera allegazione del fatto e di una produzione documentale priva dei crismi formali e dove è rara l’opposizione del soggetto intimato» [8]. O è possibile: nella individuazione di parametri di credibilità di un testimone, secondo gli approdi raggiunti dalla cd. psicologia della testimonianza. O addirittura è già compiuto: nella realizzazione di «programmi che aiutano a ricostruire i fatti sulla base degli indizi che in precedenti casi hanno svolto un ruolo fondamentale nella ricerca» [9].

Un programma di intelligenza artificiale, quale che sia, è certamente più veloce di un essere umano nella risoluzione di problemi che presentano dati identici o omogenei o anche soltanto simili. Il metodo logico e statistico permette di elaborare soluzioni rapidissime con un certo grado di attendibilità sulla base dell’analisi di milioni di elementi. Nessun soggetto coinvolto nel processo se ne potrebbe lamentare: né l’avvocato, né gli ausiliari del giudice, né il giudice stesso. Non se ne potrebbero lamentare gli utenti del servizio giustizia. Si riducono i costi e i tempi, si aumenta il livello di certezza.

Senza giungere ad affermare, come prefigurato da Nieva Fenoll, «l’abolizione delle regole di competenza territoriale, a favore di regole di distribuzione del lavoro giurisdizionale fondate su criteri oggettivi», stante la garanzia di cui all’art. 25 Cost., si potrebbero automatizzare molte delle eccezioni processuali generalmente risolte nella prima udienza (mancanza di capacità di agire in caso di minore età, difetto di rappresentanza, sussistenza di precedente giudicato, litispendenza) [10].

Un sistema stabile e certo consente di fare predizioni altrettanto stabili e certe circa l’esito del processo. Permette di effettuare calcoli e di evitare errori (quelli umani, almeno). La conoscenza anticipata del risultato ci induce a fare scelte opportune in vista del perseguimento dei nostri interessi. È logico che sia così.

Ma siamo convinti di volere solo una giustizia logica? In fondo, la risposta corretta alla domanda “quanto fa tre più tre” non è soltanto “sei”, ma anche “tre per due” oppure “uno più uno più uno più uno più uno più uno” [11]. Se è vero che il risultato non cambia, è anche vero che ogni risposta presenta sfumature diverse, che denotano una volontà di sintesi oppure di analisi, un atteggiamento di autoesaltazione oppure di umiltà, e così via.

4. Giustizia logica, giustizia fluida

Nieva Fenoll traccia virtù e limiti dell’intelligenza artificiale applicata al processo, concentrando l’attenzione soprattutto sull’attività del giudice. A questo proposito, egli osserva: «In breve, giudicare è una combinazione di conoscenza, formulazione e verifica di ipotesi, uso di euristiche e applicazione di emozioni per adattare la giustizia al caso concreto. Tutto questo è relativamente semplice da spiegare in astratto, ma è molto complesso da applicare, specialmente considerando solo variabili statistiche, difficili da combinare in un modo completamente – o almeno sufficientemente – prevedibile, che è poi quello di cui ha bisogno l’intelligenza artificiale per funzionare correttamente» [12].

Così, non è sempre agevole applicare il metodo statistico alla valutazione del periculum in mora (insolvenza, rischio di distruzione delle prove, rischio di fuga); alla ammissione e valutazione della prova costituenda (circostanze ambientali [13]; parametri [14]; formulazione delle domande [15]; applicazione delle neuroscienze [16]), della prova documentale [17], della prova peritale [18]; alla motivazione della sentenza [19]. E anche quando è possibile, il risultato sarà sempre e solo esprimibile in termini di probabilità, più o meno alta. Anche l’uso di parametri comparativi può rivelare la sua fallacia, poiché un caso non è mai perfettamente uguale all’altro e anche quando presenta caratteristiche in tutto omogenee ad un precedente, la decisione sarà inevitabilmente sempre misurata sulla specifica situazione sostanziale dedotta in giudizio.

Invero, non si deve mai dimenticare che il processo è uno strumento per l’attuazione dei diritti; che dietro la richiesta di tutela giurisdizionale si cela un affanno; che la decisione, poiché separa, genera ulteriore affanno. La logica e la statistica aiutano, ma si rivelano inadeguati rispetto alla vicenda umana sottesa. Per questo occorre la valutazione e il controllo di un essere umano. È una questione di piani e prospettive se si vuole: come soltanto la macchina può esaustivamente recepire e rielaborare l’informazione acquisita da un’altra macchina, così soltanto l’uomo può fino in fondo ascoltare e comprendere l’istanza di un altro uomo.

Dietro l’idea della sostituzione dell’uomo con la macchina si celano modi diversi di perseguire valori ed esigenze che mettono tutti d’accordo, quali la certezza del diritto e la prevedibilità delle decisioni, che a loro volta generano affidamento e stabilità del sistema. Sono dimensioni del giusto processo e, prima ancora, dello Stato di diritto.

Ora, nessuno può dubitare che il processo è giusto se è assistito da regole predeterminate circa modi, forme e termini della sua instaurazione, del suo svolgimento e della sua conclusione e, comunque, dà garanzie irrinunciabili di trasparenza e imparzialità. Anche la macchina è in grado di offrire predeterminazione e garanzie. E tuttavia, il processo è giusto anche se porta ad una soluzione della controversia equa o adeguata al concreto bisogno di tutela fatto valere o alla protezione di un determinato bene. Tutto sta a decidere se si vuole andare nella direzione di una giustizia soltanto statistica e logica oppure (anche) umanamente fluida.

5. Giustizia predittiva robotica

Orbene, la fluidità che qui si invoca non corrisponde ad arbitrio, a disordine, a libero creazionismo, bensì ad un sistema che, stabilite democraticamente in anticipo le regole, sappia ciononostante adattarsi ai mutamenti del contesto di riferimento.

Invero, la “positivizzazione” della norma reca inevitabilmente in sé equivocità e relatività.

Univoca, infatti, è solo l’interpretazione data, in quanto presuppone l’esercizio di una precisa scelta; tuttavia, l’univocità della norma che scaturisce dalla interpretazione si perde nel momento in cui essa, “positivizzandosi”, diventa nuovamente testo [20]. Si tratta di un aspetto necessario e prezioso, perché è proprio l’equivocità che consente l’adeguamento continuo alla realtà mutevole: al mutare del contesto, nuove norme possono essere formulate che, a loro volta, si porranno come testo. In altri termini, tanto il testo quanto la norma nuova “positivizzata” costituiscono “seme” in attesa di essere fecondato da una nuova interpretazione [21].

Relativa è la “norma” che nasce e vive con riferimento a un caso concreto. La sua universalizzazione necessita che la valutazione effettuata con riferimento a un determinato caso sia esportabile a casi simili, attraverso un riscontro di somiglianza, rimesso ai giudici dei successivi processi, del caso nuovo con quello già deciso.

Tutto ciò può esprimersi dicendo che la giurisprudenza è “fonte” in un senso molto diverso dalla legge. Il diritto da essa prodotto, infatti, non è generale e astratto, bensì particolare e concreto [22].

Ciò non toglie che un sistema fondato sul rispetto dei precedenti giurisprudenziali favorisca il perseguimento dell’esigenza di prevedibilità delle decisioni, che, a sua volta, rappresenta una più specifica declinazione del principio di certezza del diritto. L’uniformità interpretativa risponde al canone di eguaglianza di cui all’art. 3 Cost. e genera stabilità e affidamento [23].

Certezza e prevedibilità non significano, però, aritmetica calcolabilità. Il giudizio non si compie soltanto attraverso la fredda applicazione della legge al caso concreto ed il giudice non è puro strumento di applicazione meccanica del contenuto della legge. «Interpretare significa esplicare, adattare, completare» [24], esercitare un’opzione valutativa. E poiché i fatti da accertare sono incalcolabili, gli esiti istruttori non sempre prevedibili e i valori o la loro percezione suscettibili di mutare nel tempo e nello spazio, nessuna precisa calcolabilità è predicabile [25].

Ciò è vero per un sistema tutto umano, non meno che per uno robotico.

Se poi pensiamo a clausole generali, norme elastiche, concetti indeterminati, aspettarsi dalla macchina una prevedibile applicazione è alquanto illusorio. Quali algoritmi potrebbero mai essere elaborati?

Discorso non dissimile potrebbe farsi con riferimento alla qualificazione della natura costitutiva o impeditiva di un fatto ai fini della distribuzione dell’onere probatorio o per l’individuazione dei contenuti di una equità robotica.

Il tema della prevedibilità, per meglio dire della predittività robotica, resta comunque ampiamente aperto e meritevole di approfondimento.

Il pre-dire sembra qualcosa di più potente del pre-vedere poiché “dire prima” comporta una preventiva acquisizione del risultato e non una semplice, per quanto una ragionevole, aspettativa di acquisizione [26]. La pro-fezia proveniente da un automa dovrebbe assicurare risultati ancora più certi in quanto emessa sulla base di appositi algoritmi. Se non di formule magiche, si tratta di «una sorta di giustizia anticipata», come ci spiega chi si è occupato di redigere la voce enciclopedica “Giustizia predittiva”, il quale, però, allo stesso tempo si preoccupa di riportare il discorso sul piano della meno certa prevedibilità [27].

Come in altra sede messo in evidenza, però, predittività e prevedibilità sono aspetti o declinazioni della medesima esigenza di certezza del diritto [28], che giammai, né a livello umano né a livello robotico, potrebbero anticipare il risultato del processo con precisione puntuale [29]. Le variabili, come anticipato, sono incalcolabili.

6. Dietro gli algoritmi c’è sempre l’uomo

Stando così le cose, si deve essere pronti a scegliere, consapevoli dei benefici e dei costi dell’una e dell’altra scelta.

Un sistema processuale totalmente robotico manda avvocati e giudici in vacanza, ma sembra idoneo a promuovere sviluppo e uguaglianza [30] e ad assicurare efficacia, efficienza e celerità. Sembra poter contribuire, in particolare, al deflazionamento del contenzioso, poiché, infatti, quanto maggiore è la previa conoscenza dei dati incidenti sul possibile esito del processo, tanto più cauto è l’accesso alle corti e tanto più ponderata (e spesso auspicabile) la ricerca di soluzioni stragiudiziali [31].

Dietro gli algoritmi, tuttavia, agisce sempre l’uomo, che gli algoritmi elabora e riempie.

Nulla esclude che al posto della autorevolezza delle decisioni e della rilevanza giuridica i programmi deputati alla previsione e alla decisione sia infarciti di elementi tutt’altro che improntati al principio di eguaglianza [32]. Anche se si conoscessero in anticipo i contenuti e il funzionamento degli algoritmi e si garantisse la massima trasparenza, si rischierebbe comunque di favorire una logica “proprietaria” del processo, dove i signori della profezia sarebbero programmatori e società investitrici nel business del legal tech.

Nulla esclude che si attui un processo fondato sulla profilazione dei contendenti (come accade negli Usa, con l’utilizzo del programma Compas) [33] e su quella dei giudici.

Nulla esclude che, superato ogni rischio di errore umano, si apra la strada ad un nuovo universo di errori robotici, a nuovi scenari in tema di rimedi esperibili, a incerte opzioni sulle responsabilità ascrivibili.

7. Stupidità artificiale e autocoscienza

Un’ultima notazione.

A pagina 21 della monografia di Nieva Fenoll si legge che «l’intelligenza artificiale contribuisce e dovrebbe contribuire (e non certo essere un freno) all’evoluzione del diritto e deve anche essere utile per scoprire e superare gli errori più frequenti del nostro pensiero». Non so se davvero sia così.

Sta di fatto che mi sono ritrovato più volte a dire tra me e me, scrivendo e prendendo appunti: “Il computer è stupido”. Forse (lo spero) è capitato anche ad altri [34]. Questo perché pretendevo che il computer intuisse le mie intenzioni. Poi ho creduto che in effetti fosse impossibile. Ho infine appreso che l’attuale livello raggiunto dalla robotica permette alla macchina di compiere operazioni comandate tramite il pensiero [35].

Il punto è proprio questo: il robot agisce in base ad un pensiero che non è il suo, pensa un pensiero che non gli appartiene, un pensiero elargitogli dall’uomo; se si vuole si può dire che pensa un passato senza futuro, perché il futuro si costruisce partendo sì dall’esperienza (ammesso che il robot sia in grado di maturarla), ma anche dalla comprensione del significato e delle conseguenze, anche in termini etici, delle azioni che si compiono. Ma per fare questo occorre anche un’autocoscienza.



[1] Cfr. K. Čapek, I robot universali di Rossum, 1920 (ma sembra che il termine sia stato coniato ben prima: vds. i riferimenti in V. Curtoni, Robot64, Milano, 2012).

[2] Come branca della meccatronica.

[3] Inteligencia artificial y proceso judicial, 2018, trad. in italiano da P. Comoglio, Intelligenza artificiale e processo, Giappichelli, Torino, 2019.

[4] J. Nieva Fenoll, op. cit., p. 8.

[5] Cfr. M. Sensale, Ventisette domande de jure condito sul matrimonio con i robot (Lectio doctoralis su Rapporto uomo-robot: nuove frontiere dell’affettività, tenuta presso l’Università Suor Orsola Benincasa a Napoli il 2 maggio 2018).

[6] Cfr. L. Feldman Barret, Ten common misconceptions about psychological construction theories of emotion, in The Psychological Construction of Emotion, a cura di L. Feldman Barrett, J.A. Russell, New York: Guilford Press, 2015, pp. 45 ss.

[7] Cfr. A. Garapon e J. Lassègue,, Justice digitale, Paris, 2018, che, nel dedicare un capitolo di questo interessante volume, dove si analizzano molteplici aspetti dell’avvento del digitale nei sistemi giuridici e giudiziari e delle trasformazioni che esso può indurre, al tema delle “emozioni” dei giudici robot, si domandano: «Juges inanimes, aves-vouz une âme?» (pp. 195 ss.).

[8] Così, ad esempio, già accade in Estonia per le controversie di valore inferiore ai 7.000,00 euro. Cfr. A. Bassoli, L'intelligenza artificiale applicata alla giustizia: i giudici-robot, in www.altalex.com, 7 giugno 2019. Vds. anche quanto previsto dal Final Report a cura di Lord Justice Briggs, a proposito delle cd. Online Courts (in Civil Courts Structure Review: Final Report, by Lord Justice Briggs, Judiciary of England and Wales, 2016, pp. 36 ss.).

[9] J. Nieva Fenoll, op. cit., pp. 14 ss.

[10] J. Nieva Fenoll, op. cit., p. 23.

[11] L’esempio non è né casuale né inventato, ma è tratto da un celebre aneddoto riportato da H. Von Foerster a proposito del brutto voto riportato dal figlio a scuola per avere risposto a quella domanda “tre per due”, invece che “sei”. Se ne ritrova menzione in U. Morelli, Creatività e innovazione, relazione svolta a Bergamo in occasione del Convegno Giovani Motori, in http://www.ugomorelli.eu/doc/giovanimotori.pdf.

[12] J. Nieva Fenoll, op. cit., p. 46.

[13] J. Nieva Fenoll, op. cit., pp. 72 ss.

[14] J. Nieva Fenoll, op. cit., p. 76.

[15] J. Nieva Fenoll, op. cit., p. 78.

[16] J. Nieva Fenoll, op. cit., p. 80.

[17] J. Nieva Fenoll, op. cit., pp. 81 ss.

[18] J. Nieva Fenoll, op. cit., pp. 83 ss.

[19] J. Nieva Fenoll, op. cit., pp. 90 ss.

[20] Sulla distinzione tra “disposizione” (come enunciato letterale) e “norma” (come significato attribuito dagli interpreti all’enunciato), vds. V. Crisafulli, Disposizione (e norme), voce dell’Enc. dir., XIII, Milano, 1964, 195. Successivamente, vds. S. Satta, in Studi in memoria di T. Ascarelli, IV, Milano, 1969, 1988 e F. Roselli, Il principio di effettività e la giurisprudenza come fonte del diritto, in Riv. dir. civ., 1998, pp. 25 ss.

[21] Cfr. T. Ascarelli, Giurisprudenza costituzionale e teoria dell’interpretazione, in Riv. dir. proc., 1957, pp. 352 ss.

[22] D. Dalfino, Giurisprudenza “creativa” e prevedibilità del “diritto giurisprudenziale”, in Giusto proc. civ., 2017, p. 1030.

[23] D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it., 2018, V, pp. 385 ss. (§ 3).

[24] G. Pacchioni, I poteri creativi della giurisprudenza, in Riv. dir. comm., 1912, p. 41.

[25] D. Dalfino, op. loc. cit.

[26] D. Dalfino, op. cit., § 4.

[27] L. Viola, Giustizia predittiva, voce dell’Enc. giur. Treccanionline, 2018.

[28] D. Dalfino, op. loc. cit.

[29] Cfr. C. Castelli e D. Piana, Giustizia predittiva. La qualità della giustizia in due tempi, in questa Rivista on-line, 15 maggio 2018, § 1, che parlano, infatti, di predizione «focale e non puntuale».

[30] Traguardi perseguiti dalle Nazioni Unite nell’obiettivo 16 (Pace, giustizia e istituzioni solide) dell’Agenda 2030, a loro volta declinati, tra gli altri, sotto il profilo della garanzia di accesso per tutti alla giustizia e di un pubblico accesso all’informazione, ferma restando la protezione delle libertà fondamentali. Cfr. http://unric.org/it/agenda-2030/30812-obiettivo-16-pace-giustizia-e-istituzioni-forti.

[31] D. Dalfino, op. cit., § 4.1.

[32] In realtà, la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti, approvata il 4 dicembre 2018 dalla CEPEJ, tra gli altri principi (rispetto dei diritti fondamentali; qualità e sicurezza; trasparenza; garanzia dell’intervento umano) enuncia quello di non discriminazione.

[33] V. Wisconsin Supreme Court, 13 luglio 2016, State vs. Loomis, case n. 2015AP157-CR, in 130 Harv. L. Rev. 1530.

[34] È capitato evidentemente anche ad Umberto Eco se nella prefazione al libro Come scrivere una tesi di laurea di laurea con il personal computer di Claudio Pozzoli ha scritto che «Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti».

[35] Cfr. R. Andersen, La macchina delle intenzioni, in Le Scienze, fasc. 6/2019,pp. 36 ss.

03/07/2019
Altri articoli di Domenico Dalfino
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Intelligenza artificiale e pace. Messaggio di Papa Francesco per la 57esima Giornata Mondiale della Pace
a cura di Redazione

In occasione della Giornata mondiale della Pace, pubblichiamo un documento di grande valore, il messaggio di Papa Francesco dal titolo Intelligenza artificiale e pace, con l'augurio a tutti di un nuovo anno sereno. 

01/01/2024
Nuove tecnologie e giustizia

Mentre l’accordo tra il Parlamento Europeo e il Consiglio per l’adozione dell’Artificial Intelligence Act è ormai realtà, l’Autrice si muove all’intersezione tra giustizia e tecnologia, esplora sfide opportunità e rischi della digitalizzazione dei sistemi giudiziari, auspica che i giudici siano interpreti e guida della rivoluzione dell’intelligenza artificiale.

19/12/2023
Tra giurisdizionalizzazione e politicizzazione. La percezione dei magistrati della riforma dell’ordinamento giudiziario

Obiettivo del presente contributo è fornire una lettura socio-giuridica sulle riflessioni emerse dalla ricerca in merito ad alcuni aspetti della riforma dell’ordinamento giudiziario. Il dibattito attorno alla riforma, oltre a riscuotere ampia risonanza mediatica, è un tema particolarmente rilevante per i magistrati stessi, sia per via delle ricadute sulla quotidianità lavorativa, sia, più in generale, per l’impatto sulla rappresentazione sociale di tale ruolo. Il processo di riforma tocca infatti alcune questioni sostanziali in tema di organizzazione giudiziaria, con effetti sulla separazione dei poteri, sull’autonomia del magistrato stesso e, in termini più generali, sul rapporto tra magistrati e politica.

02/11/2023
Giustizia digitale e giudizio. La lunga strada dell’innovazione alla prova della Costituzione

Intervento conclusivo del convegno Intelligenza artificiale, giustizia e diritti umani organizzato il 20 settembre 2022 da Magistratura democratica in collaborazione con la Fondazione Forense di Padova, il Dipartimento di Diritto pubblico, internazionale e comunitario e il Dipartimento di diritto privato e critica del diritto dell’Università degli Studi di Padova

13/10/2022
La procedura tabellare per l’adozione del documento organizzativo delle Procure della Repubblica: un ritorno al passato o un ponte verso il futuro?

Sin dall’avvio del regime repubblicano, il percorso legislativo sul posizionamento del pubblico ministero nell’ordinamento e sulle prerogative del Procuratore della Repubblica, nelle sue funzioni apicali, si è rivelato non privo d’ambiguità. Il Consiglio Superiore della Magistratura, con i suoi poteri di normazione secondaria, nel tentativo di ricucire talune contraddizioni del tessuto legislativo, ha provato a valorizzare, in particolare nella fase successiva alle riforme del 2006, letture coerenti ai principi della Costituzione. Ne sono derivati segnali ritenuti meritevoli d’attenzione nelle recenti scelte compiute dal legislatore. Con la legge n. 134 del 27 settembre 2021 il governo è stato, infatti, delegato ad “allineare la procedura di approvazione dei progetti organizzativi delle procure della Repubblica a quella delle tabelle degli uffici giudicanti”. Nel disegno di legge delega AC-2681 vengono almeno in parte riprese alcune soluzioni elaborate dal CSM (accentuazione del principio di collaborazione tra gli uffici, contenuto minimo del progetto organizzativo). Dietro tali consegne al legislatore delegato, si delinea la possibilità di raccordare in termini più pregnanti gli assetti organizzativi di uffici inquirenti e giudicanti nei settori di comune interesse, di declinare le funzioni dei dirigenti in armonia con il percorso tracciato in sede di elaborazione normativa del CSM, in termini conformi alla Costituzione. L’elaborazione normativa in corso, tuttavia, appare poco lineare, probabilmente disturbata da pregiudizi “ideologici” sul ruolo del pubblico ministero, cosicché i suggerimenti proposti spesso si rivelano tra loro contraddittori.  Se, ad esempio, la verifica del progetto organizzativo rimessa al CSM,  induce a ritenere che più facilmente si possa conseguire il risultato di indirizzare il dinamismo operativo delle Procure della Repubblica al recupero in chiave moderna del senso del diritto e del processo penale,  l’intromissione del Ministro di Giustizia, cui si vuol attribuire la facoltà di osservazioni al progetto organizzativo, i conseguenti potenziali conflitti con l’autorità giudiziaria, l’accentuazione di percorsi professionali definitivamente differenziati tra pm e giudici potrebbero, almeno in astratto, vanificare (se non porsi in contraddizione con) tale spunto di modernità con l’inganno di risolvere la problematicità dell’assetto ordinamentale del pubblico ministero nella sua separazione dal giudice.

28/04/2022
Giustizia predittiva

Sommario: 1. I timori - 2. L’automatismo delle decisioni ha anche pregi? - 3. Predittività e prevedibilità - 4. Le prospettive e potenzialità della giustizia predittiva - 5. I progetti in corso

08/02/2022
Il leading role della giurisprudenza comparata in materia di discriminazioni algoritmiche subite dai lavoratori della gig economy

L’utilizzo di algoritmi decisionali nell’organizzazione del lavoro relativo alle piattaforme di intermediazione lavorativa presenta non pochi rischi di discriminazione ai danni dei lavoratori. In Europa, la giurisprudenza anticipa le prese di posizione dei Legislatori nazionali, in attesa di una regolamentazione da parte dell’Unione del ricorso all’Intelligenza Artificiale anche in questo campo.

11/11/2021
Lo studio di fattibilità di un nuovo quadro normativo sulla concezione, lo sviluppo e l’applicazione dei sistemi di Intelligenza Artificiale sulla base delle norme del Consiglio d’Europa. Il lavoro del Comitato ad hoc sull’intelligenza artificiale del CdE

Nel corso della sua terza riunione plenaria, il 15-17 Dicembre 2020, il Comitato Ad hoc sull’intelligenza artificiale del Consiglio d’Europa (CAHAI) ha adottato all’unanimità lo studio di fattibilità di un quadro normativo sulla concezione, lo sviluppo e l’applicazione dell’intelligenza artificiale (IA) fondato sulle norme del Consiglio d’Europa in materia di diritti dell’Uomo, democrazia e stato di diritto, così realizzando un compito primario del suo mandato. Lo studio di fattibilità espone le ragioni della necessità di un tale quadro normativo (I), iniziando al contempo una riflessione sui suoi elementi costitutivi (II), che il CAHAI si propone di affinare nel 2021, in vista della presentazione delle sue conclusioni al Comitato dei Ministri del Consiglio d’Europa. Tale istanza prenderà la decisione finale sullo strumento giuridico internazionale che sarà elaborato a partire dal 2022: tra le diverse opzioni possibili, quella di un trattato internazionale (III). 

28/04/2021