home search menu
Stupidità (non solo) artificiale, predittività e processo
Prassi e orientamenti
Stupidità (non solo) artificiale, predittività e processo
di Domenico Dalfino
ordinario di diritto processuale civile, Università degli studi di Bari “Aldo Moro”
Alcune considerazioni critiche a partire dallo studio di Jordi Nieva Fenoll su Intelligenza artificiale e processo

1. Mode, tendenze, vanità personali

Negli ultimi anni si sta parlando moltissimo delle connessioni tra intelligenza artificiale e processo. Nelle molteplici declinazioni del discorso compaiono quasi sempre i termini robot, quale espressione di macchina (non più solo servente [1], ma appunto soprattutto) intelligente, e robotica, non come sostantivo [2] bensì attributo della giustizia o della decisione e, perciò, della giustizia o della decisione intelligente artificiale.

Si riscontra, invero, una certa devozione alle citazioni dotte. Non è infrequente che gli interventi si riempiano di altisonanti richiami ad illustri autori del passato, qualche volta nel tentativo di stupire per essere riusciti a scovare quello che nessun altro prima aveva scovato. Una caccia alla chicca, insomma. Di tutte queste citazioni, poche sono veramente pertinenti, molte necessiterebbero, per essere utili, di ben altro sviluppo e approfondimento.

Sta di fatto che, al netto di mode, tendenze e vanità personali, il tema è molto serio e merita di essere studiato, certamente non sottovalutato, se non altro perché riguarda un fenomeno concretamente in atto. Lo ha capito molto bene J. Nieva Fenoll che, nel suo recente e pregevole lavoro [3], lungi dall’affidarsi a luoghi comuni e preconcetti, si interroga analiticamente sulle applicazioni dell’intelligenza artificiale al processo e sulle conseguenze di tali applicazioni.

Nelle pagine che seguono dedicherò alcune considerazioni critiche alle conclusioni raggiunte dall’autore nel citato volume e volgerò lo sguardo allo specifico profilo della predittività, tema che pure ormai pervade l’interesse di molti giuristi per la sua stretta correlazione con quello della intelligenza artificiale.

2. Come il pensiero umano

In maniera metodologicamente ineccepibile, nelle prime pagine Nieva Fenoll si preoccupa di precisare cosa si debba intendere per intelligenza artificiale: «Non esiste un consenso completo su cosa significhi il termine “intelligenza artificiale”, ma si potrebbe affermare che tale termine descriva la possibilità che le macchine, in una certa misura, “pensino”, o piuttosto imitino il pensiero umano, basato sull’apprendimento e sull’utilizzazione di generalizzazioni, che le persone usano per prendere le decisioni quotidiane» [4]. La macchina, in altre parole, è intelligente se e nei limiti in cui sia in grado di pensare come un essere umano. L’intelligenza starebbe non tanto nel fatto di saper “pensare”, ma di essere in grado di “pensare imitando” il pensiero dell’uomo.

In realtà, la domanda preliminare a tutte le altre dovrebbe essere come quest’ultimo funziona. È sufficiente dire che il pensiero biologico è fatto di ragionamento, pianificazione, percezione, apprendimento, comunicazione e così via? Se così fosse, una macchina, per essere intelligente, dovrebbe essere in grado di svolgere tutte queste attività.

Che dire, poi, delle emozioni? Uno dei principali argomenti sostenuti dai detrattori dell’intelligenza artificiale consiste proprio nell’affermare la totale incapacità del robot di emozionarsi, provando rabbia, dolore, risentimento, gioia, odio, amore e così via. Tralasciando l’aspetto dell’amore, che ci porterebbe su lidi, per niente fantascientifici, ma lontani (almeno per il momento) [5] rispetto al tema in parola, vale la pena verificare se sia necessario o anche solo opportuno che la macchina esprima una qualche emozione quando impiegata nel processo. In particolare, quando ad essa si debba richiedere di redigere, depositare, notificare, scrutinare atti processuali oppure articolare, ammettere e valutare prove oppure ancora giudicare, decidere, motivare, impugnare.

Imitare il pensiero umano dovrebbe significare capacità di combinare quanto meno logica ed empatia. In prima approssimazione potremmo affermare che è solo un problema di tempo e di stato di avanzamento della tecnologia. “Prima o poi, qualcuno lo inventerà”. Del resto, osserva Nieva Fenoll, «è sbagliato dire che qualcosa non è tecnologicamente fattibile, poiché la scienza in un termine più o meno lungo finisce per smentire tale affermazione. Quello che ieri era impossibile dopodomani è possibile».

Lo stesso autore, però, conviene subito dopo che «alcune cose sono davvero impraticabili e, sebbene con molta cautela, è necessario esserne consapevoli per non chiedere all’intelligenza artificiale ciò che non può offrire». Quali sono queste “cose davvero impraticabili”? Che cosa l’intelligenza artificiale “non può offrire”?

Invero, il pensiero umano non è stato ancora spiegato esaustivamente, dal momento che gli stessi scienziati ammettono l’esistenza di zone inesplorate del cervello e di potenzialità vastissime ancora inespresse. A dirla tutta, c’è anche contrasto di opinioni sul fatto che le emozioni siano ontologicamente strutturate in noi fin da quando nasciamo; sostiene autorevolmente qualcuno, infatti, che il nostro cervello edifichi di volta in volta le emozioni e il loro significato a seconda del contesto di riferimento e che, quindi, l’intensità emozionale rappresenti il frutto di esperienze, che a loro volta ci consentono di fare predizioni [6]. L’intelligenza robotica dovrebbe imitare un quid del quale si hanno poche certezze scientifiche.

Ammettiamo, tuttavia, che ciò sia possibile, non oggi ma domani, e pensiamo al giudice. Senza considerare, come già detto, l’amore (ma anche l’odio, il risentimento, l’inimicizia) che valgono come cause di ricusazione, «è un bene o un male» che egli decida seguendo le proprie emozioni (come anche il nostro autore si domanda)? Dovremmo essere portati a rispondere che è un bene, perché le emozioni denotano umanità e una decisione umana appare più giusta. Potremmo, però, anche essere indotti a rispondere che è un male, perché il giudizio non sarebbe del tutto imparziale. E dunque, quando rifiutiamo le “decisioni robotiche” in quanto prive di emozioni ci collochiamo nella prima prospettiva, quando le propugniamo ci poniamo nella seconda. Il dibattito sulla intelligenza artificiale è intriso di queste considerazioni, in cui si dice e si disdice, si asseriscono punti fermi e si ammette la possibilità di superarli. Le contraddizioni fioccano, perché, a ben vedere, ciò che prima di tutto non è ancora fino in fondo chiaro è come funziona il “pensiero umano”, mentre se e come questo possa essere imitato è un problema successivo [7].

3. Quanto fa “tre più tre”?

Ciò non toglie che, come tutti sanno, l’intelligenza artificiale conosca utilissime applicazioni al processo: banche dati per la ricerca giurisprudenziale, programmi di gestione dell’udienza, sistemi esperti in tema di ammissione e valutazione della prova o di esperimento dell’esecuzione forzata, e molto altro ancora. Per adesso si tratta di ausili o metodi integrativi, non del tutto sostitutivi dell’uomo. Ben presto, a quanto pare, potrebbe avvenire il salto. Di qui i timori, le perplessità, lo scetticismo oppure, al contrario, gli entusiasmi.

In molti casi questo è auspicabile: nelle cause ripetitive, semplici e di modesta entità, «dove spesso è sufficiente la mera allegazione del fatto e di una produzione documentale priva dei crismi formali e dove è rara l’opposizione del soggetto intimato» [8]. O è possibile: nella individuazione di parametri di credibilità di un testimone, secondo gli approdi raggiunti dalla cd. psicologia della testimonianza. O addirittura è già compiuto: nella realizzazione di «programmi che aiutano a ricostruire i fatti sulla base degli indizi che in precedenti casi hanno svolto un ruolo fondamentale nella ricerca» [9].

Un programma di intelligenza artificiale, quale che sia, è certamente più veloce di un essere umano nella risoluzione di problemi che presentano dati identici o omogenei o anche soltanto simili. Il metodo logico e statistico permette di elaborare soluzioni rapidissime con un certo grado di attendibilità sulla base dell’analisi di milioni di elementi. Nessun soggetto coinvolto nel processo se ne potrebbe lamentare: né l’avvocato, né gli ausiliari del giudice, né il giudice stesso. Non se ne potrebbero lamentare gli utenti del servizio giustizia. Si riducono i costi e i tempi, si aumenta il livello di certezza.

Senza giungere ad affermare, come prefigurato da Nieva Fenoll, «l’abolizione delle regole di competenza territoriale, a favore di regole di distribuzione del lavoro giurisdizionale fondate su criteri oggettivi», stante la garanzia di cui all’art. 25 Cost., si potrebbero automatizzare molte delle eccezioni processuali generalmente risolte nella prima udienza (mancanza di capacità di agire in caso di minore età, difetto di rappresentanza, sussistenza di precedente giudicato, litispendenza) [10].

Un sistema stabile e certo consente di fare predizioni altrettanto stabili e certe circa l’esito del processo. Permette di effettuare calcoli e di evitare errori (quelli umani, almeno). La conoscenza anticipata del risultato ci induce a fare scelte opportune in vista del perseguimento dei nostri interessi. È logico che sia così.

Ma siamo convinti di volere solo una giustizia logica? In fondo, la risposta corretta alla domanda “quanto fa tre più tre” non è soltanto “sei”, ma anche “tre per due” oppure “uno più uno più uno più uno più uno più uno” [11]. Se è vero che il risultato non cambia, è anche vero che ogni risposta presenta sfumature diverse, che denotano una volontà di sintesi oppure di analisi, un atteggiamento di autoesaltazione oppure di umiltà, e così via.

4. Giustizia logica, giustizia fluida

Nieva Fenoll traccia virtù e limiti dell’intelligenza artificiale applicata al processo, concentrando l’attenzione soprattutto sull’attività del giudice. A questo proposito, egli osserva: «In breve, giudicare è una combinazione di conoscenza, formulazione e verifica di ipotesi, uso di euristiche e applicazione di emozioni per adattare la giustizia al caso concreto. Tutto questo è relativamente semplice da spiegare in astratto, ma è molto complesso da applicare, specialmente considerando solo variabili statistiche, difficili da combinare in un modo completamente – o almeno sufficientemente – prevedibile, che è poi quello di cui ha bisogno l’intelligenza artificiale per funzionare correttamente» [12].

Così, non è sempre agevole applicare il metodo statistico alla valutazione del periculum in mora (insolvenza, rischio di distruzione delle prove, rischio di fuga); alla ammissione e valutazione della prova costituenda (circostanze ambientali [13]; parametri [14]; formulazione delle domande [15]; applicazione delle neuroscienze [16]), della prova documentale [17], della prova peritale [18]; alla motivazione della sentenza [19]. E anche quando è possibile, il risultato sarà sempre e solo esprimibile in termini di probabilità, più o meno alta. Anche l’uso di parametri comparativi può rivelare la sua fallacia, poiché un caso non è mai perfettamente uguale all’altro e anche quando presenta caratteristiche in tutto omogenee ad un precedente, la decisione sarà inevitabilmente sempre misurata sulla specifica situazione sostanziale dedotta in giudizio.

Invero, non si deve mai dimenticare che il processo è uno strumento per l’attuazione dei diritti; che dietro la richiesta di tutela giurisdizionale si cela un affanno; che la decisione, poiché separa, genera ulteriore affanno. La logica e la statistica aiutano, ma si rivelano inadeguati rispetto alla vicenda umana sottesa. Per questo occorre la valutazione e il controllo di un essere umano. È una questione di piani e prospettive se si vuole: come soltanto la macchina può esaustivamente recepire e rielaborare l’informazione acquisita da un’altra macchina, così soltanto l’uomo può fino in fondo ascoltare e comprendere l’istanza di un altro uomo.

Dietro l’idea della sostituzione dell’uomo con la macchina si celano modi diversi di perseguire valori ed esigenze che mettono tutti d’accordo, quali la certezza del diritto e la prevedibilità delle decisioni, che a loro volta generano affidamento e stabilità del sistema. Sono dimensioni del giusto processo e, prima ancora, dello Stato di diritto.

Ora, nessuno può dubitare che il processo è giusto se è assistito da regole predeterminate circa modi, forme e termini della sua instaurazione, del suo svolgimento e della sua conclusione e, comunque, dà garanzie irrinunciabili di trasparenza e imparzialità. Anche la macchina è in grado di offrire predeterminazione e garanzie. E tuttavia, il processo è giusto anche se porta ad una soluzione della controversia equa o adeguata al concreto bisogno di tutela fatto valere o alla protezione di un determinato bene. Tutto sta a decidere se si vuole andare nella direzione di una giustizia soltanto statistica e logica oppure (anche) umanamente fluida.

5. Giustizia predittiva robotica

Orbene, la fluidità che qui si invoca non corrisponde ad arbitrio, a disordine, a libero creazionismo, bensì ad un sistema che, stabilite democraticamente in anticipo le regole, sappia ciononostante adattarsi ai mutamenti del contesto di riferimento.

Invero, la “positivizzazione” della norma reca inevitabilmente in sé equivocità e relatività.

Univoca, infatti, è solo l’interpretazione data, in quanto presuppone l’esercizio di una precisa scelta; tuttavia, l’univocità della norma che scaturisce dalla interpretazione si perde nel momento in cui essa, “positivizzandosi”, diventa nuovamente testo [20]. Si tratta di un aspetto necessario e prezioso, perché è proprio l’equivocità che consente l’adeguamento continuo alla realtà mutevole: al mutare del contesto, nuove norme possono essere formulate che, a loro volta, si porranno come testo. In altri termini, tanto il testo quanto la norma nuova “positivizzata” costituiscono “seme” in attesa di essere fecondato da una nuova interpretazione [21].

Relativa è la “norma” che nasce e vive con riferimento a un caso concreto. La sua universalizzazione necessita che la valutazione effettuata con riferimento a un determinato caso sia esportabile a casi simili, attraverso un riscontro di somiglianza, rimesso ai giudici dei successivi processi, del caso nuovo con quello già deciso.

Tutto ciò può esprimersi dicendo che la giurisprudenza è “fonte” in un senso molto diverso dalla legge. Il diritto da essa prodotto, infatti, non è generale e astratto, bensì particolare e concreto [22].

Ciò non toglie che un sistema fondato sul rispetto dei precedenti giurisprudenziali favorisca il perseguimento dell’esigenza di prevedibilità delle decisioni, che, a sua volta, rappresenta una più specifica declinazione del principio di certezza del diritto. L’uniformità interpretativa risponde al canone di eguaglianza di cui all’art. 3 Cost. e genera stabilità e affidamento [23].

Certezza e prevedibilità non significano, però, aritmetica calcolabilità. Il giudizio non si compie soltanto attraverso la fredda applicazione della legge al caso concreto ed il giudice non è puro strumento di applicazione meccanica del contenuto della legge. «Interpretare significa esplicare, adattare, completare» [24], esercitare un’opzione valutativa. E poiché i fatti da accertare sono incalcolabili, gli esiti istruttori non sempre prevedibili e i valori o la loro percezione suscettibili di mutare nel tempo e nello spazio, nessuna precisa calcolabilità è predicabile [25].

Ciò è vero per un sistema tutto umano, non meno che per uno robotico.

Se poi pensiamo a clausole generali, norme elastiche, concetti indeterminati, aspettarsi dalla macchina una prevedibile applicazione è alquanto illusorio. Quali algoritmi potrebbero mai essere elaborati?

Discorso non dissimile potrebbe farsi con riferimento alla qualificazione della natura costitutiva o impeditiva di un fatto ai fini della distribuzione dell’onere probatorio o per l’individuazione dei contenuti di una equità robotica.

Il tema della prevedibilità, per meglio dire della predittività robotica, resta comunque ampiamente aperto e meritevole di approfondimento.

Il pre-dire sembra qualcosa di più potente del pre-vedere poiché “dire prima” comporta una preventiva acquisizione del risultato e non una semplice, per quanto una ragionevole, aspettativa di acquisizione [26]. La pro-fezia proveniente da un automa dovrebbe assicurare risultati ancora più certi in quanto emessa sulla base di appositi algoritmi. Se non di formule magiche, si tratta di «una sorta di giustizia anticipata», come ci spiega chi si è occupato di redigere la voce enciclopedica “Giustizia predittiva”, il quale, però, allo stesso tempo si preoccupa di riportare il discorso sul piano della meno certa prevedibilità [27].

Come in altra sede messo in evidenza, però, predittività e prevedibilità sono aspetti o declinazioni della medesima esigenza di certezza del diritto [28], che giammai, né a livello umano né a livello robotico, potrebbero anticipare il risultato del processo con precisione puntuale [29]. Le variabili, come anticipato, sono incalcolabili.

6. Dietro gli algoritmi c’è sempre l’uomo

Stando così le cose, si deve essere pronti a scegliere, consapevoli dei benefici e dei costi dell’una e dell’altra scelta.

Un sistema processuale totalmente robotico manda avvocati e giudici in vacanza, ma sembra idoneo a promuovere sviluppo e uguaglianza [30] e ad assicurare efficacia, efficienza e celerità. Sembra poter contribuire, in particolare, al deflazionamento del contenzioso, poiché, infatti, quanto maggiore è la previa conoscenza dei dati incidenti sul possibile esito del processo, tanto più cauto è l’accesso alle corti e tanto più ponderata (e spesso auspicabile) la ricerca di soluzioni stragiudiziali [31].

Dietro gli algoritmi, tuttavia, agisce sempre l’uomo, che gli algoritmi elabora e riempie.

Nulla esclude che al posto della autorevolezza delle decisioni e della rilevanza giuridica i programmi deputati alla previsione e alla decisione sia infarciti di elementi tutt’altro che improntati al principio di eguaglianza [32]. Anche se si conoscessero in anticipo i contenuti e il funzionamento degli algoritmi e si garantisse la massima trasparenza, si rischierebbe comunque di favorire una logica “proprietaria” del processo, dove i signori della profezia sarebbero programmatori e società investitrici nel business del legal tech.

Nulla esclude che si attui un processo fondato sulla profilazione dei contendenti (come accade negli Usa, con l’utilizzo del programma Compas) [33] e su quella dei giudici.

Nulla esclude che, superato ogni rischio di errore umano, si apra la strada ad un nuovo universo di errori robotici, a nuovi scenari in tema di rimedi esperibili, a incerte opzioni sulle responsabilità ascrivibili.

7. Stupidità artificiale e autocoscienza

Un’ultima notazione.

A pagina 21 della monografia di Nieva Fenoll si legge che «l’intelligenza artificiale contribuisce e dovrebbe contribuire (e non certo essere un freno) all’evoluzione del diritto e deve anche essere utile per scoprire e superare gli errori più frequenti del nostro pensiero». Non so se davvero sia così.

Sta di fatto che mi sono ritrovato più volte a dire tra me e me, scrivendo e prendendo appunti: “Il computer è stupido”. Forse (lo spero) è capitato anche ad altri [34]. Questo perché pretendevo che il computer intuisse le mie intenzioni. Poi ho creduto che in effetti fosse impossibile. Ho infine appreso che l’attuale livello raggiunto dalla robotica permette alla macchina di compiere operazioni comandate tramite il pensiero [35].

Il punto è proprio questo: il robot agisce in base ad un pensiero che non è il suo, pensa un pensiero che non gli appartiene, un pensiero elargitogli dall’uomo; se si vuole si può dire che pensa un passato senza futuro, perché il futuro si costruisce partendo sì dall’esperienza (ammesso che il robot sia in grado di maturarla), ma anche dalla comprensione del significato e delle conseguenze, anche in termini etici, delle azioni che si compiono. Ma per fare questo occorre anche un’autocoscienza.



[1] Cfr. K. Čapek, I robot universali di Rossum, 1920 (ma sembra che il termine sia stato coniato ben prima: vds. i riferimenti in V. Curtoni, Robot64, Milano, 2012).

[2] Come branca della meccatronica.

[3] Inteligencia artificial y proceso judicial, 2018, trad. in italiano da P. Comoglio, Intelligenza artificiale e processo, Giappichelli, Torino, 2019.

[4] J. Nieva Fenoll, op. cit., p. 8.

[5] Cfr. M. Sensale, Ventisette domande de jure condito sul matrimonio con i robot (Lectio doctoralis su Rapporto uomo-robot: nuove frontiere dell’affettività, tenuta presso l’Università Suor Orsola Benincasa a Napoli il 2 maggio 2018).

[6] Cfr. L. Feldman Barret, Ten common misconceptions about psychological construction theories of emotion, in The Psychological Construction of Emotion, a cura di L. Feldman Barrett, J.A. Russell, New York: Guilford Press, 2015, pp. 45 ss.

[7] Cfr. A. Garapon e J. Lassègue,, Justice digitale, Paris, 2018, che, nel dedicare un capitolo di questo interessante volume, dove si analizzano molteplici aspetti dell’avvento del digitale nei sistemi giuridici e giudiziari e delle trasformazioni che esso può indurre, al tema delle “emozioni” dei giudici robot, si domandano: «Juges inanimes, aves-vouz une âme?» (pp. 195 ss.).

[8] Così, ad esempio, già accade in Estonia per le controversie di valore inferiore ai 7.000,00 euro. Cfr. A. Bassoli, L'intelligenza artificiale applicata alla giustizia: i giudici-robot, in www.altalex.com, 7 giugno 2019. Vds. anche quanto previsto dal Final Report a cura di Lord Justice Briggs, a proposito delle cd. Online Courts (in Civil Courts Structure Review: Final Report, by Lord Justice Briggs, Judiciary of England and Wales, 2016, pp. 36 ss.).

[9] J. Nieva Fenoll, op. cit., pp. 14 ss.

[10] J. Nieva Fenoll, op. cit., p. 23.

[11] L’esempio non è né casuale né inventato, ma è tratto da un celebre aneddoto riportato da H. Von Foerster a proposito del brutto voto riportato dal figlio a scuola per avere risposto a quella domanda “tre per due”, invece che “sei”. Se ne ritrova menzione in U. Morelli, Creatività e innovazione, relazione svolta a Bergamo in occasione del Convegno Giovani Motori, in http://www.ugomorelli.eu/doc/giovanimotori.pdf.

[12] J. Nieva Fenoll, op. cit., p. 46.

[13] J. Nieva Fenoll, op. cit., pp. 72 ss.

[14] J. Nieva Fenoll, op. cit., p. 76.

[15] J. Nieva Fenoll, op. cit., p. 78.

[16] J. Nieva Fenoll, op. cit., p. 80.

[17] J. Nieva Fenoll, op. cit., pp. 81 ss.

[18] J. Nieva Fenoll, op. cit., pp. 83 ss.

[19] J. Nieva Fenoll, op. cit., pp. 90 ss.

[20] Sulla distinzione tra “disposizione” (come enunciato letterale) e “norma” (come significato attribuito dagli interpreti all’enunciato), vds. V. Crisafulli, Disposizione (e norme), voce dell’Enc. dir., XIII, Milano, 1964, 195. Successivamente, vds. S. Satta, in Studi in memoria di T. Ascarelli, IV, Milano, 1969, 1988 e F. Roselli, Il principio di effettività e la giurisprudenza come fonte del diritto, in Riv. dir. civ., 1998, pp. 25 ss.

[21] Cfr. T. Ascarelli, Giurisprudenza costituzionale e teoria dell’interpretazione, in Riv. dir. proc., 1957, pp. 352 ss.

[22] D. Dalfino, Giurisprudenza “creativa” e prevedibilità del “diritto giurisprudenziale”, in Giusto proc. civ., 2017, p. 1030.

[23] D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it., 2018, V, pp. 385 ss. (§ 3).

[24] G. Pacchioni, I poteri creativi della giurisprudenza, in Riv. dir. comm., 1912, p. 41.

[25] D. Dalfino, op. loc. cit.

[26] D. Dalfino, op. cit., § 4.

[27] L. Viola, Giustizia predittiva, voce dell’Enc. giur. Treccanionline, 2018.

[28] D. Dalfino, op. loc. cit.

[29] Cfr. C. Castelli e D. Piana, Giustizia predittiva. La qualità della giustizia in due tempi, in questa Rivista on-line, 15 maggio 2018, § 1, che parlano, infatti, di predizione «focale e non puntuale».

[30] Traguardi perseguiti dalle Nazioni Unite nell’obiettivo 16 (Pace, giustizia e istituzioni solide) dell’Agenda 2030, a loro volta declinati, tra gli altri, sotto il profilo della garanzia di accesso per tutti alla giustizia e di un pubblico accesso all’informazione, ferma restando la protezione delle libertà fondamentali. Cfr. http://unric.org/it/agenda-2030/30812-obiettivo-16-pace-giustizia-e-istituzioni-forti.

[31] D. Dalfino, op. cit., § 4.1.

[32] In realtà, la Carta etica europea per l’uso dell’intelligenza artificiale nei sistemi di giustizia penale e nei relativi ambienti, approvata il 4 dicembre 2018 dalla CEPEJ, tra gli altri principi (rispetto dei diritti fondamentali; qualità e sicurezza; trasparenza; garanzia dell’intervento umano) enuncia quello di non discriminazione.

[33] V. Wisconsin Supreme Court, 13 luglio 2016, State vs. Loomis, case n. 2015AP157-CR, in 130 Harv. L. Rev. 1530.

[34] È capitato evidentemente anche ad Umberto Eco se nella prefazione al libro Come scrivere una tesi di laurea di laurea con il personal computer di Claudio Pozzoli ha scritto che «Il computer non è una macchina intelligente che aiuta le persone stupide, anzi è una macchina stupida che funziona solo nelle mani delle persone intelligenti».

[35] Cfr. R. Andersen, La macchina delle intenzioni, in Le Scienze, fasc. 6/2019,pp. 36 ss.

3 luglio 2019
Se ti piace questo articolo e trovi interessante la nostra rivista, iscriviti alla newsletter per ricevere gli aggiornamenti sulle nuove pubblicazioni.
Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?
Intelligenza artificiale applicata alla giustizia: ci sarà un giudice robot?
di Alessandro Traversi
L’intelligenza artificiale (IA) è ormai utilizzata nei settori più disparati. L’IA potrà trovare applicazione anche in ambito giudiziario e, in particolare, nell’ambito della cd. “giustizia predittiva” per formulare previsioni sull’esito di una causa, o anche, in un prossimo futuro, per affiancare il giudice nella fase decisoria?
10 aprile 2019
«Per favore, parlatevi!»
«Per favore, parlatevi!»
di Roberto Braccialini
L’intervento all’inaugurazione dell’anno giudiziario, occasione di forte sprone e auspicio di un sempre migliore coordinamento tra Ministero della giustizia e Consiglio superiore della magistratura nell’esercizio delle rispettive attribuzioni in materia di organizzazione giudiziaria
4 aprile 2019
L'editoriale del n. 4/2018
L'editoriale del n. 4/2018
di Renato Rordorf
La (im)prevedibilità della giustizia e il dovere della comunicazione. Questi i temi ai quali è dedicato il nuovo numero trimestrale di Questione Giustizia
28 febbraio 2019
Cepej, adottata la prima Carta etica europea sull'uso dell'intelligenza artificiale (AI) nei sistemi giudiziari
Cepej, adottata la prima Carta etica europea sull'uso dell'intelligenza artificiale (AI) nei sistemi giudiziari
di Clementina Barbaro (a cura)
L'auspicio è che questi principi diventino un punto di riferimento per i professionisti del diritto, le istituzioni e gli attori politici che si trovano ad affrontare la sfida di integrare le nuove tecnologie basate sull' IA nelle politiche pubbliche o nel loro lavoro quotidiano
7 dicembre 2018
Giustizia predittiva. La qualità della giustizia in due tempi
Giustizia predittiva. La qualità della giustizia in due tempi
di Claudio Castelli* e Daniela Piana**
La giustizia predittiva, di cui già oggi si discute in molti Paesi e che viene presentata come un Giano bifronte, un grande rischio di riduzione ad una gestione automatizzata degli small claims ovvero di una differenziazione delle risposte giudiziarie che ha profili di potenziale discriminazione, è un orizzonte non più soltanto futuribile anche nel nostro Paese. Discuterne, darsi gli strumenti conoscitivi e quindi di governance per potere volgere quella che è una opportunità di cambiamento in una reale condizione di potenziamento della prevedibilità della trasparenza e del coordinamento fra sedi giudiziarie, nel pieno rispetto delle garanzie costituzionali di autonomia del giudice, è una priorità che questo lavoro mette al centro del dibattito della magistratura italiana e di tutti i protagonisti del mondo della giustizia.
15 maggio 2018
Organizzazione giudiziaria e autonomia della giurisdizione: il ruolo del Consiglio superiore della magistratura ed il rapporto con il Ministero della giustizia
Organizzazione giudiziaria e autonomia della giurisdizione: il ruolo del Consiglio superiore della magistratura ed il rapporto con il Ministero della giustizia
di Antonello Ardituro
L'articolo è tratto dall’intervento tenuto al seminario “Le risorse per l’organizzazione e l’organizzazione delle risorse” organizzato dal coordinamento nazionale di AreaDG il 23 febbraio 2018 a Roma (Sala della biblioteca della Procura generale presso la Corte d’appello)
17 aprile 2018
Giurisdizione, organizzazione, risorse, innovazione e territorio
La tenuta dei registri informatici e i risvolti sulla statistica del lavoro dei magistrati, tra bonifica dei dati e insufficienza delle griglie ministeriali*
La tenuta dei registri informatici e i risvolti sulla statistica del lavoro dei magistrati, tra bonifica dei dati e insufficienza delle griglie ministeriali*
di Marco Bisogni
L’autore individua le principali criticità delle “griglie” ministeriali e degli applicativi utilizzati per la formazione delle statistiche in ambito giudiziario. Propone, inoltre − dopo aver constatato che gli attuali sistemi sono orientati ad una rilevazione statistica di tipo meramente quantitativo (per lo più ancorata alla dicotomia sopravvenuti/esauriti) con le conseguenti inevitabili ricadute sull’impostazione del lavoro da parte del singolo magistrato (dirigente e non dirigente) − l’adozione di un diverso “paniere” statistico orientato anche alla rilevazione della qualità del lavoro svolto
20 novembre 2017
Newsletter


Fascicolo 1/2019
Populismo e diritto
Prassi e orientamenti
Dal tirocinio all'accesso alla magistratura onoraria e togata - Parte seconda e terza *
di Marco Ciccarelli
La formazione di stagisti e gop negli uffici giudiziari. Riflessioni conclusive su un possibile percorso
17 luglio 2019
Dal tirocinio all'accesso alla magistratura onoraria e togata - Parte prima
Dal tirocinio all'accesso alla magistratura onoraria e togata - Parte prima
di Marco Ciccarelli
La formazione di stagisti e gop negli uffici giudiziari. Le riflessioni su un possibile percorso si concluderanno domani con una nuova pubblicazione
16 luglio 2019
L’effettività dell’assistenza quale requisito per l’inoppugnabilità delle rinunce e transazioni ai sensi dell’art. 2113 comma 4 cc. Lineamenti giurisprudenziali
L’effettività dell’assistenza quale requisito per l’inoppugnabilità delle rinunce e transazioni ai sensi dell’art. 2113 comma 4 cc. Lineamenti giurisprudenziali
di Amato Carbone
Il giudice di merito è di frequente chiamato a sindacare la genuinità della volontà transattiva espressa dal lavoratore in occasione di accordi in sede sindacale. Quali requisiti deve presentare la tutela offerta per risultare effettiva ed efficace?
10 luglio 2019
Cassazione, il licenziamento per inidoneità sopravvenuta del lavoratore divenuto inabile alle mansioni e i ragionevoli accomodamenti
Cassazione, il licenziamento per inidoneità sopravvenuta del lavoratore divenuto inabile alle mansioni e i ragionevoli accomodamenti
di Elisabetta Tarquini
La giurisprudenza della Corte suprema tra innovazione e ritorni al passato. Commento alla sentenza n. 27243/2018
13 giugno 2019
Considerazioni sulla proposta di legge per l’istituzione del Tribunale dei conflitti*
di Aldo Travi
È oggettivamente inquietante che nel disegno di legge per l'introduzione di un Tribunale dei conflitti siano del tutto ignorate le norme sulla giurisdizione di cui alla nostra Costituzione, che distingue fra le giurisdizioni innanzitutto in base ad una distinzione di stato giuridico (artt. 102 e 103 Cost.): ed è ancora più significativo in un periodo come l’attuale, in cui si avverte in modo più acuto un senso di estraneità, nella classe dirigente politica e in ampi settori della cittadinanza, per il testo costituzionale. La stessa Costituzione finisce così ​col diventare un fattore di rilievo trascurabile
11 giugno 2019
I discutibili presupposti del Tribunale dei conflitti *
di Franco De Stefano
La recente proposta di legge per l’istituzione di un Tribunale supremo dei conflitti, presso la Corte di cassazione, suscita notevoli perplessità rivolte ai seri dubbi di compatibilità costituzionale del progetto e alla necessità effettiva dell’intervento, in relazione alla tempestività ed uniformità delle attuali risposte in tema di riparto di giurisdizioni
30 maggio 2019