Algorithmic legal decision making: la fine del mondo (del diritto) o il paese delle meraviglie?
Il dibattito sull’algorithmic decision making offre un’occasione per riflettere sulla capacità del diritto di svincolarsi da una funzionalizzazione casistica che, ben espressa dal crescente ricorso delle corti alle clausole generali, rischia di incidere sulla certezza del diritto. La domanda è se l’illimitato potere computazionale della macchina permetta di rivoluzionare l’odierno rapporto tra rule e standard (la clausola generale, concretizzata ex post dal giudice) per il tramite della personalizzazione del diritto in forma di micro-direttiva (la nuova regola ex ante, ma ritagliata sul caso concreto).
1. A mo’ di premessa: dualità intriganti / 2. Il diritto ai tempi del machine learning: un diverso umanesimo? / 3. La quarta rivoluzione: un mondo (del diritto) che cambia / 4. Potere computazionale: portenti sintattici, fragilità semantiche / 5. L’alchimia del diritto, tra declino della fattispecie e declinazione dei principi / 6. Il diritto che verrà
«Le attività ripetitive sono il solo modo di riequilibrare le tendenze maldistribuite»
Haruki Murakami, La fine del mondo e il paese delle meraviglie
1. A mo’ di premessa: dualità intriganti
Nel 1985 l’ispiratissimo scrittore giapponese Haruki Murakami dà alle stampe il proprio quarto lavoro, intitolato La fine del mondo e il paese delle meraviglie[1]. Il romanzo si articola in due racconti (appunto, La fine del mondo, come esordio, e Il paese delle meraviglie, per l’incantata chiusa) paralleli, i quali, pur non avendo nulla in comune e coinvolgendo protagonisti e personaggi diversi (dei quali, per l’intera opera, si cela il nome, indentificandoli esclusivamente in base al proprio lavoro o alla propria mansione), si ritrovano tuttavia a intrecciarsi e sovrapporsi, convergendo, in chiusura di narrazione, verso un luogo di indagine comune. Di particolare interesse per il tema al quale ci apprestiamo a dedicare le brevi riflessioni che seguono, la caratterizzazione che dei due protagonisti tratteggia l’Autore di Kyoto. Quello de La fine del mondo (nomen omen?) è un cibermatico: un uomo che ha la capacità di immagazzinare e criptare grandi quantità di informazioni nel proprio cervello, legandole a un parametro univoco derivante dalla struttura cerebrale e, di conseguenza, rendendo tali dati – e le conseguenze che dall’analisi degli stessi derivano – impenetrabili al mondo esterno. Per parte sua, il protagonista de Il paese delle meraviglie svolge il compito di “lettore di sogni” in una misteriosa città senza nome: è l’unico, nel villaggio, in grado di interpretare – attraverso la lettura di frammenti di vecchi sogni custoditi dai teschi degli animali che popolano i dintorni del paese – i sentimenti e i valori della società che lo circonda; tuttavia, nel far ciò (e per poterlo fare), egli viene afflitto da un disturbo alla vista, che lo costringe a uscire soltanto di sera e gli impedisce di percepire la realtà che lo circonda.
Queste due figure ci paiono richiamare – ed ecco svelata la ragione di questo incipit, salvo integrarla con la nostra passione per il raffinato Autore nipponico – una diversa dualità, ossia quella tra decisore algoritmico e giudice[2]: da una parte, la macchina in grado di contenere, leggere e usare vastissime quantità di informazioni e variabili, rendendole tuttavia spesso inaccessibili e opache all’esame umano, con la conseguenza di impedirne – di fatto – l’esame critico. Dall’altra, il giudice: interprete (quasi mistico) del sein in vista del sollen, asseritamente in grado di percepire e recepire i bisogni della società, adattando la (fredda? asettica?) disposizione di legge al più ampio sistema di valori che un’interpretazione letterale del dato (il termine non è casuale) legislativo non consentirebbe. Quale ruolo è destinato a queste entità nella dinamica dell’amministrazione della giustizia?
Nel suo romanzo, Murakami suggerisce (ma non postula) che i due protagonisti siano, in realtà, uno solo, quasi a formare due facce della stessa medaglia, svolgendo entrambi la medesima funzione, anche se con ruoli (e limiti) differenti. Potrebbe essere che, nel nostro caso, la risposta sia la stessa.
2. Il diritto ai tempi del machine learning: un diverso umanesimo?
Fra (evocazioni di) giustizia robotica e (promesse minacciose di) algoritmi al servizio della giustizia predittiva, il dibattito giuridico sembra avere da tempo introiettato il tema dell’utilizzo, in seno ai processi decisionali, di sistemi di intelligenza artificiale (AI) da intendersi in senso lato alla stregua di fenomeni logici di elaborazione delle informazioni al fine di pervenire a soluzioni interpretative del reale. In realtà, questo tipo di consapevolezza viene, più spesso che no, coltivato nella prospettiva di un’ipotesi futura, distopica ovvero utopica, a seconda del punto di vista che si voglia accogliere; essa è, dunque, ancora lontana dal convincimento quasi millenaristico che trascorre altri settori (uno per tutti, quello medico: «Someday, perhaps sooner, perhaps later, machines will have demonstrably better success rates at medical diagnosis than human physicians – at least in particular medical specialties»[3]). Ma da qualche parte fa capolino e alimenta un dibattito men che improvvido (anche se troppe volte stucchevole).
La necessità, per gli operatori del diritto, di confrontarsi con il fenomeno in parola è parsa procedere di pari passo con il diffondersi dei software di elaborazione nell’ambito della prassi privata, quali strumenti (prima a supporto, e poi) di sostituzione del tradizionale individuo “organico” nel compimento di scelte riferibili ai più disparati ambiti, spaziando dalla concessione del credito nel perimetro dell’agere bancario[4] all’amministrazione dei sistemi di trading ad alta frequenza di strumenti finanziari[5], alle scelte in merito alle strategie di marketing più adeguate a raggiungere un determinato mercato target, fino a ipotizzare una sorta di “delega in bianco” ai sistemi automatizzati di decisione in merito alla gestione di un contratto tra le parti, attraverso una costante azione di definizione, integrazione, e perfino enforcement di quello che, certamente con un discreto senso dell’umorismo, è stato definito un vero e proprio smart contract[6].
Il presupposto concettuale di tale modo di procedere è, invero, disarmante nella sua semplicità: posto che, nella sostanza, qualsiasi processo decisionale può essere ricondotto all’elaborazione di informazioni precedentemente acquisite al fine di formulare una valutazione probabilistica in merito al verificarsi dello scenario atteso (sperato?), perché mai – se interrogato adeguatamente, dopo esser stato preparato in maniera acconcia – un sistema di elaborazione automatica, dotato di maggiore capacità computazionale dell’uomo, dovrebbe pervenire a un esito diverso (in thesi, meno affidabile) di quello al quale quest’ultimo – tra interminabili dubbi e incertezze – suole approdare? Ciò, in particolare, tenendo conto: a) della possibilità di valorizzare il ruolo degli individui come “agenti informativi”[7], ruolo derivante dalla trasformazione degli oggetti di uso quotidiano in prodotti interconnessi, secondo una fenomenologia caratterizzante lo sviluppo delle tecnologie da “Internet of Things” (IoT)[8]; b) della diffusione dei wearable devices[9], quali inesauribili fonti di informazioni in merito all’attività quotidiana dei soggetti “monitorati”; e c) della costante tracciabilità delle attività condotte online (mediante l’acquisizione di cookies, l’attività sui social media, ovvero attraverso le informazioni ottenibili dalle app); tutti elementi di un ecosistema nel quale gli operatori possono raccogliere dati quantitativi e qualitativi, di matrice psicologica, comportamentale e sociale, utili per comprendere le caratteristiche e gli interessi degli individui, da riversare poi nel software al fine di individuare pattern di correlazione[10].
Naturalmente, dalla decisione privata a quella pubblica il passaggio era destinato a rivelarsi (ed è risultato, in effetti) breve. Dapprima si è manifestata la possibilità di utilizzare algoritmi decisionali per lo svolgimento di compiti connessi all’attività della pubblica amministrazione[11], con il conseguente corteo di riserve – risolte in senso affermativo – in merito alla compatibilità di tale processo con l’art. 97 Cost. Successivamente, si è posto (con una punta di involontaria ironia) sul banco degli imputati non già il processo decisionale, bensì il decidente par excellence, ossia il giudice: in cosa si dovrebbe ritenere diverso, difatti, il comportamento dell’organo giudicante in occasione di un contenzioso (si pensi, ad esempio, a una causa relativa alla divisione dei cespiti patrimoniali a seguito di divorzio)[12] da quello di un sistema automatizzato che, registrato il valore degli stessi – insieme con altre variabili da ritenersi significative –, operi una suddivisione da proporre alla (ex) coppia?
Questo perché, a ben vedere, il costante processo di decodificazione del reale in termini logico-matematici ha, nel corso del tempo, portato la società a esprimere le proprie esigenze e richieste in termini quantitativi, favorendo un processo di datification che ben si presta all’elaborazione delle informazioni secondo logiche di tipo sintattico. Attenzione, però, a non scambiare l’oggetto – i dati, nel nostro caso i Big Data – con la loro proiezione interpretativa/euristica. Il dato in quanto segnale di differenza (nella concezione diaforica) c’è sempre stato e non è oggi diverso da come si presentava ieri. Per farlo assurgere a oggetto dell’informazione (da cui deriverà la conoscenza) occorre attribuirgli significato. E questa operazione prescinde dal numero dei dati disponibili, senza che sia concesso accreditare in alcun modo l’idea, pur sotterraneamente accarezzata da tanta parte di coloro che si sono occupati del tema[13], che a maggiore quantità di dati corrisponda migliore comprensione del reale. Se il proprium della quarta rivoluzione (di cui meglio diremo tra un momento) sta davvero nel rimuovere l’uomo dal centro del ragionamento logico (e, quindi, dall’“infosfera”, per dirla con Luciano Floridi), allora bisogna rivisitare le premesse del dialogo sul rapporto fra immediatezza documentaria e riflessione interpretativa, per riconoscere che nella nuova dimensione il potere non è conferito dai dati, ma dalla capacità di elaborarli, e si declina in termini di potere computazionale (quello che aumenta, come insegna la prima legge di Moore, ogni due per tre con vertiginosa progressione geometrica, facendo apparire banalmente semplice quel che eravamo abituati a concepire come intrattabile)[14].
Su tale constatazione condivisa si è dunque innestato un confronto polarizzante tra true believers che, valorizzando il crescente interscambio di dati che anima la società dell’informazione, hanno prefigurato un’inevitabile espansione del ruolo degli algoritmi – mettendo nel conto, poi, le evoluzioni derivanti dal diffondersi di sistemi di elaborazione in grado di migliorare la propria performance attraverso il ricorso a logiche di machine learning e a reti neurali[15] – e quanti, invece – e sono i più –, muovendo da una supposta, ontologica fallibilità del software (attribuibile, a seconda dei casi, alla malformazione del dataset di riferimento, alle direttrici originarie impostate dal programmatore, ovvero ancora a bias derivanti da errori relativi alla capacità della macchina di selezionare inferenze significative ab origine o a seguito di interazioni con il mondo circostante)[16], hanno postulato la persistente necessità di una supervisione delle operazioni di trattamento[17], finalizzata a garantire uno sviluppo controllato e “antropocentrico” dell’intelligenza artificiale[18].
E proprio dalla conclamata esigenza di perdurante centralità del controllo umano, foriera di una visione “addomesticata” e consolatoria dello sviluppo della tecnologia quale elemento indispensabile a garantire la tutela degli individui e – per quanto riguarda l’algorithmic decision making giudiziale – la certezza del diritto, può rivelarsi opportuno partire per riflettere sul ruolo da riservare al soggetto umano in un’epoca che – piaccia o no – mostra una crescente tendenza all’automatizzazione e, per converso, su quello che si ritiene le “macchine” possano effettivamente rivestire all’interno del dispiegarsi del tessuto sociale.
3. La quarta rivoluzione: un mondo (del diritto) che cambia
Certamente non sorprende il richiamo quasi virale a una necessaria centralità della figura umana; il quale richiamo, tuttavia, rivela – a una più ponderata riflessione – le stimmate di una risposta affatto “tradizionale” ai fenomeni che, nel corso della storia, ne hanno messo in discussione il ruolo, condannandolo a una (forse lenta, ma nondimeno) inesorabile demise delle sue prerogative e, quel che più conta, della sua unicità: si pensi al passaggio dall’uomo come figura centrale nel progetto divino e nello svolgersi dei fenomeni cosmologici – a seguito della rivoluzione copernicana – a un’idea dell’essere umano come esito di un processo evolutivo analogo a quello delle altre forme di vita, determinato principalmente dall’interazione gene/ambiente propria della riflessione condotta da Darwin, sino alla rimozione dell’io, imposta dal pensiero freudiano, dal “centro di se stesso”. Ma il crinale era destinato a volgersi verso esiti ancora più radicali: l’uomo ha, nel tempo, perso la propria centralità financo rispetto al proprio processo decisionale, non più esito della ragione quanto di forze dinamiche d’impulso, da leggersi in ottica meccanicistica[19], ed è stato infine spogliato della prerogativa di unico decisore “logico”, proprio a seguito degli sviluppi della tecnologia e del manifestarsi di complessi automatici che, coerentemente con quanto il test di Turing richiedeva[20], sono in grado di simulare mimeticamente il comportamento umano, rendendo impossibile operare una qualche significativa distinzione.
In una proiezione storica che registra impietosamente lo svuotamento – logico e fattuale – dell’umanesimo nella sua concezione sempiterna, viene dunque da chiedersi se questa rinnovata ansia di antropocentrismo non sia, nei fatti, un’illusione derivante dalla difficoltà di concepire un mutamento del ruolo dell’individuo nella dinamica sociale.
Non è, tuttavia, scopo di queste brevi note (anche perché si tratterebbe certamente di un obiettivo al di là delle forze in campo) riordinare questioni esistenziali tanto esasperate: si mira, assai più banalmente, a verificare se, nel segno del rifiuto di posizioni aprioristiche (e, tutto sommato, apologetiche), si possa cercare di spingere “più in là” la riflessione sul rapporto tra uomo e macchina nell’epifenomeno giuridico, e fornire una rivisitazione dei tradizionali poli del dialogo in materia di decisioni automatizzate.
4. Potere computazionale: portenti sintattici, fragilità semantiche
Per muovere nella direzione indicata, riteniamo opportuno operare, innanzitutto – e in controtendenza con quanto si potrebbe opinare sulla base dei rilievi che precedono –, un esercizio di fondamentale realismo, risalendo alla fonte della diversità tra i paradigmi di operatività dei motori decisionali umani e automatici, per poi indagarne le ripercussioni sul dipanarsi del processo giudiziale.
Al riguardo giova riconoscere stipulativamente come la differenza sintomatica tra un software di elaborazione e la propria controparte biologica, a fronte della molteplicità sterminata e comunque crescente dei dati a disposizione, possa essere espressa in chiave d’incidenza del fattore tempo nella conduzione di un’indagine altrimenti del tutto equivalente: nei diversi mercati dove finora si è verificata la progressiva sostituzione dell’operatore umano con algoritmi decisionali, sono state la capacità e velocità nell’elaborare i dati (ossia, quello che abbiamo già identificato e definito come potere computazionale) a marcare la preferibilità e maggiore efficienza performativa del sistema automatico rispetto all’individuo[21].
Questa ovvia constatazione ci porta, dunque, a valorizzare il ruolo dei sistemi algoritmici quali motori di analisi essenzialmente sintattici: tecnologie digitali capaci di processare quantità sempre maggiori di dati al fine di individuare correlazioni statistiche, le quali sono caratterizzate da natura inferenziale e, al più, predittiva. Manca loro, invece, quella che Floridi ha voluto qualificare come funzione di elaborazione semantica: non legata all’analisi del dato an sich, quanto piuttosto all’attribuzione a quest’ultimo di un significato non esclusivamente relazionale, posto che l’interpretazione dell’essenza del dato non può desumersi dalla sua interazione con altri dati (quindi, alla quantità di dati totalmente disponibili e alla velocità di analisi delle correlazioni), essendo a tal fine richiesta una riflessione sul contenuto del singolo dato, basata sul capitale semantico derivante dall’esperienza umana[22]. Alle corte: i sistemi di AI sono straordinari motori sintattici (e celebrano il trionfo dei Big Data), mentre quelli semantici – e l’uomo ne è l’ineguagliabile prototipo – accumulano significati e creano capitali euristici.
Per tutta conseguenza, bisogna riconoscere che i sistemi di AI flettono (nel vuoto) muscoli sintattici, ma non ragionano come la mente umana; non possono al momento (e forse non potranno mai) acquisire la capacità di saldare il piano semantico e quello sintattico che caratterizza la fluidità sintetica del ragionamento umano. Qui si assume stia la vera linea di confine, da cui discende il consolante monito – nota comune alla più parte degli scritti in materia: quelli, s’intende, che non si lasciano prendere la mano dalla futurologia sfrenata, ma nemmeno da tentazioni di inedito luddismo digitale, allineandosi alla saggezza compromissoria di scelte mediane – circa l’ineludibile necessità, proprio per far spazio alle magnifiche sorti e progressive, di una saggia supervisione sul funzionamento dei meccanismi algoritmici, che sottende una magica cifra cooperativa di “tecnica al servizio di…”.
Prima, però, di cedere alla tentazione di riporre il problema nel segno del “tutto bene quel che finirà bene, in un modo o nell’altro”, è bene misurarsi con una constatazione cruciale: che, cioè, la crescita vertiginosa del potere computazionale in chiave sintattica non è priva di conseguenze sul quadro testé delineato e sulle stesse coordinate che propiziano il risultato attinto. Per evitare equivoci, abbandoniamo il piano delle astrazioni e proviamo a ipotizzare plausibili scenari a venire, a partire dalla possibilità di valersi del potere computazionale per utilizzare la massa dei dati disponibili e attivare, così, una giustizia predittiva e largamente performativa. Il fenomeno è già in atto, sia pure con diversi livelli di consapevolezza, soprattutto per quanto riguarda la possibilità che l’ambiente si conformi al potere computazionale – per meglio dire, sia in qualche modo adattato alla rappresentazione della realtà strumentale al funzionamento dei modelli algoritmici. Più in chiaro. Il potere computazionale, prevalentemente sintattico, è in grado di produrre una rappresentazione della realtà (decodificata in termini di dati da processare, datificazione, elementi da calcolare, quantificazione, risultati da prevedere, predizione) capace di influenzare (e, magari, sopraffare) la nostra capacità di rappresentare quella realtà. Per tradurre il tutto in una formula più intelligibile: la macchina, distillando (una qualche misura di) qualità dalla quantità, si avvia ad approssimare sul piano sintattico ciò che le è precluso sul piano semantico, in maniera puramente statistica, ma certamente efficace. È un dato evolutivo, vero. Ma porta con sé i germi della rivoluzione.
5. L’alchimia del diritto, tra declino della fattispecie e declinazione dei principi
Una prima conseguenza, quasi uno slittamento inerziale rispetto al mainstream: la presenza di persistenti spazi di operatività privilegiata degli individui non deve indurre a credere che – come spesso pretendono i detrattori del decision making algoritmico – non si diano margini per l’operatività di sistemi automatizzati in tale ambito. Tale considerazione è suffragata, a ben vedere, dalla constatazione per la quale buona parte della prassi giudiziale assume, invero, un carattere iterativo e si presta a essere gestita sul piano inferenziale e predittivo: non si può negare come in molteplici casi – e guai se così non fosse! – il ruolo del giudice si riduca, nella sostanza, alla verifica della congruità dei fatti a lui presentati con il dettato normativo, senza che sia necessario quello sforzo interpretativo che costituisce l’elemento fondante dell’attività semantica e che risulta, dunque, inesperibile da un’intelligenza artificiale. Quanto dire, insomma, che, se non è dato postulare l’integrale sostituzione del decisore umano ad opera di quello automatizzato, è tuttavia certamente possibile ipotizzare una simile evenienza ogniqualvolta non sia necessaria un’attività interpretativa originale in merito al contenuto della disposizione, potendosi fondare l’esito decisionale sulla base del raffronto tra ciò che risulta necessario ope legis e quanto effettivamente avvenuto nel caso di specie.
Si replicherà: poca cosa. E sarà riproposta la sostanziale dualità – oggetto di un recentissimo e lucido contributo di Enrico Scoditti[23] – tra clausole generali e fattispecie, con annessa riflessione circa il ruolo giocato dalle prime in presenza di margini di criticità in merito all’operare delle seconde: la necessità, in altri termini, di disporre di una chiave di volta “aperta” per poter sopperire alle occasioni nelle quali la littera legis – a causa di incertezze terminologiche, mutamenti storico-sociali, o altre evenienze – non sia in grado di imprimere assetto adeguato a una situazione sottoposta al vaglio del giudice, richiedendosi di conseguenza a quest’ultimo uno sforzo interpretativo da condurre in ottemperanza ai valori permeanti il sistema giuridico, espressi appunto dalle clausole generali.
In quella dualità, a veder bene, si esprime la cifra del diritto che viviamo. Al declino dell’argomentazione per sistema e, perciò, della fattispecie, inevitabilmente lacunosa e riduttiva, si contrappone il fascino attivistico della clausola generale, che, contribuendo a scandire il tramonto della dogmatica tradizionale, segna – con la complicità di una dottrina prevalentemente recessiva e incapace di ridisegnare il proprio ruolo in dimensione di autentica scienza sociale – il prevalere di un diritto giudiziale, incalcolabile ma vocazionalmente inteso a perseguire il risultato giusto. Cosa voglia dire, poi, “giusto”, è spesso compito (convenientemente) rimesso a quella medesima giurisprudenza.
Sui limiti e sull’opportunità di un utilizzo “responsabile” delle new emperor’s clauses, nonché sulla necessità di evitare che ciò conduca a una perdita del rigore metodologico deputato a sovrintendere all’analisi giuridica, è stato già scritto tantissimo (e ancor di più si scriverà[24]. Giova, però, evidenziare come i termini del relativo dibattito sembrino richiamare, seppur in chiave “domestica”, gli elementi della riflessione condotta, specie sul suolo americano, in merito alla contrapposizione tra standard e rule[25]: ciò che permette di fare tesoro di sofisticate analisi intese a scrutinare i pregi (maggiore precisione nella definizione ex ante delle fattispecie di riferimento) e i difetti (rischi di errori di tipo I e II, falsi negativi e falsi positivi, potenzialmente forieri di fenomeni di sovra- e sotto-inclusione) delle seconde rispetto al ricorso ai primi, certamente in grado di fornire una maggiore responsività ex post, ma, in ragione dell’ontologico elemento di discrezionalità, forieri di incertezze per il sistema giuridico e sottoposti alla volubilità della decisione individuale e potenzialmente dispersa[26]. La regola posita fallisce perché è ineludibilmente incompleta; la clausola generale, lo standard, fruisce del senno salvifico del poi e spiana la via a un risultato più acconcio alle particolarità del caso concreto, ma finisce per lasciare nell’ombra il precetto che deve guidare i consociati: salvo riconoscerlo come “evidente” quando lo si porti in esponente operativo, ovvero il giudice concretizzi la norma ideale rispetto alle circostanze del caso concreto, assumendo «un impegno normativo che è un impegno di indipendenza da se stesso nel perseguimento della forma ideale di regolazione del caso»[27].
Mettiamo allora – di là da ogni polemica sul “titanismo” giudiziale a fronte di un legislatore distratto e di una dottrina dispersa – che quello appena descritto sia, per così dire, lo stato dell’arte. L’interrogativo che aleggia, alla luce delle suggestioni (evolutive? rivoluzionarie?) indotte dalla nuova dimensione tecnologica, è se il quadro possa essere ridefinito in virtù degli apporti del potere computazionale.
6. Il diritto che verrà
Una risposta davvero sorprendente – e sottratta al parossismo della giustizia robotica come “fin du monde”, seppur nella forma meno catastrofica della “fin du droit”, così come lo conosciamo[28] – potrebbe venire dai controversi sviluppi della “personalizzazione” della regola giuridica, resa possibile dalle nuove tecnologie.
In estrema sintesi, e senza troppo preoccuparsi d’incorrere in un buco nero da riduzionismo oltranzistico, vale ricordare che il limite della regola ex ante è la sua incompletezza, che troppe volte, per carenza informativa e conseguente lontananza dal dispiegarsi della vicenda reale, la porta a colpire sopra o sotto il segno ottimale. L’ingigantirsi del potere computazionale mette in discussione proprio quel limite. La sua capacità sintattica, crescente all’infinito, permette – attraverso la valorizzazione che l’algoritmo è in grado di operare a ridosso dei Big Data – di moltiplicare la capacità di produzione delle regole, sino alla frontiera ultima della micro-direttiva[29], che – nelle ambizioni di chi la teorizza – promette di tradurre l’equilibrio dello standard (come obiettivo da perseguire) in un specifica direttiva “rule-like” perché ritagliata ex ante sulle caratteristiche del destinatario e a lui comunicata in tempo reale (prodigi delle ICT) e utile per determinarne la condotta[30]: si tratta, nella sostanza, di utilizzare sistemi software per tradurre la previsione normativa – di carattere generale e astratto, dunque – in una serie di comandi operativi, da individuarsi di volta in volta sulla base delle specifiche circostanze addotte dal richiedente. In tal modo le micro-direttive, non diversamente dalle regole, offrono una chiara indicazione ai consociati in merito al comportamento astrattamente prescritto dall’ordinamento, integrando tuttavia tale postulato con raccomandazioni tailored sul destinatario, da declinarsi sulla base del contesto di riferimento, destinate oltretutto ad affinarsi e migliorare proprio in virtù della crescita nella quantità dei dati a disposizione dell’algoritmo e sfruttandone, dunque, il carattere genuinamente sintattico.
Quel che ne deriva, se mai prenderà corpo, potrebbe essere ragionevolmente etichettato come “self-driving law”, atto a spostare gli assetti attuali nella direzione di una rinnovata attenzione alla fase programmatica di creazione granulare di precetti personalizzati sulla scorta della smisurata capacità predittiva dei motori sintattici: lontani, dunque, dall’algida astrattezza della regula iuris, che nasconde nelle pieghe della sua remota generalità la vaghezza dell’indicazione comportamentale, e capaci di mimare preventivamente la precisione post factum dell’applicazione dello standard. Con conseguente ricomposizione dell’assetto del diritto (delle forze che concorrono a delinearlo) e anelito di rinnovamento della scienza giuridica, chiamata a concentrarsi sull’area della pre-definizione delle regole del vivere sociale. In una battuta: grandi spazi per il riscatto dei chierici, sia pure in una chiave diversa da quella che ne ha assicurato il successo nei secoli?
1. Edito in Italia coi tipi di Baldini & Castoldi (Milano) nel 2002 e, poi, da Einaudi (Torino) nel 2008.
2. Tema decisamente alla moda, che porta con sé la fatica dell’ovvio, senza che ciò abbia impedito la produzione di analisi assai equilibrate: cfr., ad esempio, D. Dalfino, Creatività e creazionismo, prevedibilità e predittività, in Foro it., 2018, V, 385, nonché Id., Stupidità (non solo) artificiale, predittività e processo, in questa Rivista online, 3 luglio 2019, www.questionegiustizia.it/articolo/stupidita-non-solo-artificiale-predittivita-e-processo_03-07-2019.php, e L. Godefroy, La performativité de la justice “prédictive”: un pharmakon?, in Recueil Dalloz, n. 36/2018, pp. 1979-1985.
3. A.M. Fromkin - I. Kerr - J. Pineau, When Ais Outperform Doctors: Confronting the Challenges of a Tort-Induced Over-Reliance on Machine learning, in Arizona Law Review, vol. 61, n. 1/2019, p. 35.
4. M. Hurley e J. Adebayo, Credit Scoring in the Era of Big Data, in Yale Journal of Law and Technology, vol. 18, n. 1/2017, p. 151.
5. M. Woodward, The Need for Speed: regulatory Approaches to High-Frequency Trading in the United States and the European Union, in Vanderbilt Journal of Transnational Law, vol. 50, n. 5/2017.
6. Sul tema, si consenta un riferimento alla bibliografia menzionata, e alle critiche già formulate, in R. Pardolesi e A. Davola, «Smart Contract»: Lusinghe ed equivoci dell’innovazione purchessia, in F. Capriglione (a cura di), Liber Amicorum Guido Alpa, Cedam-Wolters Kluwer, Padova-Milano, 2019, p. 297.
7. L’espressione è di L. Floridi, La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Raffaello Cortina, Milano, 2017, p. 44.
8. Cfr. K. Rose - S. Eldridge - L. Chapin, The Internet of Things: An Overview. Understanding the Issues and Challenges of a More Connected World, ottobre 2015, Internet Society, ottobre 2015, consultabile online: www.internetsociety.org/resources/doc/2015/iot-overview.
9. Vds., ex multis, E. Germani e L. Ferola, Il wearable computing e gli orizzonti futuri della privacy, in Dir. inf., vol. 30, n. 1/2014, p. 75, e già in precedenza J. Woo e J.H. Lee, The Limitations of “Information Privacy” in the Network Environment, in Journal of Technology Law and Policy – Pittsburgh School of Law, vol. 7, autunno 2006.
10. Per un riscontro applicativo, vds. G. Contissa - G. Lasagni - G. Sartor, Quando a decidere in materia penale sono (anche) algoritmi e IA: alla ricerca di un rimedio effettivo, in Dir. internet, n. 4/2019, p. 619 (https://dirittodiinternet.it/wp-content/uploads/2019/12/2_Sartor.pdf).
11. Un tema in merito al quale il Consiglio di Stato, in alcuni recenti arresti – sez. VI, sentt. 13 dicembre 2019, nn. 8472 a 8474, sulle tracce del precedente reso dalla medesima sezione in data 8 aprile 2019, n. 2270, in Dir. internet, 2019, p. 377, con commento di S. Crisci, Evoluzione tecnologica e trasparenza nei procedimenti “algoritmici”, opinando che «l’assenza di intervento umano in un’attività di mera classificazione automatica di istanze numerose, secondo regole predeterminate (che sono, queste sì, elaborate dall’uomo), e l’affidamento di tale attività a un efficiente elaboratore elettronico appaiono come doverose declinazioni dell’art. 97 Cost. coerenti con l’attuale evoluzione tecnologica» –, ha avuto modo di puntualizzare la necessità che il software di elaborazione risponda ai principi di piena conoscibilità e imputabilità della decisione (sic!).
12. Tema oggetto, del resto, di ricerche europee in materia di utilizzo dell’intelligenza artificiale per finalità giudiziali: cfr. F. Romeo - M. Giacalone - M. Dall’Aglio, CREA Project – Conflict Resolution Equitative Algorithms, 2018, www.crea-project.eu/wp-content/uploads/2019/09/Iris-2018-CREA-Project-final-1.pdf.
13. Cfr., riassuntivamente, M. Corrales - M. Fenwick - N. Forgó (a cura di), New technology, big data and the law, Springer, New York, 2017, passim; C. Stoicescu, Big Data, the perfect instrument to study today’s consumer behavior, in Database Systems Journal, vol. 6, n. 3/2015, p. 39. A ben osservare, una tale implicita convinzione permea altresì alcuni dei più noti contributi in materia di “Law & AI”: cfr., ad esempio, J. Balkin, The Three Laws of Robotics in the Age of Big Data, in Ohio State Law Journal , vol. 78, n. 5/2017, p. 1217; R. Calo, Digital Market Manipulation, in George Washington Law Review, vol. 82, n. 4/2014, p. 995; D. Citron e F. Pasquale, The Scored Society: Due Process for Automated Predictions, in Washington Law Review, vol. 89, n. 1/2014, p. 1.
14. Cfr., per una dettagliata ricostruzione dei profili cennati nel testo, M. Durante, Potere computazionale. L’impatto delle ICT su diritto, società, sapere, Meltemi, Milano, 2019. Con riferimento precipuo all’impatto dell’AI sul fenomeno processuale, J. Nieva-Fenoll, Intelligenza artificiale e processo, Giappichelli, Torino, 2019.
15. Cfr., a mo’ di esempio, C. Busch e A. De Franceschi, Granular Legal Norms: Big Data and the Personalization of Private Law, in V. Mak - E. Tjong Tjin Taj - A. Berlee (a cura di), Research Handbook on Data Science and Law, Edward Elgar, Cheltenham-Northampton, 2018, pp. 408-424, per i quali «the emergence of super-human capacities of information-processing through artificial intelligence could make it possible to personalize the law and achieve a level of granularity that has hitherto been unprecedented on a large scale. As a consequence, granular legal norms could increase individual fairness without reducing legal certainty» (cit. dall’abstract).
16. D. Pedreschi - S. Ruggieri - F. Turini, Discrimination-aware data mining, atti della XIV Conferenza internazionale sul Knowledge Discovery in Databases (KDD), Las Vegas, 24-27 agosto 2008 (http://pages.di.unipi.it/ruggieri/Papers/kdd2008.pdf).
17. La scelta del termine non è casuale, dal momento che proprio di supervisione umana nel trattamento dei dati si parla, ad esempio, nell’ambito della General Data Protection Regulation con riguardo all’esecuzione di procedure automatizzate di cui all’art. 22. In merito, cfr. S. Wachter e B. Mittelstadt, A Right to Reasonable Inferences: Re-Thinking Data Protection Law in the Age of Big Data and AI, in Columbia Business Law Review, n. 2/2019, p. 494; M. Brkan, Do Algorithms Rule the World? Algorithmic Decision-Making in the Framework of the GDPR and Beyond, in International Journal of Law and Information Technology, vol. 27, n. 2/2019, p. 91.
18. Gruppo di esperti di alto livello per la Commissione europea sull’AI, Ethics Guidelines for Trustworthy Artificial Intelligence, 8 aprile 2019.
19. E. Fromm, Beyond the chains of illusion. My encounter with Marx and Freud, Simon & Schuster, New York, 1962.
20. A.M. Turing, Computing Machinery and Intelligence, in Mind, vol. 59, n. 236 (ottobre)/1950, pp. 433-460.
21. Certo, non può negarsi come, a fronte dell’emergere delle strategie di training riferibili al machine learning (in particolare, nella sua versione unsupervised), un secondo significativo motore di impiego sia costituito dalla capacità di tali sistemi di elaborare, partendo da un dataset, inferenze causali non pre-individuate dal computer scientist che tali dati ha fornito. Nondimeno, in ottica puramente concettuale, non vi è motivo di escludere che tali correlazioni sarebbero state individuabili anche da un individuo umano: ancora una volta ciò che marca la più significativa differenza tra i due “sistemi” è il fatto che il software sia in grado di svolgere questa attività di analisi dei dati ad alta velocità e, dunque, il fattore temporale. Vds., in merito, C. Kuner, D.J. Svantesson, F.H. Cate, O. Lynskey, C. Millard, Machine learning with personal data, is data protection law smart enough to meet the challenge?, in International Data Privacy Law, vol. 7, n. 1/2017.
22. L. Floridi, Semantic Capital: Its Nature, Value and Curation, in Philosophy & Technology, vol. 31, n. 4/2018, p. 481.
23. E. Scoditti, Ripensare la fattispecie nel tempo delle clausole generali, in questo fascicolo.
24. Al riguardo non si danno citazioni che non puntino a segnalare, con una nota d’inevitabile arbitrio e una qualche inclinazione a privilegiare i “bilanci” più recenti, valorosi tentativi di riannodare i molti rivoli di un dibattito in continuo divenire. Vds., allora, la cornice proposta in S. Grundmann e D. Mazeaud (a cura di), General Clauses and Standards in European Contract Law. Comparative Law, EC Law and Contract Law Codification, Kluwer Law International, L’Aia, 2006; gli scritti raccolti da F. Ricci (a cura di) in Principi, clausole generali, argomentazione e fonti del diritto, Giuffrè, Milano, 2018, nonché quelli curati, nell’ambito di una riflessione a compasso allargato, da G. D’Amico (a cura di), Principi e clausole generali nell’evoluzione dell’ordinamento giuridico, Giuffrè, Milano, 2017 (dello stesso A., per una ricostruzione di “come eravamo”, vds. altresì Rodotà e la stagione delle clausole generali, in Giust. civ., n. 1/ 2018, p. 129).
25. Sulla dialettica fra rule e standard, dove la prima si vuole – a colpi di analisi economica del diritto: per tutti, L. Kaplow, Rules versus Standards: An Economic Analysis, in Duke Law Journal, vol. 42, n. 3/1992, p. 557 – detti ex ante un precetto preciso, ergendosi a provincia privilegiata del legislatore, laddove il secondo rinvia la specificazione della disciplina a un momento successivo al verificarsi dell’evento regolato, con tanto di delega del potere decisionale al giudice, vds., riassuntivamente, H.C. Grigoleit e Ph.M. Bender, The Law between Generality and Particularity, in SSRN, 7 gennaio 2020, e, per una prospettazione estrema, A.J. Casey e A. Niblett, The Death of Rules and Standards, in Indiana Law Journal, vol. 92, n. 4/2017 pp. 1401-1402 («When lawmakers enact laws today, they must choose between using rules and using standards to achieve a desired goal. This choice requires a trade-off between certainty and calibration (…). Rules provide certainty through clear ex ante statements of the content of the law. (…) Because they are defined ahead of time, they can be poorly calibrated to the events as they actually occur. Standards, on the other hand, are adjudicated after the fact. As a result, lawmakers avoid high up-front design costs. Moreover, when applied after the fact, standards can be precisely tailored or calibrated to a specific context as it actually arose. But they also generate ex ante uncertainty because regulated actors do not know up front whether their behavior will be deemed by the adjudicator to comply with the standard. We suggest that technological advances in predictive and communication technologies will render this trade-off between rules and standards unnecessary. A new form of law, the microdirective, will emerge to provide all of the benefits of both rules and standards without the costs of either. These microdirectives will provide ex ante behavioral prescriptions finely tailored to every possible scenario»).
26. Cfr., per una prospettiva empiricamente solida e ormai consolidata, H.R. Arkes e R.H. Hammond (a cura di), Judgment and decision making. An interdisciplinary reader, Cambridge University Press, Cambridge, 1986; D. Klein e G. Mitchell, The Psychology of Judicial Decision-Making, Oxford University Press, Oxford, 2010.
27. E. Scoditti, Ripensare la fattispecie, op. cit.
28. Cfr. X. Labbée, Robot. La fin du monde, la fin du droit ou la transition juridique, in Recueil Dalloz, n. 2/2019, p. 78.
29. Cfr., a questo riguardo, A.J. Casey e A. Niblett, Self-driving Laws, in University of Toronto Law Journal, vol. 66, n. 4/2016, p. 429; Id., Framework for the New Personalization of Law, in University of Chicago Law Review, vol. 86, n. 2/2019, pp. 333–358.
30. Come si legge nel “manifesto” di Casey e Niblett, The Death of Rules and Standards, op. cit., «a new form of law, the microdirective, will emerge to provide all of the benefits of both rules and standards without the costs of either. These microdirectives will provide ex ante behavioral prescriptions finely tailored to every possible scenario».