inserisci una o più parole da cercare nel sito
ricerca avanzata - azzera

Gli esperimenti di giustizia predittiva nel processo di famiglia

autore: S. Stefanelli

Sommario: - 1. Code is law. - 2. La selezione della base di dati e il rischio del data snooping. - 3. Prototipi di online dispute resolution ed esperienza della mediazione familiare. - 4. Profilazione e decisione automatizzata nel giudizio civile.



1. Code is law



Il costituzionalista dell’Università di Harvard Lawrence Lessing, già noto per gli studi sul diritto d’autore e per le licenze creative commons, intuì, all’inizio del nuovo millennio, che il codice1, generato da hardware e software, è la regola del cyberspazio, una lex informatica2 rispetto alla quale è necessario un controllo collettivo e politico, se si vuole edificare il cyberspazio in funzione della protezione delle libertà e dei diritti fondamentali. Di qui l’interesse alle analogie tra informatica e diritto, e la suggestione per cui, al pari dell’ordinamento giuridico, vi sia nel codice informatico un vincolo interno, che all’applicazione (ma anche alla produzione) del diritto può essere esteso.

Antoine Garapon, magistrato, e Jean Lassègue, antropologo ed epistemologo3, sviluppano questo concetto spiegando che, se è vero che il digitale introduce una nuova legalità, stabilendo correlazioni, non si occupa tuttavia del significato, non distingue il segno dal senso, e per questo l’efficienza informatica non coincide con la comprensione. Deriva che, una volta che si sia correttamente circoscritto, ai fini della nostra indagine, il concetto di intelligenza artificiale a quello di automated decision-making (ADM), rintracciare delle regolarità nel ragionamento del giudice, stabilendo correlazioni tra alcuni elementi – selezionati per l’analisi – e la decisione giudiziale, non garantisce che il risultato corrisponda all’applicazione della legge, ma soltanto a regolarità statistiche4.

In questo senso, le applicazioni di giustizia predittiva, sviluppate a partire da dati, cioè da informazioni relative a casi simili, disconoscono la razionalità logica e la gerarchia delle fonti che caratterizzano ogni ordinamento, imponendo di interpretare ogni regola alla luce del principio o della regola superiore. Trattano, in altri termini, il diritto come un qualsiasi fatto, ricercando la prevedibilità della decisione a partire dalla regolarità statistica tra i dati selezionati per la ricerca ed il contenuto del dispositivo, e dunque possono servire da ausilio nel processo decisionale, ma non sostituire il giudizio umano, specialmente con riguardo all’obbligo di motivazione, del provvedimento amministrativo come della sentenza5.

Ne è un esempio lo studio condotto dall’University College of London sulla giurisprudenza della Corte europea dei diritti dell’uomo, inteso a dimostrare che un algoritmo di apprendimento automatico possa predire l’esito di una causa, in termini di accoglimento o meno del ricorso. I risultati sono entusiasmanti, avendo raggiunto un grado di accuratezza pari al 79%, ma solo rispetto alla parte descrittiva dei fatti di causa, piuttosto che circa la motivazione della Corte riguardo all’applicazione della Convenzione EDU. Ciò in quanto la probabilità statistica è desunta da elementi lessicali tratti in gran parte dalle motivazioni delle pronunce esaminate, e non invece desunti dal testo del ricorso introduttivo, sicché in nessun caso l’algoritmo si è dimostrato in grado di riprodurre l’iter motivazionale, né, tantomeno, di predire l’esito di un giudizio sulla base dei soli fatti lamentati dal ricorrente.

Questa è la condanna senza appello che all’esperimento riserva la Carta europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari e nei loro ambienti, elaborata dalla Commissione europea per l’efficienza della giustizia6, concludendo nel senso che, sebbene la previsione delle decisioni dei giudici in materia civile, commerciale e amministrativa possa essere un vantaggio potenzialmente auspicabile, sia per i responsabili della politica giudiziaria pubblica che per i professionisti privati del diritto, dell’intelligenza artificiale sono già auspicabili solo alcuni usi, come ad esempio l’elaborazione di tabelle – già adottate, nell’ordinamento italiano, quelle per il risarcimento del danno alla persona e, in altri sistemi statali, per gli assegni divorzili – mediante un approccio probabilistico o attuariale, che possono dimostrare come il risarcimento medio accordato in una determinata zona geografica sia più elevato di quello accordato in altra, per ragioni indipendenti dall’arbitrio giudiziale, oppure evidenziare la fallibilità di alcune tesi giuridiche, come è avvenuto quando sono stati ripensati i criteri di attribuzione dell’assegno divorzile, dopo aver preso atto che dalla crisi coniugale deriva il generale impoverimento di tutti i componenti della famiglia disgregata7. Sono invece lontani dalla concreta applicazione, e devono ancora essere sottoposti al controllo dei giuristi, pratici ed accademici, gli algoritmi che si definiscono ADM di giustizia predittiva, che si propongono di garantire la certezza del diritto e la deflazione del conflitto giudiziario, attraverso lo stimolo a transigere che deriverebbe dalla possibilità di conoscere, in anticipo, gli esiti dell’eventuale lite.

La stessa Carta dà atto della sperimentazione, per iniziativa del Ministero della giustizia francese, nella primavera del 2017, presso le Corti di appello di Rennes e di Douai, di un software di giustizia predittiva fondato sull’analisi delle decisioni in materia civile, sociale e commerciale di tutte le Corti di appello francesi, già disponibili in banche dati gratuite, messe a disposizione degli sviluppatori per valutare la qualità di un’analisi quantificata (innovativa) delle somme assegnate dalle due Corti, nonché la classificazione geografica delle discrepanze rilevate tra ricorsi e processi simili.

Ne doveva risultare uno strumento di ausilio alla decisione, non sostitutivo dell’apprezzamento del giudice umano, funzionale a da ridurre, se necessario, l’eccessiva variabilità delle decisioni giudiziarie, in attuazione del canone di uguaglianza e pari trattamento.

Malauguratamente, la sperimentazione ha dimostrato l’assenza di valore aggiunto rispetto all’impegno e al processo decisionale dei magistrati, ma anche l’esito, ben peggiore, di evidenziare difetti del ragionamento artificiale, che hanno condotto ad effetti aberranti o inappropriati, dovuti alla confusione tra semplici occorrenze lessicali presenti nelle motivazioni dei provvedimenti assunti come base di dati, e i nessi causali decisivi dei relativi dispositivi.

Un esperimento analogo è stato avviato nel 2019 da Giovanni Comandé e Denise Amram: un modello di processo decisionale automatizzato all’interno del sistema giudiziario, presso Lider Lab della Scuola Superiore Sant’Anna in collaborazione con EMbeDS, KDD Lab e Tribunale di Genova, che consente di accedere e analizzare – attraverso tecniche di machine learning – il corpus delle sentenze pronunciate dalla magistratura del capoluogo ligure, allo scopo di estrarre informazioni significative per ulteriori elaborazioni, a partire dall’identificazione di tendenze comuni nella giurisprudenza locale, in particolare in materia di risarcimento del danno non patrimoniale alla persona e assegno divorzile8.



2. La selezione della base di dati e il rischio del data snooping



Meno evidente, ma ancor più subdola, è quella che la Carta definisce sfida qualitativa, consistente nella selezione di dati certificati, da “dare in pasto” all’algoritmo, perché ne desuma una regolarità statistica. Si trattava, certo, di sentenze originali, certificate dal Ministero nel loro testo integrale, ma era stato necessario un lavoro di “arricchimento”9, per distinguere, nel fatto, i dati insignificanti da quelli rilevanti, secondo la disciplina sostanziale. È l’opera ben nota ad ogni avvocato, che consiste nello scremare solo gli elementi costitutivi del diritto che si vuole azionare, ovvero quelli estintivi, impeditivi o modificativi della pretesa che si vuole contestare, dall’esposizione che l’assistito svolge dei fatti, e che spesso riflette, soprattutto nelle controversie familiari, convinzioni personali pregiuridiche, se non anche puramente emozionali. Analoga successiva selezione è svolta, nel processo, dal giudice rispetto ai fatti che le parti intendono porre a fondamento delle proprie domande ed eccezioni, già in sede di valutazione circa l’ammissione dei mezzi istruttori, e poi per basare solo sui fatti rilevanti, a mente del precetto astratto, la decisione del caso concreto.

Ad essere determinante l’esito dell’algoritmo predittivo della decisione è dunque il metodo di questa selezione, per scongiurare il rischio di escludere dal database utilizzato per desumere la citata regolarità statistica alcune decisioni significative, che tuttavia mal si attagliano ad essere classificate secondo le griglie linguistiche prestabilite, perché l’esposizione del fatto è particolarmente succinta o la motivazione è scarna.

Si tratta, infatti, di analizzare la giurisprudenza attraverso metodi statistici, e non di riprodurre il ragionamento del giudicante, ma solo di descriverlo appunto in termini di più o meno elevata probabilità che, al ricorrere di una data occorrenza, sia assunta una decisione o quella opposta. E ciò rileva anche in termini di previsione dell’orientamento del singolo giudice monocratico, alla luce della sua, personale, giurisprudenza.

Esemplificando, è fuori di dubbio che la maggior parte delle decisioni in materia di affidamento dei figli minori nella crisi di coppia disponga il collocamento presso la madre, ma ciò non dipende necessariamente dall’intimo pregiudizio del giudice circa il difetto di attitudine dei padri a farsi carico dei quotidiani compiti di cura. Sarà invece necessario comprendere nelle occorrenze linguistiche da valorizzare, all’interno dell’esposizione dei fatti di causa, tutti i termini da cui il giudicante ha desunto il contributo già apportato da ciascun genitore alle esigenze dei bambini, durante la fisiologia del rapporto, i tempi di permanenza presso i genitori e la loro disponibilità di tempo ed energie da dedicare ai compiti domestici e di cura. Ne deriveranno conseguenze anche rispetto alla quantificazione dell’assegno periodico di mantenimento, ai sensi dell’art. 337-ter, c.c., sicché è evidente come non possa difettare il contributo dei tecnici del diritto già in fase di progettazione dello strumento, e di selezione dei campioni selezionati e trattati, ma anche che resta necessario conservare all’intelligenza umana la decisione ultima, anche di discostarsi dai risultati algoritmici, quando si pongano in contrasto col dettato normativo e col suo spirito, sempre che sia possibile conoscere e verificare tutto il processo valutativo condotto dallo strumento informatico, tutte le correlazioni che hanno sostenuto il risultato proposto, eventualmente escludendo la rilevanza di alcuni termini e valorizzandone altri, per escludere false correlazioni10.

Tanto risponde all’applicazione dell’ultimo dei cinque principi delineati dalla Carta etica, di controllo da parte dell’utilizzatore11, da realizzare anche attraverso la trasparenza tecnica del codice e della documentazione assunta a base di dati, in funzione del quarto principio, di trasparenza, imparzialità ed equità12. Anche la Relazione della commissione giuridica al Parlamento UE, Robotics and Artificial intelligence, ribadisce il principio di intelligibility of decisions13, che coincide col vincolo di motivazione di cui all’art. 111, comma 6, Cost., posto a presidio dei correlati principi di legalità, indipendenza del giudice

e diritto di difesa.

Tuttavia, ove l’algoritmo sia coperto da privativa intellettuale

– come ha evidenziato la Corte suprema del Winsconsin14 nel caso Loomis, rispetto all’algoritmo Compas (Correctional offender management profiling for alternative sanctions) – il diritto di difesa può essere compromesso dall’impossibilità di conoscere e mettere in discussione i meccanismi di elaborazione dei dati posti in essere dal programma.

E in ogni caso, quand’anche l’algoritmo sia open source, permane il rischio che, posto l’algoritmo di ADM innanzi a due alternative che ritenga equivalenti, secondo i criteri preassegnati, esso scelga a caso, perseguendo l’obiettivo di massimizzare la realizzazione dei suoi obiettivi finali15, e cioè pur di arrivare a una decisione. Si noti, infatti, che, a differenza del robot propriamente inteso16, la macchina intelligente non svolge solo lavori ripetitivi e definiti, ma, eventualmente imitando il cervello umano attraverso reti neurali, risponde ad eventi imprevisti, creando modelli e categorie per organizzare il mondo circostante e per compiere azioni conosciute, e così cresce e migliora con l’esperienza17.

Di conseguenza, proseguendo secondo le regole teorizzate da Ugo Pagallo, l’intelligenza artificiale ha l’obiettivo di preservare il contenuto dei suoi obiettivi finali, di migliorare la propria razionalità e intelligenza per migliorare il proprio processo decisionale, sempre per soddisfare i suoi obiettivi finali, e, quindi, di acquisire a tale scopo quante più risorse possibili.

Ne deriva che, pur di raggiungere il suo target, l’algoritmo intelligente può assumere decisioni umanamente discutibili, nel breve periodo, oppure sfruttare le proprie capacità per “ingannare” l’intelligenza umana: lo ha dimostrato un esperimento nel quale una pinza robotica, addestrata per afferrare una palla, aveva imparato a sfruttare l’illusione ottica determinata dall’angolazione della telecamera che la osservava, per far apparire ai ricercatori umani di essere riuscita nel proprio tentativo, sebbene non toccasse neppure l’oggetto.

Oltre la quantità e la qualità dei dati, anche il contesto di raccolta e le modalità di selezione e apprendimento sono, in altri termini, centrali, come è stato evidente a tutti quando il chatbot Tay di Microsoft, istruito a dialogare sulle piattaforme social dagli utenti umani, ha imparato in sole ventiquattro ore a pubblicare frasi sessiste, razziste e xenofobe18. Il processo di apprendimento, guidato o meno19, di una I.A. adattiva analizza infatti questi dati, identifica dei modelli sulla base delle correlazioni rinvenute e crea modelli in modo ricorsivo, su cui analizza vecchi e nuovi dati, compresi quelli che riceve dopo la sua immissione sul mercato.

In altre parole, il machine learning è l’abilità della macchina di imparare dalle proprie esperienze, elaborando le informazioni di base a partire da algoritmi prefigurati, ma anche curandone altri nuovi. Attraverso le reti neuronali, si può giungere al deep learning, caratterizzato dall’estensione dell’autonomia della macchina alla selezione delle informazioni, e, sebbene i prototipi ideati per la giustizia predittiva siano ben lontani da questi traguardi, la loro semplice prefigurazione introduce dilemmi circa la compatibilità coi canoni costituzionali, di assai ardua soluzione.

Come evidenzia infatti, ancora una volta, la Carta etica europea sull’utilizzo dell’I.A. nei sistemi giudiziari e nei loro ambienti, “la modellizzazione matematica di determinati fenomeni sociali non è un compito paragonabile ad altre attività quantificabili più facilmente (isolare i fattori realmente causativi di una decisione giudiziaria è un compito infinitamente più complesso di giocare, per esempio, una partita di Go o riconoscere un’immagine): il rischio di false correlazioni è molto più elevato. Inoltre, in dottrina, due decisioni contraddittorie possono dimostrarsi valide qualora il ragionamento giuridico sia fondato. Conseguentemente la formulazione di previsioni costituirebbe un esercizio di carattere puramente indicativo e senza alcuna pretesa prescrittiva”.



3. Prototipi di online dispute resolution ed esperienza della mediazione familiare



Rechtwijzer, elaborato dall’Università di Twente e da Hiil (Hague Institute for the Internationalisation of the Law), è un programma olandese di gestione on line della mediazione nelle controversie di carattere civile, comprese quelle di diritto della famiglia, originato dall’elaborazione della una piattaforma di consulenza presente a livello internazionale nelle politiche di promozione dello Stato di diritto, che crea una interazione fra utente, mediatore e assistente legale, in modalità digitale e dematerializzata, fornendo servizi di triage, counseling legale, mediazione in senso proprio, monitoraggio della fase esecutiva20, e giungendo fino alla predisposizione on line di un piano di divorzio e parentale, comprensivo del calcolo degli assegni di mantenimento ai figli, commisurato al reddito familiare, ai bisogni dei minori, alle capacità lavorative e finanziarie dei genitori (Child Support Calculation Tool, KART).

Analogamente, in Francia Predictice è un algoritmo che si propone di prevedere i probabili esisti di un giudizio, alla luce di precedenti giudicati rispetto a casi simili, selezionati da una delle banche dati giuridiche maggiormente diffuse, allo scopo di sostenere gli avvocati nel “testare la tenuta delle argomentazioni e scegliere la strategia migliore”, ottimizzando le risorse intellettuali e di tempo e valutando l’opportunità di proporre una definizione transattiva della controversia o giovarsi di strumenti alternativi al giudizio21.

L’utilità di siffatti strumenti viene sostenuta con riguardo all’obiettivo 16 dell’Agenda ONU 2030, di “promuovere società pacifiche e inclusive orientate allo sviluppo sostenibile, garantire a tutti l’accesso alla giustizia e costruire istituzioni efficaci, responsabili e inclusive a tutti i livelli”22, in considerazione dell’effetto deflattivo del contenzioso che deriverebbe dall’incentivo alla definizione concordata della crisi di coppia, conseguente alla, pur limitata, prevedibilità dell’eventuale decisione giudiziaria (assunta per ipotesi, indimostrata, l’uniformità di indirizzo, almeno all’interno di un dato ufficio giudiziario23), ma anche alla consapevolezza del reciproco contributo o sacrificio, conseguente alla separazione.

In questo senso meritano di essere valorizzati anche i modelli sperimentati in Italia per la definizione degli assegni di mantenimento, soprattutto nell’ambito della negoziazione assistita nella separazione e nel divorzio, oppure nella mediazione familiare, conservando tuttavia al professionista legale la formulazione definitiva dell’ipotesi di soluzione consensuale – o meglio stragiudiziale – del conflitto, e naturalmente al pubblico ministero il vaglio di conformità all’interesse dei minori o il rilascio del nulla osta.

Non un sistema processuale totalmente robotico, dunque, ma un ausilio all’argomentazione giuridica, nella quale l’interprete umano non è solo bocca della legge, ma è chiamato ad “esplicare, adattare, completare”24, e, dunque, a valutare non solo i fatti ma anche le reali attitudini e le personalità dei coniugi, come avviene attraverso quell’attività, intimamente umana, che si esplica nell’udienza presidenziale di comparizione, con la sua dimensione formale e rituale25.

Se, dunque, i fatti possono essere tradotti in valori misurabili solo con relativa approssimazione statistica, la percezione degli stessi ma anche delle parti, nel processo di famiglia, difficilmente può sopportare una effettiva calcolabilità, con conseguente limitata attendibilità degli esiti dell’elaborazione elettronica, e, dunque, ristretta efficacia deflattiva del contenzioso.

Tanto vale, a maggior ragione, per il diritto di famiglia, nel quale rivestono un ruolo fondamentale clausole generali, norme elastiche e concetti indeterminati come quello di superiore interesse del minore, o di natura assistenziale, perequativa e compensativa dell’assegno all’ex coniuge26.

Ma altrettanto può dirsi con riguardo all’effetto di consolidamento dell’orientamento interpretativo che deriverebbe dall’applicazione dell’algoritmo, specialmente nel momento in cui la banca dati di partenza si arricchisca delle decisioni assunte proprio in forza della probabilità statistica. Una giurisprudenza dominante, in un sistema di quantitativismo giuridico diretto dagli algoritmi, è in altri termini destinata a diventarlo sempre di più, impedendo quei revirement che realizzano, invece, l’esigenza di rendere una decisione non solo secondo diritto, ma anche giusta, attraverso la valorizzazione di elementi di fatto e di diritto prima trascurati.

Per altro verso, l’applicazione dell’algoritmo predittivo potrebbe risolversi in danno, anziché a sostegno, dell’imparzialità del magistrato, che si dovrà assumere l’onere, e in alcuni sistemi ordinamentali anche la responsabilità, di giustificare la decisione contraria a quella prevista27.



4. Profilazione e decisione automatizzata nel giudizio civile



La Direttiva UE n. 680/2016, relativa alla protezione delle persone fisiche con riguardo al trattamento dei dati personali da parte delle autorità competenti a fini di prevenzione, indagine, accertamento e perseguimento di reati o esecuzione di sanzioni penali, vieta “una decisione basata unicamente su un trattamento automatizzato, compresa la profilazione, che produca effetti giuridici negativi o incida significativamente sull’interessato [...] salvo che sia autorizzata dal diritto dell’Unione o dello Stato membro cui è soggetto il titolare del trattamento e che preveda garanzie adeguate per i diritti e le libertà dell’interessato, almeno il diritto di ottenere l’intervento umano da parte del titolare del trattamento”.

L’ambito di applicazione della fonte europea è chiaramente estraneo al processo civile, eppure esprime la medesima esigenza di controllo e di contraddittorio umano che è fatta propria dalla richiamata Carta etica, e anche dalle Guidelines for Trustworthy AI, pubblicate dall’HighLevel Expert Group on Artificial Intelligence istituito dalla Commissione Europea nel giugno del 201828, secondo le quali “i sistemi di I.A. dovrebbero consentire l’equità sociale sostenendo l’agenzia umana dei diritti fondamentali, e non diminuire, né limitare e neppure deviare l’autonomia umana”. Negli stessi termini si esprime l’art. 22 del Reg. UE n. 679/2016 (GDPR) prevedendo la possibilità dell’interessato di chiedere l’intervento umano, e di essere sentito dal titolare del trattamento dei propri dati, anche nelle ipotesi eccezionali nelle quali è ammessa una decisione basata unicamente sul trattamento automatizzato dei dati personali stessi.

Decisioni automatizzate di tal genere possono basarsi sui dati forniti direttamente dalle persone interessate, oppure ottenuti per il tramite dell’osservazione delle abitudini e dei comportamenti degli individui, compresi i dati di navigazione o quelli registrati da una applicazione software, ovvero sui dati estratti da un profilo predefinito dell’individuo, come il credit scoring, o ancora sul riconoscimento facciale, come avviene nei cancelli automatizzati installati (o in corso di installazione) negli aeroporti di Napoli, Roma Fiumicino, Milano Linate e Malpensa, che collegano i dati biometrici ai passaporti o alle carte di identità dei passeggeri, sostituendo le carte di imbarco per consentire o vietare l’accesso all’imbarco, e da queste decisioni possono derivare anche effetti pregiudizievoli per le persone ed i loro diritti fondamentali.

Per questo gli artt. 13, par. 2 lett. f), e 14, par. 2 lett. g), prescrivono al titolare del trattamento di fornire agli interessati informazioni dettagliate sul processo decisionale automatizzato, quando ricorrono le condizioni previste dall’art. 22, par. 1 e 4.

Per lo stesso motivo si propone di dotare l’algoritmo bancario, che decide circa la nostra richiesta di denaro contante allo scopo di proteggerci da frodi, non solo di informazioni sulla nostra situazione contingente e sui bisogni della nostra famiglia, ma anche di un modulo etico che ne vincoli le capacità di azione, limitando il suo margine di autonomia, nel momento in cui ci trovassimo nella necessità di prelevare urgentemente somme ingenti.

L’applicazione del Regolamento generale sulla protezione dei dati personali al processo civile subisce, tuttavia, significative limitazioni all’esercizio dei diritti altrimenti riconosciuti all’interessato, rispetto al trattamento dei suoi dati per ragioni di giustizia. Secondo l’orientamento delle SS.UU.29, quando si tratta di far valere in giudizio il diritto di difesa, le garanzie definite dal codice di rito prevalgono infatti sulla disciplina generale.

Il trattamento, di cui sono titolari gli uffici giudiziari di ogni ordine e grado, ex art. 46 d.lgs. n. 196/2003, rende pertanto inapplicabili una serie di norme del codice medesimo. In questo senso disponeva l’art. 47, abrogato con d.lgs. n. 101/2018, e dispone, oggi, l’art. 9, par. 1 e 2, lett. f), del citato Reg. UE n. 2016/679, per far prevalere le garanzie offerte dal codice di procedura civile, tra l’altro, al corretto svolgimento del contraddittorio, all’imparzialità e all’indipendenza del giudice che, per il momento, resta necessariamente umano.

NOTE

1 L. leSSiG, Code is Law. On liberty in Cyberspace, in Harvard Magazine, 2000, oggi in id., Code, II ed., New York, 2006, 5 ss. La tesi era già stata sviluppata in L. leSSiG, Code and other Laws of cyberspace, New York, 1999, e poi in id., Law Regulating Code Regulating law, in Loyola University Chicago Law Journal, 2003, 35.

2 J. reidenberG, Lex Informatica: The Formulation of Information Policy Rules Through Technology, in Texas Law Review, 1998, 76, 553.

3 A. Garapon, J, laSSèGue, Justice digitale. Révolution graphique et rupture anthropologique, Paris, 2018, passim.

4 La regolarità statistica, o convergenza in senso statistico-probabilistico, consente di associare a un evento una misura del grado di verosimiglianza dell’evento, in un intervallo compreso tra 0 e 1 (pari al 100%), in una successione di osservazioni replicate. Se ne trova una applicazione, secondo il bayesianesimo giuridico, in Trib. Milano, sez. gip., sent. 18 giugno 2015, in www.penalecontemporaneo.it/upload/1445325933Trib_MI_Gennari.pdf (consultato il 6 novembre 2020), allorquando è stato escluso che un’impronta dattiloscopica, verificata con un errore inferiore al 99,9%, sia sufficiente per suffragare una sentenza di condanna in quanto, data una probabilità iniziale di colpevolezza pari a 0,1% in ragione delle altre risultanze istruttorie, tale prova scientifica offre una probabilità di colpevolezza pari soltanto al 50%, e dunque non sufficiente ad escludere il ragionevole dubbio e la presunzione di innocenza.

5 Cons. Stato, 8 aprile 2019, n. 2270, in Foro It., 2019, III, 606; TAR Lazio, sez. III bis, 13 settembre 2019, n. 10964, rese a proposito dell’algoritmo “Buona scuola”, utilizzato per l’assegnazione delle cattedre agli insegnati di scuola secondaria di secondo grado: il primo provvedimento impone alla soggezione della regola algoritmica alla piena cognizione e al pieno sindacato del giudice amministrativo, a garanzia del diritto di difesa, e il secondo, in termini ancora più netti, definisce la possibilità stessa di una tale piena automazione come una “deleteria prospettiva orwelliana”.

6 CEPEJ, European ethical Charter on the use of Artificial Intelligence in judicial systems and their environment, adottata a Strasburgo il 3-4 dicembre 2018, e pubblicata dal Consiglio d’Europa nel febbraio 2019.

7 Cfr. E. al Mureden, R. rovatti, Metodi a confronto, e Conclusioni, in E. al Mureden, R. rovatti, Gli assegni di mantenimento tra disciplina legale e intelligenza artificiale, Milano, 2020, 333 ss., 359 ss.

8 I risultati dell’esperimento sono stati spiegati dai ricercatori a AlgorithmWatch, Bertelsmann Stiftung, Report Automating society 2020, Italy, in https:// automatingsociety.algorithmwatch.org/report2020/italy/ (pagina consultata il 14 novembre 2020), descrivendo cinque stadi, l’ultimo dei quali mira a strutturare l’analisi dell’argomento giuridico a un livello di astrazione e sistematicità tale da contribuire alla semplificazione dei compiti del giudice.

9 In questi termini si esprime J.P. Jean, Penser les finalités de la nécessaire ouverture des bases de données de jurisprudence, Conferenza del 14 ottobre 2016 presso la Corte di Cassazione, in https://www.courdecassation.fr/IMG///Open%20 data,%20par%20Jean-Paul%20Jean.pdf (pagina consultata il 7 novembre 2020).

10 In questo senso si veda, ad esempio, il sistema di personalizzazione delle tabelle descritto da G. d’aietti, Il “metodo” D’Aietti e ReMida Famiglia, in E. al Mureden, r. rovatti, Gli assegni di mantenimento tra disciplina legale e intelligenza artificiale, cit., 313 ss., 328 ss., per valorizzare nell’assegno divorziale la durata del matrimonio, le condizioni di salute e le capacità lavorative del beneficiario, il suo contributo alla formazione del patrimonio familiare e le ragioni della rottura del vincolo, ovvero, per l’assegno ai minori, il tenore di vita precedente e le esigenze attuali, l’età e il numero di figli, ovvero il tipo di scuola frequentato. Restano tuttavia ignote all’utilizzatore le ragioni dell’impatto di ciascun indicatore sull’incremento o sul decremento della somma da riconoscersi, a differenza dei correttivi dipendenti dalla ripartizione dei tempi di permanenza e dell’impegno di accudimento, il cui impatto può essere determinato dall’utente, secondo una scala di graduazione percentuale. Ulteriore limite di tale approccio coinvolge l’ampiezza del numero di decisioni assunte a base statistica, ma anche la loro riferibilità ad aree geografiche il cui reddito medio della popolazione è ben più elevato rispetto ad altri territori, meno prosperi. Correttivi di impatto predeterminato sono previsti, come criteri di variazione, anche dai metodi Palermo, su cui G. bertoli, Il metodo Palermo, ivi, 243 ss., e MoCAM, su cui M. MaltaGliatti, G. Marliani, Il modello MoCAM, ivi, 255 ss. Cfr. anche i progetti di giustizia predittiva disponibili per alcune materie sui siti web delle Corti di appello di Bari https://www.corteappello.bari.it/buone_prassi_4.aspx (che comprende anche le decisioni ex art. 708 c.p.c., il diritto dell’ex coniuge al trattamento di fine rapporto, la nozione di ordine pubblico nei giudizi di delibazione e l’esecuzione coattiva dei provvedimenti in materia di affidamento dei figli), Brescia https://www.giustiziabrescia.it/giustizia_predittiva.aspx, e Venezia https:// www.corteappello.venezia.it/giurisprudenza-predittiva-per_198.html (visitati il 12 novembre 2020), i quali si limitato alla raccolta di buone prassi e orientamenti giurisprudenziali dell’ufficio, nonché all’analisi statistica dei tempi attesi per il giudizio e dei prevedibili esiti.

11 Il Conseil constitutionel, con decisione del 12 giugno 2018 n. 765, ha sottolineato che il rischio di aggirare i principi costituzionali di imparzialità e buon andamento dell’amministrazione è tanto più grave nel caso di algoritmi capaci di apprendere, in quanto, potendo rielaborare le regole sulla base delle quali sono stati programmati, potrebbero adottare decisioni incomprensibili per la stessa p.a. Nessuno sarebbe in grado di garantire che le regole applicate dagli algoritmi siano conformi alla legge, e le regole applicate da intelligenze artificiali dinamiche potrebbero finire con l’essere non determinabili in anticipo, con conseguente paradossale violazione dal principio di certezza del diritto che è proprio l’obiettivo perseguito dai sostenitori del ricorso ad algoritmi per l’efficientamento dell’azione amministrativa. Di conseguenza, gli algoritmi possono essere utilizzati anche per assumere decisioni amministrative che producono effetti rispetto a un individuo, a condizione di conservare un controllo umano ex ante, stabilendo in anticipo le regole e i criteri in base a cui la decisione deve essere adottata, sempre che la decisione individuale espliciti che è stata adottata sulla base di un algoritmo e, a richiesta dell’interessato, l’amministrazione deve poter spiegare le principali caratteristiche di funzionamento dello stesso (open source), la decisione non si fondi o riguardi dati appartenenti a categorie particolari, o sensibili, e purché il responsabile del trattamento possa spiegare, in modo dettagliato e in una forma intelligibile alla persona destinataria della decisione, che la stessa è stata adottata nel rispetto della legge.

12 Primo è il principio di rispetto dei diritti fondamentali, secondo quello di non discriminazione, terzo quello di qualità e sicurezza, tutti palesemente coinvolti nelle garanzie imposte allo sviluppo della giustizia predittiva.

13 Report with Recommendation to the Commission on Civil law Rules, 16 febbraio 2017, Principi etici, n. 12: “pone l’accento sul principio della trasparenza, nello specifico sul fatto che dovrebbe sempre essere possibile indicare la logica alla base di ogni decisione presa con l’ausilio dell’intelligenza artificiale che possa avere un impatto rilevante sulla vita di una o più persone; ritiene che debba sempre essere possibile ricondurre i calcoli di un sistema di intelligenza artificiale a una forma comprensibile per l’uomo; ritiene che i robot avanzati dovrebbero essere dotati di una “scatola nera” che registri i dati su ogni operazione effettuata dalla macchina, compresi i passaggi logici che hanno contribuito alle sue decisioni”.

14 Supreme Court of Wisconsin, State of Wisconsin v. Eric L. Loomis, Case no. 2015AP157-CR, 5 April 13 July 2016. Si trattava di un programma che prevede il rischio di recidiva e individua i bisogni di occupazione, disponibilità di alloggio, abuso di sostanze stupefacenti, a partire dal fascicolo dell’imputato e attraverso le risposte da costui fornite ad un questionario su 21 punti, elaborato su fattori statistici. Nel 2016 l’organizzazione non governativa ProPublica ha condotto una ricerca, analizzando le prestazioni di Compas su un campione di oltre 7000 persone arrestate nella contea di Broward, in Florida, tra il 2013 e il 2014, e dimostrando che le previsioni formulate erano inaffidabili e risentivano di distorsioni su base razziale, favorendo gli imputati bianchi rispetto agli imputati neri, dal momento che si rilevava una sottostima del rischio di recidiva dei secondi. Cfr., per la metodologia e i risultati dettagliati della ricerca, https://www. propublica.org/datastore/dataset/compas-recidivism-risk-score-data-and-analysis (visitato il 12 novembre 2020).

15 U. paGallo, The law of Robots: crimes, contracts and torts, Cham, 2013.

16 Come lavoratore artificiale, biosintetico, termine derivato dal romanzo R.U.R. (Rossum’s Universal Robots), di Karel Capek, del 1920, nel quale controllo passo-passo e retroazione sono forniti da un programma che viene eseguito da un computer esterno o interno al robot o da un microcontroller.

17 È questa l’autonomia, che la citata Relazione al Parlamento UE definisce “come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un’influenza esterna; che tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l’interazione di un robot con l’ambiente”, e che coincide col deep learning.

18 Le capacità degli assistenti vocali di comprendere e rispondere in modo sensato alla conversazione umana sono sotto gli occhi di tutti, ed altrettanto ha dimostrato Codice Eloisa 2015 (Easy LOgic Intelligent Software Automa), frutto dell’evoluzione di un chatbot attivo fin dal 1987, in grado di offrire una completa esperienza di conversazione uomo-macchina in linguaggio naturale a utenti di tutto il mondo, grazie all’esperienza maturata in dialoghi in ben dieci lingue. L. loMartire, La personalità intelligente di ELOISA (Easy Logic Intelligent Automa), in Psychofenia, 2008, V, 8, evidenzia come l’obiettivo degli sviluppatori fosse non tanto quello di emulare l’intelligenza umana, quanto piuttosto di emulare la personalità umana, e che è raggiunto ogni volta che la macchina viene scambiata per un essere umano, magari anche simpatico, che ha “un mondo interiore fatto di convezioni, sulla base delle quali esprime opinioni. Inoltre è capace di cambiare umore, adeguandosi al comportamento dell’utente. Il carattere di base può essere definito come ‘egocentrico’, ‘ironico’, ‘paziente’. Vi è senza dubbio una certa dose di ‘cinismo’, ma questo affiora solo in determinati momenti (per esempio quando si tratta di giudicare la natura umana). Sono tutti aggettivi scaturiti da considerazioni degli utenti, ma l’aggettivo forse più interessante è: ‘saggia’”.

19 J. ruSSel, P. norviG, Intelligenza artificiale. Un approccio moderno, 1, London, 2005, distinguono l’apprendimento guidato (dai dati, dai conflitti, dalle dipendenze) statistico (simbolico e neuronale, come quello già citato di Bayes, e la regressione lineare) da quello per rinforzo, approfondendo anche l’apprendimento basato sulle istanze e i metodi kernel, delle macchine a vettore di supporto.

20 https://rechtwijzer.nl (url visitato il 12 ottobre 2020), su cui cfr. C. CaStelli, D. piana, Giustizia predittiva. La qualità della giustizia in due tempi, in Questione giustizia, 2018, 4, accessibile alla pagina https://www.questionegiustizia.it/articolo/ giustizia-predittiva-la-qualita-della-giustizia-in-due-tempi_15-05-2018.php (visitata il 12 ottobre 2020). Si consideri che in Olanda è attiva anche la LBIO, Ufficio nazionale per la riscossione degli assegni alimentari, un’istituzione governativa attiva nella riscossione, transattiva ovvero attraverso pignoramento, degli assegni alimentari e di mantenimento, che vengono calcolati secondo lo standard non vincolante Trema, di elaborazione giurisprudenziale, tenendo conto di reddito da lavoro primario e secondario, sovvenzioni per studio, sussidi, pensioni, redditi da locazione, interessi e altri redditi da patrimonio, contributi alle spese domestiche in comune con altre persone; esistenti possibilità di aumento del reddito (capacità di guadagno), patrimonio, pagamento di canoni di locazione, rimborsi di prestiti ipotecari, interessi e altre spese fisse, polizze assicurative, spese di viaggio regolari necessarie, obblighi finanziari verso altre persone, costi di cure mediche particolari del creditore e/o di membri della sua famiglia, spese legate alla produzione di reddito, altri debiti.

21 https://predictice.com/ (consultato il 12 novembre 2020).

22 https://unric.org/it/obiettivo-16-pace-giustizia-e-istituzioni-forti/ (consultato il 12 novembre 2020).

23 Obiettivo cui mirano l’art. 47-quater della legge di ordinamento giudiziario, che assegna al presidente di sezione la cura dello scambio di informazioni sulle esperienze giurisprudenziali all’interno della sezione, e la Delibera di plenum del 25 gennaio 2017 che, in materia di formazione delle tabelle di organizzazione degli uffici giudicanti per il triennio 2017/2019, art. 97, dispone a tale scopo riunioni periodiche obbligatorie.

24 G. paCChioni, I poteri creativi della giurisprudenza, in Riv. dir. comm., 1912, 41.

25 Cfr. J. laSSèGue, La justice se prépare à l’arrivée des algorithmes, 2 gennaio 2019, in www.mediapart.fr/journal/france/020119/la-justice-se-prepare-l-arrivee-des-algorithmes?onglet=full (visitato il 12 novembre 2020): “La giustizia non significa soltanto applicare la legge... È riuscire a raggiungere, attraverso un’operazione molto ritualizzata e altrettanto complessa, l’accordo sull’esito di una certa disputa. Tutto ciò richiede tempo. Questo è il motivo per cui un processo è lungo e complicato, e comprende ogni sorta di ritualizzazione collettiva. Se si dimentica l’intera dimensione antropologica del diritto per conservarne solo la dimensione algoritmica – per alcuni giuristi, un sogno formalista –, si perde di vista l’obiettivo fondamentale: rendere giustizia”.

26 Aspettarsi dalla macchina una prevedibile applicazione di questi concetti “è alquanto illusorio” per D. dalFino, Stupidità (non solo) artificiale, predittività e processo, in le-predittivita-e-processo_03-07-2019.php (visitato il 12 novembre 2020), commentando il volume di J. nieva Fenoll, Inteligencia artificial y proceso judicial, 2018, trad. it. di P. CoMoGlio, Intelligenza artificiale e processo, Torino, 2019. Contraria l’opinione di J. Frank, Courts on Trial, New York, 1949, che sosteneva l’applicazione dei calcolatori al processo proprio per l’applicazione oggettiva delle norme giuridiche. In questo senso sembra potersi leggere anche il d.d.l. promosso dal Ministero della giustizia francese “di programmazione 2018-2022 e di riforma per la giustizia” (Plpj) 2018-2022, oggetto di ampia critica e discussione. Cfr. E. Jeuland, Justice numérique, justice unique?, in Analyse, opinion, critique, 24 aprile 2018, https://aoc.media/analyse/2018/04/24/justice-numerique-justice-inique (visitato il 12 novembre 2020).

27 Ricordava P. CalaMandrei, Opere giuridiche, vol. 1, 1965, Napoli, 625, che un ordinamento moderno ha bisogno non di giudici inanimati, ma di giudici con l’anima, giudici engagés “che sappiano portare con vigile impegno umano il grande peso di questa immane responsabilità che è il rendere giustizia”.

28 Orientamenti etici per un’intelligenza artificiale affidabile, Bruxelles, 8 aprile 2019, documento revisionato e diffuso all’esito di una consultazione pubblica rispetto ad una precedente versione, cui hanno partecipato oltre 500 esperti.

29 Cass., S.U., 8 febbraio 2011, n. 3034, in Corriere giur., 2011, 943, con nota di M. Stella, Il legislatore processuale del 1940 tutela la privacy delle parti (senza saperlo?). Cfr. F. MiCoZZi, Il trattamento di dati personali per fini di giustizia post mortem, consultato in bozze, in Foro it., 2021, I, 273.