Continua il dibattito aperto dall’articolo dal titolo “Arrivano i robot”, dedicato a come l’intelligenza artificiale sta cambiando noi e il nostro modo di vivere e di pensare
di Gabriele Della Morte *
Quanto è intelligente l’intelligenza artificiale? Abbastanza da potere essere adoperata in quell’esperienza così delicata che prende il nome di processo? E, nel caso, chi può stabilirlo? Un giudice, oppure un algoritmo?
A caldo è forte la tentazione di rispondere: un giudice! Eppure, se una sequenza ordinata di operazioni di calcolo è più potente, veloce e imparziale, del ragionamento umano se ne dovrebbe dedurre che l’algoritmo si presta meglio a elaborare decisioni complesse come quelle espresse nel processo (ci riferiamo qui alla cosiddetta automazione sostitutiva – ovvero alla macchina che prende il posto dell’uomo – e non alla semplice funzione di supporto, sulla quale c’è un generale consenso).
Né varrebbe l’obiezione per la quale l’algoritmo non sente, non conoscendo l’empatia. Può apprenderla, può far finta di sentire. Infatti, l’intelligenza artificiale procede per mimesis, per copia del comportamento umano. Sicché basterebbe elaborare dei criteri di misurazione per ciascuno degli elementi che si intendono ponderare – paura, commozione, rabbia, ravvedimento, eccetera – per superare questa prima obiezione. In fondo se le automobili intelligenti sanno già copiare il conducente e districarsi autonomamente in una strada trafficata, perché non immaginare di copiare anche gli attori del processo e il suo apogeo: il giudizio? Se un semplice smartphone riconosce la strada più breve o la meno trafficata per condurci a destinazione, perché un software giuridico non potrebbe individuare il percorso argomentativo preferibile o i precedenti più significativi per permettere di decidere nel modo migliore?
Non siamo lontani da simili scenari. Il software Alibi, per esempio, illustra gli argomenti spendibili da un accusato a fronte di uno specifico crimine; Compas, si occupa di pronosticare il rischio di recidiva di una persona condannata per un reato; Watson Debater riconosce gli argomenti più comunemente adoperati rispetto a un tema di discussione; Ross Intelligence suggerisce la correlazione tra i ragionamenti giuridici e le percentuali di successo in un contenzioso, e così via.
Resta, però, il nodo del giudizio. Quando scriviamo che tutto ciò potrebbe servire a rendere un giudizio migliore dimentichiamo di menzionare migliore per chi, o in relazione a cosa. Occorre concentrare ogni attenzione su questo punto, anche perché siamo agli albori di una rivoluzione tecnologica che – proprio in quanto rivoluzionaria – ha il carattere dell’irreversibilità.
A tale proposito va innanzitutto rilevato che il modus operandi dell’intelligenza artificiale è fondato sul ricorso ad algoritmi, complesse sequenze di calcolo in grado di tradurre un oceano di numeri/informazioni – i big data – in informazioni rilevanti per risolvere una varietà sterminata di problemi: da quale sia la strada più breve per giungere a casa al se un determinato screening medico debba essere considerato attendibile per diagnosticare una certa patologia.
Ciò premesso, appiattire l’attività di interpretazione giuridica a livello di mera esperienza di calcolo comporta dei rischi. Ma attenzione: questi ultimi non si manifestano tanto sul piano della empatia o dell’equità – potendo certamente immaginare un algoritmo più equo e/o più empatico di un giudice – quanto su quello, ben più generale, del falso assunto per il quale passato e presente siano esperienze commensurabili, soppesabili sullo stesso piano. Il giurista avveduto sa bene che la storia si nutre anche di discontinuità, e che talvolta sono state proprio le interpretazioni di rottura a innescare spirali volte al rafforzamento di interessi sino a quel momento privi di tutela. Tutto questo l’algoritmo non è in grado di comprenderlo, se non registrando prima, e mimetizzando poi, una sequenza di discontinuità che in tal modo diventerebbero a loro volta continue!
Quanto sostenuto è particolarmente evidente nel quadro della protezione dei diritti umani, dove il ricorso a decisioni fondate in un’ottica predittiva (ergo sulla base dei big data) può entrare facilmente in rotta di collisione con la natura prescrittiva del diritto. In tali ambiti, ovvero in quelle aree dove il diritto è naturalmente sbilanciato a favore del debole, l’algoritmo ancora non si presta a sostituire la delicata opera di interpretazione giuridica.
Scrivo “ancora” perché ho ben chiaro che ci troviamo all’alba di un nuovo paradigma, rispetto al quale resta sempre valido il monito di Roscoe Pound: “Il diritto deve essere stabile eppure non può restare immobile” [Law must be stable and yet it cannot stand still, in Interpretation of Legal History, 1922, p. 1]. Certezza della norma versus capacità di adattamento. La drammaturgia del diritto è ancora tutta lì.
* docente di Diritto internazionale penale, facoltà di Giurisprudenza, Università Cattolica
Sedicesimo articolo di una serie dedicata a come l’intelligenza artificiale ci sta cambiando
Per un primo approfondimento, cfr.: GABRIELE DELLA MORTE, Big data e protezione internazionale dei diritti umani. Regole e conflitti, Napoli, 2018; LUCIANO FLORIDI, The Fourth Revolution. How the Infosphere is Reshaping Human Reality, Oxford, 2014 (trad. it. La quarta rivoluzione. Come l’infosfera sta trasformando il mondo, Milano, 2017); ANTOINE GARAPON e JEAN LASSÈGUE, Justice Digitale. Révolution graphique et rupture anthropologique, Paris, 2018 (non ancora tradotto, ma recensito in italiano qui); JORDI NIEVA-FENOLL, Inteligencia artificial y proceso judicial, Madrid, 2018, trad. it. Intelligenza artificiale e processo, Torino, 2019).