giustizia artificiale

SIAMO PRONTI PER UNA GIUSTIZIA ARTIFICIALE?

Tratto da il Mulino, articolo di Margherita Ramajoli

Disciplinare una tecnologia inafferrabile e in costante evoluzione come l’intelligenza artificiale non è un’impresa facile. Ciò spiega perché il Regolamento sull’intelligenza artificiale (AI Act), approvato la scorsa settimana dal Parlamento europeo – manca solo il passaggio formale da parte del Consiglio –, ha avuto una gestazione lunga oltre tre anni ed entrerà in vigore gradualmente, tra la fine del 2024 e il 2026. La normativa, inevitabilmente complessa, segue un approccio fondato sul rischio e regola l’intelligenza artificiale sulla base della sua attitudine a causare danni alla società, modulando gli obblighi introdotti in base al diverso grado di pericolo di lesione per i diritti fondamentali: più alto è il rischio paventato, maggiori sono gli oneri e le responsabilità dei fornitori, distributori e operatori dei sistemi di IA.

Il Regolamento è conscio del fatto che l’applicazione dei sistemi di IA nello specifico campo della giustizia produce benefici, ma altrettanti problemi. L’AI Act parla di risultati vantaggiosi sul piano sociale che la giustizia digitale porta con sé. Più nello specifico, l’uso dell’IA nel campo della giustizia consente il raggiungimento degli obiettivi propri della giustizia standardizzata: l’efficienza, perché l’IA può essere impiegata in massa a scale e velocità di gran lunga superiori a quelle raggiungibili da qualsiasi essere umano o collegio di esseri umani nelle attività di archiviazione, indagine e analisi delle informazioni giudiziarie; l’uniformità, perché per definizione l’IA elimina spazi di creatività e fornisce risposte prevedibili.

Tuttavia, l’affidarsi a sistemi di IA nel processo decisionale presenta anche punti di debolezza e pone due problemi: il problema della scatola nera e il problema del pregiudizio dell’automazione. Si parla di scatola nera perché esiste una tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata «spiegabilità» di alcuni sistemi di IA. Il procedimento trasformativo degli input in output può risultare opaco al punto tale che gli esseri umani, compresi pure quelli che hanno ideato e progettato il sistema, non sono in grado di capire quali variabili abbiano esattamente condizionato e determinato il risultato finale. Questa opacità limita, se addirittura non impedisce, la capacità del giudice che si serve del sistema di IA di giustificare le decisioni assunte sulla scorta del sistema.

Il pregiudizio dell’automazione allude invece al fenomeno generale per cui gli esseri umani sono propensi ad attribuire una certa autorità intrinseca ai risultati suggeriti dai sistemi di IA e nella nostra quotidianità abbondano esempi di questo sottile condizionamento. Di conseguenza, l’applicazione dei sistemi IA nel campo della giustizia può soffocare l’aggiornamento valoriale, visto che i sistemi di IA imparano dal passato e tendono a riprodurre il passato. Se nel futuro un giudice facesse affidamento, sia pure inconsciamente, solo sui sistemi di IA, il cosiddetto effet moutonnier spingerebbe i giudici verso un non desiderabile conformismo giudiziario, sordo alle trasformazioni sociali ed economiche.

Se queste sono le questioni poste dalla giustizia artificiale, le soluzioni offerte dal diritto risultano significative, anche se non sempre facili da applicare. I sistemi di IA destinati all’amministrazione della giustizia, tranne quelli impiegati per attività puramente strumentali (l’anonimizzazione o la pseudonimizzazione di decisioni, documenti o dati giudiziari, le comunicazioni tra il personale e così via), sono reputati ad alto rischio e come tali sono sottoposti a rilevanti limiti e obblighi. Secondo il Regolamento «il processo decisionale finale deve rimanere un’attività a guida umana» e quindi l’IA può fornire sostegno ma mai sostituire il giudice. Questa riserva d’umanità, ora solennemente proclamata dal legislatore europeo, sottende la consapevolezza che l’attività giudiziaria ha una sua unicità, non è formalizzabile a priori e non è riproducibile artificiosamente. Per giudicare non sono sufficienti solo conoscenze giuridiche, perché il ragionamento giudiziario richiede una varietà di tecniche cognitive, l’apprezzamento dei fatti complessi e sempre diversi, l’impiego dell’induzione e dell’analogia, l’impegno nell’argomentazione, l’uso di ragionevolezza e proporzionalità.

Tuttavia, nel passaggio dal piano astratto proclamatorio al concreto piano applicativo riemergono alcune questioni irrisolte. Anzitutto, non è immediato individuare né quale soggetto istituzionale sia legittimato a controllare il rispetto della riserva d’umano nelle decisioni giudiziarie, né quali strumenti efficaci possano essere impiegati a tal fine. In secondo luogo, non può dirsi superato il rischio del pregiudizio dell’automazione, perché l’effetto gregge potrebbe spingere il giudice ad aderire al risultato algoritmico e a non assumersi la responsabilità di discostarsene anche quando tale risultato non risulti cucito su misura sulle specificità della lite in esame. Ancora, per quanto l’AI Act abbia introdotto specifici obblighi per i fornitori di IA e in particolare l’obbligo di procurare ai giudici e alle autorità di vigilanza le «istruzioni per l’uso», comprensive delle specifiche «per i dati di input o qualsiasi altra informazione pertinente in termini di set di dati di addestramento, convalida e prova», queste fondamentali informazioni vanno condivise solo «ove opportuno». In altri termini, il Regolamento rende non necessaria, ma discrezionale la resa di informazioni proprio di quei dati di input che determinano in modo significativo gli output con cui i giudici dovranno fare i conti. Torna così anche il problema della scatola nera, quella tensione intrinseca tra il dovere del giudice di motivare le proprie decisioni e la limitata comprensibilità e, di conseguenza, spiegabilità di alcuni sistemi di IA.

In ultima analisi, i detentori della tecnologia – sviluppatori di sistemi di IA – si ergono a veri e propri poteri privati, rispetto ai quali l’ordinamento giuridico, ma ancora prima la politica, devono ancora ingegnarsi a trovare efficaci contrappesi.

Anche se non possiamo realisticamente ritornare a un mondo senza intelligenza artificiale, sia in generale, sia in campo giudiziario, le questioni da affrontare sono ancora tante e il diritto è solo uno dei tanti strumenti per cercare di risolverle.

No Comments

Sorry, the comment form is closed at this time.