Questo sito contiene link di affiliazione per cui può essere compensato

Home » Hi-Tech » Internet » Giustizia e intelligenza artificiale, ChatGPT vietato ai giudici

Giustizia e intelligenza artificiale, ChatGPT vietato ai giudici

Nel 2007 Aldo Andrea Cassi pubblicava con Laterza un bel libro: “Ultramar. L’invenzione europea del Nuovo Mondo”. La tesi centrale di questo lavoro storico è che, per “prendere” il Nuovo Mondo, prima di tutto bisognava “comprenderlo”, tanto era pieno di “cose” nuove: persone, animali, terre, situazioni. E i soli che avessero le parole giuste per farlo erano i giuristi. La cultura giuridica fu insomma il sistema di comunicazione, l’interfaccia tra il Vecchio Mondo medievale e il Nuovo Mondo la cui scoperta inaugurava l’età moderna. Abituati per mestiere ad avere orrore delle approssimazioni, i giuristi iniziarono a distinguere, a discutere, a definire.

Ecco, sostituite “Nuovo Mondo” con “Intelligenza artificiale” e capirete dove questo articolo va a parare: spiegare a che punto siamo arrivati nella rivoluzione dell’AI.

Siamo arrivati a quella in cui si cominciano a stabilire norme e principi. Non quelli sul copyright o cose del genere, ma quelli più fini, indiretti, tuttavia pregnanti. A cominciare da quelli che riguardano i giudici stessi.

Si apprende così che lo scorso 8 ottobre il Consiglio Superiore della Magistratura, l’organo di autogoverno dei magistrati, ha deciso di vietare l’uso di ChatGPT e dei suoi fratelli ai giudici quando scrivono le sentenze. La decisione arriva dopo una piccola serie di episodi imbarazzanti (perlomeno, quelli di cui siamo a conoscenza) che hanno visto magistrati citare precedenti giurisprudenziali mai esistiti, creati di sana pianta da algoritmi generativi. Niente di nuovo sotto il sole, come sanno tutti quelli che hanno usato in maniera pedissequa dello strumento di Sam Altman o delle altre incarnazioni del feticcio digitale: il pappagallo stocastico è fin troppo creativo e “genera” anche a sproposito. Però in una sentenza pare brutto.

L’otto ottobre, quindi, il plenum del Consiglio Superiore della Magistratura ha dunque chiuso la porta a ChatGPT, Copilot, Gemini e a tutti i loro cloni digitali. Niente più sentenze scritte dall’intelligenza artificiale, niente più motivazioni elaborate da software che masticano miliardi di testi ma non capiscono una virgola né di diritto né di altro. La cosa interessante però è il motivo per il quale si arriva a questo, che apre a riflessioni ulteriori. La stretta, infatti, nasce da un’esigenza precisa: salvaguardare i principi costituzionali su cui si regge l’intera architettura della giustizia italiana.

Gli articoli 101 e 104 della Costituzione stabiliscono infatti che i giudici sono soggetti soltanto alla legge e che la magistratura costituisce un ordine autonomo e indipendente da ogni altro potere. Affidare a un algoritmo la redazione di una sentenza significa spezzare questa catena di responsabilità personale che lega il magistrato alla sua decisione. Il problema non è solo filosofico ma anche molto pratico e pragmatico, come capita spesso con i giuristi: chi risponde quando un’intelligenza artificiale sbaglia? Chi garantisce che l’interpretazione della legge non sia stata influenzata da bias nascosti nel codice o nei dati di addestramento? La risposta del CSM è chiara: il giudice non può delegare.

Giudice vieta uso di video migliorato con l'AI in processo per omicidio
Foto di Tingey Injury Law Firm – Unsplash

Il confine sottile tra aiuto e sostituzione

Attenzione, però, perché non finisce qui. Il lavoro dei membri del CSM, che per noi è prezioso perché può essere interpretato come una specie di profilo in negativo fatto al carboncino dal quale si evincono a contrasto le fattezze giuridiche dell’intelligenza artificiale, prosegue con altri dettagli.

La delibera del CSM traccia una geografia precisa degli usi consentiti e di quelli vietati. L’intelligenza artificiale può aiutare nelle fasi preparatorie: ricerche giurisprudenziali, sintesi di documenti, gestione dei flussi di lavoro. Tutto quello che alleggerisce il carico amministrativo senza toccare il nucleo della decisione giudiziaria resta permesso. Ma quando si arriva all’interpretazione della legge, alla valutazione delle prove e all’adozione dei provvedimenti, l’algoritmo deve fermarsi. Sono ambiti riservati al magistrato per legge, come stabilisce l’articolo 15 della legge quadro 132 del 2025 sull’intelligenza artificiale.

Il divieto colpisce in particolare i sistemi di intelligenza artificiale generativa, quelli che producono testo ex novo partendo da un prompt. ChatGPT può essere utile per riassumere una sentenza della Cassazione, dice il CSM, ma non può scriverne una nuova. Il passo è epocale, anche se i problemi aperti rimangono molteplici.

La distinzione, infatti, sembra chiara sulla carta, ma nella pratica quotidiana le sfumature si moltiplicano. Un software che suggerisce la struttura di una motivazione sta aiutando o sta decidendo? Un algoritmo che propone tre possibili interpretazioni di una norma sta supportando o sta condizionando? Il CSM risponde che l’autonomia valutativa deve restare sempre nelle mani del giudice.

L’Europa ha già classificato l’uso dell’intelligenza artificiale nell’amministrazione della giustizia come attività ad alto rischio. L’AI Act del 2024, regolamento 1689 del Parlamento europeo, prevede che in questi ambiti sensibili vadano minimizzati i rischi di distorsioni, errori e opacità. La norma europea distingue però tra l’amministrazione della giustizia vera e propria e le attività amministrative accessorie: anonimizzare documenti, gestire comunicazioni interne, assegnare risorse. In questi ambiti marginali l’intelligenza artificiale può lavorare più liberamente perché non incide sulle decisioni che toccano i diritti delle persone.

La giustizia predittiva resta fuori dal tribunale

E non è ancora finita, perché il divieto del CSM chiude la porta anche a un’altra frontiera tecnologica: la cosiddetta giustizia predittiva. Sistemi che analizzano migliaia di sentenze passate per prevedere l’esito di un giudizio futuro esistono già e vengono usati in altri paesi. Analizzano pattern, correlazioni statistiche, tendenze dei singoli giudici. Ma in Italia questi strumenti non possono entrare nelle aule di tribunale per supportare le decisioni. L’articolo 15 della legge quadro è netto: interpretazione e applicazione della legge restano prerogativa umana. Un algoritmo può dire che in casi simili il novanta per cento delle sentenze va in un certo modo, ma non può suggerire come dovrebbe andare quella specifica causa.

La trasparenza è l’altro pilastro della delibera. Quando un magistrato usa strumenti di intelligenza artificiale per le attività preparatorie, deve essere possibile verificare come l’algoritmo è arrivato a quel risultato. Capite che qui si entra dal punto di vista legale in aspetti tecnologici alquanto intriganti, viste anche le caratteristiche di opacità strutturale del sistema.

Il motivo per cui è giuridicamente necessario sapere come si arrivi a un determinato risultato ha a che fare con i principi del diritto: le parti in causa devono poter contestare gli output, capire quali dati sono stati utilizzati, quali correlazioni sono state tracciate. Questa esigenza di verificabilità si scontra con l’architettura stessa dei modelli linguistici di grandi dimensioni: anche i loro creatori faticano a spiegare perché il modello produce una certa risposta piuttosto che un’altra. La natura probabilistica di questi sistemi, insomma, mal si concilia con la certezza del diritto.

Infine, la parità informativa tra le parti completa il quadro. Se il giudice usa strumenti di intelligenza artificiale, anche la difesa e l’accusa devono poter accedere agli stessi strumenti o almeno sapere che vengono utilizzati. Questa simmetria informativa è essenziale per garantire il contraddittorio. Ma qui si apre un territorio ancora più nebuloso: gli avvocati possono usare ChatGPT per scrivere memorie e ricorsi? E i pubblici ministeri sono equiparati ai magistrati giudicanti o agli avvocati in questa partita?

Avvocati e pubblici ministeri: un limbo normativo

La delibera del CSM riguarda esplicitamente i magistrati, ma lascia aperti interrogativi sulla posizione degli avvocati. La deontologia forense non vieta l’uso di strumenti di intelligenza artificiale per redigere atti processuali, purché il professionista verifichi accuratezza e correttezza del contenuto. Il problema emerge quando questi strumenti generano citazioni false o inventano precedenti giurisprudenziali. Alcuni tribunali hanno già sanzionato per lite temeraria avvocati che hanno presentato ricorsi basati su documenti prodotti con ChatGPT contenenti riferimenti inesistenti.

Il pubblico ministero, invece, occupa una posizione peculiare. Da un lato, a partire dalla riforma del codice di procedura penale del 1988, esercita l’azione penale e in questo senso è parte processuale. Dall’altro lato, almeno fino a quando le carriere dei magistrati non saranno realmente separate, appartiene a pieno titolo alla magistratura e gode delle stesse garanzie di indipendenza. La delibera del CSM non scioglie questo nodo: i pubblici ministeri possono usare l’intelligenza artificiale generativa per scrivere le loro requisitorie? O devono sottostare agli stessi vincoli dei giudici? La logica suggerirebbe un’equiparazione, visto che le garanzie costituzionali valgono per tutti i magistrati. Ma la pratica processuale potrebbe spingere verso soluzioni diverse.

Ma se un giudice “sbaglia”, cosa succede? Le sanzioni per chi viola il divieto sono di tipo disciplinare e possono arrivare fino alla sospensione. Il CSM ha già avviato procedimenti contro magistrati che hanno usato ChatGPT in modo scorretto, configurando ipotesi di negligenza grave. La responsabilità resta sempre personale: il giudice non può invocare l’errore dell’algoritmo per giustificare un provvedimento sbagliato. Questo principio rafforza la linea del CSM: meglio vietare che creare zone grigie di responsabilità condivisa tra uomo e macchina. E qui, come dicevamo al principio, accade la magia della quale solo i giuristi sono capaci: all’improvviso le cose tecniche e informi prendono realmente forma davanti ai nostri occhi perché vengono mediate dall’atto creativo della lingua che definisce obblighi, limiti, diritti, confini, natura, capacità.

Un equilibrio possibile tra innovazione e garanzie

La delibera del CSM non è un rifiuto luddista della tecnologia. Il Consiglio riconosce che l’intelligenza artificiale può migliorare l’efficienza della giustizia, ridurre i tempi, aiutare i magistrati sommersi da carichi di lavoro insostenibili. Ma stabilisce una gerarchia chiara: le garanzie costituzionali vengono prima dell’efficienza. La velocità non può compromettere l’indipendenza del giudice. L’innovazione non può sacrificare la trasparenza del processo. Sono limiti che rendono più complicato l’uso di queste tecnologie, ma che proteggono i diritti fondamentali.

Il dibattito resta aperto su altri fronti, però. Come garantire la formazione dei magistrati su questi strumenti? Come verificare che l’uso preparatorio non sconfini nella delega decisionale? Come assicurare la parità di armi quando alcune parti hanno accesso a strumenti più sofisticati? Sono domande che attraversano l’intero sistema giustizia e che richiedono risposte articolate. Il CSM ha tracciato una prima mappa, stabilendo dove l’algoritmo può arrivare e dove deve fermarsi. È una cosa fondamentale perché aiuta a definire i principi più ampi e il senso fondamentale dell’AI dal punto di vista giuridico. Il resto lo scriverà la pratica quotidiana delle aule di tribunale, dove principi costituzionali e possibilità tecnologiche dovranno trovare ogni giorno un equilibrio sostenibile. Ci saranno problemi, scontri, denunce, ricorsi, sentenze, altri ricorsi, e un giorno si arriverà anche alla Corte Costituzionale e cominceremo ad avere una base solida per poter dire: abbiamo capito cos’è l’intelligenza artificiale.

Tutte le notizie che parlano di Intelligenza Artificiale sono disponibili a partire da questa pagina di macitynet.

Offerte Apple e Tecnologia

Le offerte dell'ultimo minuto le trovi nel nostro canale Telegram

I consigli per i tuoi regali

CTA Natale iGuida [per Settimio] - macitynet.it
iGuide per i regali di Natale - macitynet.it

Regali di Natale e fine anno: i nostri consigli

Ogni anno testiamo le ultime novità del mercato, per poi raccogliere in articoli dedicati i migliori prodotti per ogni categoria. Queste guide, che aggiorniamo periodicamente, non solo vi permettono di migliorare la vostra attrezzatura ma, visto il periodo, diventano anche un ottimo spunto da cui partire per fare un regalo coi fiocchi ai propri cari.

A tal proposito le trovate organizzate qui sotto per tipologia, così da facilitarvi ulteriormente la ricerca del Regalo Perfetto. Le guide vengono modificate di continuo e fino a Natale vedrete man mano aggiungersi quelle che aggiorneremo.

Partiamo dai migliori:

Apple

iPhone e Smartphone

iPad e tablet

Mac e PC

Apple Watch e Smartwatch

Fotografia e Creatività

Viaggiaresmart

Audio e Video

Intrattenimento

Vita in casa

Pubblicità
Pubblicità

Ultimi articoli