L’intelligenza artificiale e i pericoli per l’avvocato


Con l’approvazione dell’AI-Act, l’Europa regola l’uso dell’intelligenza artificiale. Ma i veri rischi per la professione forense non sono solo normativi: sono culturali

di Enrico Pellegrini

L’intelligenza artificiale è già tra noi. Non è uno scenario futuro, né una suggestione da romanzo di fantascienza. Si presenta ogni volta che usiamo uno strumento di traduzione automatica, un assistente virtuale, una ricerca giurisprudenziale “intelligente”. E con l’adozione, il 13 marzo 2024, dell’AI-Act da parte del Parlamento europeo, l’Unione ha preso atto di questa realtà, tentando di incanalarla in un quadro giuridico organico.
Il regolamento si basa su un principio ormai noto: l’analisi del rischio. Più un sistema di IA incide sui diritti delle persone (ad esempio, nella sanità, nella sicurezza o nella giustizia), più deve essere controllato, documentato, verificato. È una novità importante. Ma per gli avvocati, questa nuova frontiera presenta pericoli che non si esauriscono nella sfera dell’osservanza/adeguamento normativo.
L’IA è comoda. Permette ricerche rapide, suggerisce argomentazioni, redige bozze. E lo fa in pochi secondi. Ma proprio questa apparente efficienza rappresenta il primo vero pericolo: la tentazione di affidarsi ciecamente a uno strumento che, per sua natura, non è in grado di ragionare giuridicamente.
Gli strumenti di AI generativa (come i noti chatbot) non comprendono il diritto: lo imitano. I loro testi appaiono coerenti, articolati, spesso perfino eleganti. Ma possono contenere errori, citazioni inesistenti, concetti giuridicamente inconsistenti. Ed è proprio la loro plausibilità apparente a renderli insidiosi. Il rischio, per l’avvocato, è di scambiare una scorciatoia per un’autostrada. Di delegare la riflessione giuridica, anziché farsi aiutare da uno strumento.
Un altro pericolo è di natura culturale: l’erosione del metodo giuridico. L’intelligenza artificiale tende a ridurre i problemi complessi a una risposta secca. Ma il diritto non è matematica, né statistica: è interpretazione, contesto, argomentazione.
Se la professione forense si riduce all’utilizzo passivo di sistemi predittivi o automatizzati, allora la figura dell’avvocato – come mediatore tra norma e realtà, tra legge e persona – perde centralità. Diventa esecutore, compilatore, ripetitore. Ma un diritto “automatizzato” è, per definizione, un diritto disumano.
Non è solo una questione di metodo. Le tecnologie di IA apprendono dai dati, ma i dati sono storicamente, socialmente e giuridicamente “impuri”. Contengono pregiudizi, distorsioni, errori. Anche nelle banche dati giurisprudenziali ci sono orientamenti superati, sentenze marginali, contraddizioni.
Utilizzare l’IA senza sapere su quali fonti si basa equivale a citare una giurisprudenza che non si è mai letta. Ma a differenza del giovane praticante che sbaglia perché non ha studiato abbastanza, l’IA sbaglia con convinzione. E noi rischiamo di non accorgercene.
L’AI-Act prevede obblighi importanti per chi sviluppa o utilizza sistemi ad “alto rischio” – come quelli impiegati nel settore giustizia. Tracciabilità, documentazione, supervisione umana. Ma cosa succede se un avvocato utilizza uno strumento di IA per elaborare una consulenza errata? O se deposita un atto con citazioni errate generate da un sistema automatico?
La risposta è semplice: ne risponde lui. L’avvocato, non l’algoritmo. La responsabilità professionale non si delega, e nemmeno si condivide con una macchina. Questo principio, tanto ovvio quanto dimenticato, dovrebbe guidare ogni utilizzo dell’IA nella professione forense.
L’intelligenza artificiale può essere un alleato prezioso, se utilizzata con competenza, senso critico e consapevolezza dei suoi limiti. Il Regolamento europeo è un primo passo verso una regolamentazione ragionata. Ma la vera difesa del ruolo dell’avvocato passa da un’altra parte: dalla fedeltà al metodo giuridico, dallo studio, dall’assunzione personale della responsabilità.
Non sarà un algoritmo a sostituire la nostra professione. Ma potremmo essere noi stessi, usandolo male, a renderla superflua.

Lavoro | Sicurezza digitale
Total
0
Shares
Lascia un commento