L’avvocato e l’algoritmo: perché la trasparenza sull’uso dell’IA non è (solo) un obbligo
Da oggi, 10 ottobre 2025, gli avvocati italiani — insieme a datori di lavoro, notai, commercialisti e altre professioni intellettuali (sì, anche i giornalisti) — entrano in una nuova fase normativa. Con l’entrata in vigore della legge 132/2025 sull’intelligenza artificiale, scatta infatti l’obbligo di informare clienti e collaboratori quando si utilizzano sistemi di IA nello svolgimento dell’attività professionale.
Una novità che mira alla trasparenza, ma apre un dibattito profondo sul rapporto tra tecnologia, fiducia e deontologia. L’articolo 13, comma 2, della legge parla chiaro: il professionista deve comunicare “con linguaggio semplice e comprensibile” l’uso di strumenti di intelligenza artificiale nel proprio lavoro. L’intento dichiarato è quello di “assicurare il rapporto fiduciario tra professionista e cliente”. Ma proprio qui si concentra la critica di almeno una parte del mondo forense: davvero serve una legge per ribadire un principio che da sempre è fondamento della professione?
Molti avvocati lo considerano un adempimento ridondante e, in parte, svalutante. Come ricordano alcune associazioni di categoria, a cominciare dal Movimento Forense, “la fiducia tra avvocato e cliente è già garantita dai principi deontologici”. E imporre un’ulteriore formula burocratica rischia di tradursi in informative standardizzate, spesso poco comprensibili, su tecnologie che, per loro natura, non sono affatto semplici da spiegare.
A rendere il quadro più incerto ci sarebbe anche l’ambiguità della norma, che parla genericamente di “sistemi di intelligenza artificiale”, senza distinguere tra modelli generalisti come ChatGPT, strumenti specialistici per la gestione documentale o software predittivi di analisi giurisprudenziale.
Eppure, se la trasparenza resta un principio cardine della professione, questo obbligo può anche essere letto come un’occasione: quella di spiegare con onestà come e perché si usano strumenti che ormai sono entrati nella quotidianità di molti studi legali.
Proprio per capire come viene impiegata l’IA nel diritto, noi di Legalcommunity abbiamo chiesto a ChatGPT stessa di raccontare che tipo di utilizzo ne fanno gli avvocati.
La risposta è illuminante: “Un numero significativo di professionisti mi utilizza per redigere o revisionare atti, memorie e contratti; per preparare pareri e ricerche giuridiche; per traduzioni e adattamenti terminologici; per creare modelli e checklist di lavoro; e persino per attività di comunicazione e marketing legale”.

In altre parole, l’IA non sostituisce l’avvocato: lo assiste, velocizzando le prime stesure, aiutando nella ricerca e nella gestione dei flussi di lavoro. È un supporto, non un surrogato. L’avvocato resta l’unico responsabile del contenuto e della strategia, mentre l’IA diventa un alleato per efficienza e produttività.
Non sempre, però, le macchine sono impeccabili. La cronaca recente lo ricorda: in Australia, una grande società di consulenza come Deloitte è stata costretta a rimborsare parzialmente il governo per un rapporto ufficiale redatto con l’ausilio dell’IA, risultato pieno di citazioni inventate e fonti inesistenti. Un caso emblematico che conferma quanto la supervisione umana resti indispensabile.
È in questo equilibrio tra innovazione e controllo che si gioca la sfida della professione legale.
La legge 132/2025 potrà apparire confusa, ma coglie un punto vero: il futuro dell’avvocatura non potrà più prescindere da un uso consapevole, dichiarato e verificabile dell’intelligenza artificiale. La fiducia del cliente si costruisce anche così — non con una formula standard, ma con una trasparenza reale, che spiega quando, come e perché un algoritmo entra nel processo di lavoro.
Perché, in fondo, la vera differenza la farà sempre l’avvocato: non quello che usa l’IA, ma quello che la capisce.