ABSTRACT: La Legge n. 132 del 23 settembre 2025 inaugura un nuovo paradigma nel rapporto tra professioni intellettuali e intelligenza artificiale introducendo per la prima volta nel sistema italiano un obbligo di trasparenza e comunicazione circa l’utilizzo di sistemi algoritmici. A partire dal 10 ottobre 2025 anche l’avvocato dovrà rendere noto al cliente se si avvale di strumenti di intelligenza artificiale specificando in modo chiaro e comprensibile le modalità e i limiti di tale impiego. La norma si inserisce in un contesto europeo segnato dall’AI Act e pone il professionista dinanzi a una riflessione profonda sul senso del proprio ruolo, sulle implicazioni etiche e deontologiche della tecnologia e sulla necessità di preservare la centralità dell’umano nell’esercizio del diritto. Negli ultimi mesi, la riflessione teorica sull’intelligenza artificiale si è intrecciata con le prime decisioni giudiziarie italiane e straniere che hanno iniziato a sanzionare l’uso improprio o inconsapevole degli strumenti di IA nel processo civile e nella redazione degli atti difensivi. Si tratta di un segnale inequivocabile di come la giurisprudenza stia già tentando di colmare, con le armi del diritto vivente, i vuoti ancora lasciati dal legislatore, ponendo le basi di una nuova etica forense della tecnologia. L’articolo, pertanto, analizza i profili normativi e applicativi della legge, esamina i rischi e le opportunità che l’intelligenza artificiale offre alla professione forense e conclude con una riflessione sul futuro dell’avvocatura, chiamata a conciliare l’efficienza degli algoritmi con la responsabilità della coscienza giuridica.
SOMMARIO: 1. Introduzione: l’IA come paradigma e sfida per la professione forense – 2. La Legge n. 132/2025 e il raccordo con l’AI Act europeo – 3. L’articolo 13: l’intelligenza artificiale come strumento di supporto – 4. Il dovere di comunicazione e la trasparenza verso il cliente – 5. Profili deontologici e responsabilità professionale – 6. Privacy, dati e controllo umano – 6bis. Le prime decisioni e il diritto vivente dell’intelligenza artificiale – 7. L’avvocato del futuro: tra innovazione e custodia del diritto – 8. Conclusioni: il nuovo umanesimo del diritto e l’etica della consapevolezza nella professione forense.
1. INTRODUZIONE: L’IA COME PARADIGMA E SFIDA PER LA PROFESSIONE FORENSE
L’intelligenza artificiale è entrata in modo irreversibile nel mondo del diritto modificando strumenti, linguaggi e perfino la percezione della competenza professionale. L’avvocato contemporaneo si muove in un contesto in cui le piattaforme digitali non si limitano più a fornire banche dati ma suggeriscono soluzioni, interpretano norme, redigono bozze e analizzano scenari. Ciò che fino a pochi anni fa appariva come una frontiera lontana è oggi realtà quotidiana e la professione forense è chiamata a misurarsi con un cambiamento che non può essere ignorato. Il legislatore, consapevole della portata epocale di questa trasformazione, ha introdotto una disciplina che cerca di coniugare innovazione e garanzia, istituendo un equilibrio tra l’autonomia dell’uomo e la potenza dell’algoritmo.
2. LA LEGGE N. 132/2025 E IL DIALOGO CON L’AI ACT EUROPEO
La Legge 132 del 23 settembre 2025, pubblicata in Gazzetta Ufficiale il 25 settembre, rappresenta il primo intervento organico nazionale in materia di intelligenza artificiale e trae ispirazione diretta dal Regolamento europeo 2024/1689 noto come AI Act. Essa non sostituisce il quadro comunitario ma lo integra adattandone i principi al sistema giuridico italiano con particolare attenzione alla tutela della persona, alla sicurezza e alla trasparenza. La legge affida al Governo deleghe per l’adeguamento normativo e individua settori sensibili come la giustizia, la sanità, l’istruzione e le professioni intellettuali. Proprio in quest’ultimo ambito si colloca l’art. 13 che, con poche ma incisive disposizioni, ridisegna il rapporto tra professionista e tecnologia imponendo un dovere di chiarezza e di verità nell’uso dell’intelligenza artificiale.
3. L’ARTICOLO 13 DELLA LEGGE: L’INTELLIGENZA ARTIFICIALE COME STRUMENTO DI SUPPORTO
Il cuore della disciplina si trova nell’art. 13, come sopra richiamato, il quale stabilisce che l’uso dell’intelligenza artificiale nelle professioni intellettuali è consentito solo per attività strumentali e di supporto e comunque nel rispetto della prevalenza del lavoro umano. La norma introduce così un principio di proporzione che vieta di delegare all’algoritmo la parte creativa e decisiva della prestazione. Il concetto di prevalenza non si riferisce a un criterio quantitativo ma a un criterio qualitativo e sostanziale che ribadisce la supremazia dell’intelligenza critica, della valutazione e della responsabilità personale. L’avvocato può dunque avvalersi dell’IA come di un ausilio tecnico per velocizzare ricerche o analisi ma resta il titolare unico del pensiero giuridico e del contenuto dell’atto, che deve essere frutto della sua coscienza professionale.
4. IL DOVERE DI COMUNICAZIONE E LA TRASPARENZA VERSO IL CLIENTE
Dal 10.10.2025 entra in vigore l’obbligo per gli avvocati di informare il cliente circa l’uso di sistemi di intelligenza artificiale nell’esecuzione dell’incarico. Tale comunicazione deve avvenire in linguaggio chiaro, semplice ed esaustivo e non può essere ridotta a una formula generica o di stile. Essa rappresenta un momento fondamentale del rapporto fiduciario poiché consente al cliente di comprendere il grado di coinvolgimento tecnologico nel servizio ricevuto. La trasparenza non è un adempimento formale ma un principio sostanziale che tutela la libertà di autodeterminazione dell’assistito e rafforza la credibilità del professionista. In questa prospettiva la comunicazione sull’uso dell’intelligenza artificiale diventa il simbolo di un nuovo modo di intendere l’etica della professione in cui la chiarezza verso il cliente è parte integrante della correttezza deontologica.
5. PROFILI DEONTOLOGICI E RESPONSABILITA’ PROFESSIONALE
L’obbligo di comunicare l’uso dell’intelligenza artificiale si inserisce in un quadro di responsabilità che richiama direttamente i principi del Codice Deontologico Forense. L’avvocato deve garantire che ogni attività compiuta con l’ausilio dell’IA sia conforme alla legge e ai valori di indipendenza, lealtà e riservatezza. La delega totale o il controllo superficiale dell’algoritmo costituirebbero violazione dei doveri fondamentali della professione. Anche l’omessa informativa al cliente può integrare un comportamento contrario alla trasparenza e alla correttezza, minando il rapporto fiduciario che è il cardine del mandato difensivo. La legge riafferma così che la responsabilità dell’avvocato è personale e non delegabile e che la tecnologia, per quanto evoluta, rimane un mezzo al servizio della capacità critica e dell’esperienza del professionista.
6. PRIVACY, DATI E CONTROLLO UMANO
L’uso dell’intelligenza artificiale comporta inevitabilmente il trattamento di dati personali spesso sensibili o coperti da segreto professionale. La Legge n. 132 richiama espressamente la necessità di rispettare il Regolamento europeo sulla protezione dei dati e impone che i sistemi di IA garantiscano trasparenza, sicurezza e spiegabilità. L’avvocato deve vigilare sui fornitori dei servizi digitali e assicurarsi che essi rispettino gli standard di tutela previsti dal GDPR. Deve inoltre verificare che i dati non vengano utilizzati per finalità diverse da quelle strettamente professionali e che l’output generato dall’algoritmo sia sottoposto a un controllo umano effettivo. L’etica del dato e la riservatezza diventano così parte integrante della responsabilità professionale e il rispetto della privacy non è più un aspetto accessorio ma una condizione essenziale della legittimità dell’attività difensiva.
6-bis. LE PRIME DECISIONI E IL DIRITTO VIVENTE DELL’INTELLIGENZA ARTIFICIALE
Le prime decisioni giurisprudenziali italiane sull’uso distorto dell’intelligenza artificiale in ambito forense rappresentano un banco di prova per la concreta applicazione dei principi di cui alla Legge n. 132 del 2025. Il Tribunale di Firenze con la sentenza del 14 marzo 2025 ha affrontato il caso di citazioni giurisprudenziali inesistenti generate da sistemi di intelligenza artificiale, le cosiddette allucinazioni digitali, ritenendo non sussistente la mala fede del difensore e qualificando la condotta come un errore non doloso, frutto dell’eccessiva fiducia riposta nello strumento tecnologico. Di segno diverso sono invece le pronunce dei Tribunali di Torino e Latina rispettivamente del 16 e del 23 settembre 2025 che hanno ravvisato una vera e propria responsabilità processuale ai sensi dell’art. 96 c.p.c. per l’utilizzo acritico e non controllato dell’intelligenza artificiale nella redazione di atti giudiziari.
In tali casi risulta icto oculi evidente come la redazione integrale di un atto processuale da parte di un algoritmo, privo di supervisione umana, non rispetti il principio di prevalenza del lavoro intellettuale, configurando un comportamento negligente e contrario ai doveri di diligenza professionale. È significativo che, per la prima volta, l’utilizzo improprio dell’IA venga ricondotto a una violazione del dovere di cura e di controllo che incombe sull’avvocato quale garante della qualità e dell’autenticità dell’atto difensivo, sanzionabile ex art. 96 c.p.c.
Anche sul piano internazionale la giurisprudenza di Common Law si sta muovendo nella stessa direzione: casi come Mata vs. Avianca negli Stati Uniti o le decisioni della England and Wales High Court hanno portato all’irrogazione di sanzioni pecuniarie e disciplinari nei confronti di legali che avevano citato precedenti giurisprudenziali inventati dai sistemi di IA. Tali episodi, seppur in contesti giuridici diversi, mostrano un filo conduttore comune: la necessità che l’avvocato resti non solo utilizzatore ma anche garante dell’affidabilità dello strumento tecnologico che impiega.
Le pronunce italiane e straniere convergono dunque nel delineare un principio embrionale di responsabilità professionale digitale, secondo cui l’uso dell’intelligenza artificiale non può mai essere acritico, delegato o deresponsabilizzato. In questo senso, la giurisprudenza sta tracciando, caso dopo caso, il perimetro di ciò che la Legge n. 132/2025 definisce come “uso strumentale e di supporto”, anticipando quel percorso di consapevolezza che le istituzioni forensi saranno chiamate presto a consolidare attraverso linee guida e codici etici.
7. L’AVVOCATO DEL FUTURO: TRA INNOVAZIONE E CUSTODIA DEL DIRITTO
L’avvocato del futuro sarà chiamato a conciliare l’efficienza tecnologica con la profondità del ragionamento giuridico e dovrà saper utilizzare l’intelligenza artificiale senza smarrire la centralità del giudizio umano. La Legge n. 132 non nasce per frenare l’innovazione ma per indirizzarla verso un uso eticamente consapevole e professionalmente corretto. Il valore dell’avvocato non si misura nella rapidità con cui produce un atto ma nella qualità del suo discernimento e nella capacità di interpretare la complessità. In questa prospettiva la tecnologia può essere vista come un alleato e non come una minaccia purché rimanga sotto il dominio della coscienza critica. La professione forense è dunque chiamata a rinnovarsi senza tradire sé stessa mantenendo viva la propria funzione di custode dei diritti e delle garanzie della persona.
8.CONCLUSIONI: IL NUOVO UMANESIMO DEL DIRITTO E L’ETICA DELLA CONSAPEVOLEZZA NELLA PROFESSIONE FORENSE
La Legge n. 132 del 2025 non è soltanto una norma che disciplina l’uso dell’intelligenza artificiale, ma una soglia simbolica che segna l’ingresso del diritto nell’età algoritmica. Essa introduce un obbligo che è al contempo giuridico ed etico, poiché invita l’avvocato a ripensare il senso della propria funzione in un contesto in cui la tecnologia non è più semplice strumento di supporto, ma parte integrante del processo conoscitivo e decisionale. Comunicare al cliente l’impiego dell’intelligenza artificiale significa riconoscere che ogni tecnologia trasforma, in modo più o meno visibile, la forma stessa della fiducia e dell’argomentazione.
La vera sfida, tuttavia, non consiste nel contrapporsi alla macchina o nel piegarsi alla sua logica, ma nel governarla con misura e intelligenza critica, mantenendo al centro la responsabilità personale, la sensibilità giuridica e il senso umano della giustizia. L’avvocato del futuro dovrà essere insieme interprete e custode, consapevole che l’efficienza senza discernimento si tramuta in automatismo e che l’automatismo, nel diritto, è la negazione stessa del giudizio. L’intelligenza artificiale può ampliare la capacità di analisi e di previsione, ma non potrà mai sostituire la coscienza morale, l’empatia e la saggezza dell’esperienza, che restano patrimonio esclusivo dell’essere umano.
Le prime pronunce dei Tribunali italiani e stranieri lo dimostrano con chiarezza: l’uso distorto dell’IA non è più una curiosità tecnologica, ma una questione di responsabilità professionale. I giudici di Firenze, Torino e Latina hanno già tracciato la linea di confine tra l’uso consapevole e quello acritico, tra la collaborazione virtuosa e la delega cieca. È la nascita di un diritto vivente dell’intelligenza artificiale, che affianca la norma scritta e la arricchisce di contenuto etico e di consapevolezza deontologica.
L’entrata in vigore del 10 ottobre 2025 non rappresenta soltanto una scadenza normativa, ma un momento di svolta culturale per l’avvocatura. Chi saprà cogliere la legge non come vincolo ma come opportunità, trasformerà la trasparenza in strumento di credibilità e la tecnologia in alleato della qualità. Comunicare l’uso dell’IA al cliente diverrà così un gesto di lealtà e di rispetto, non un adempimento formale, ma la manifestazione di una nuova fiducia reciproca.
L’avvocato del domani sarà un artigiano del pensiero giuridico, un regista del sapere digitale che usa l’algoritmo come lente di ingrandimento, non come sostituto della ragione. La sua competenza si misurerà nella capacità di scegliere, di comprendere, di interpretare, di dare senso al dato. L’IA potrà proporre soluzioni, ma soltanto l’uomo potrà valutarne la giustizia.
Così, nella tensione fra innovazione e coscienza, si compie il nuovo umanesimo del diritto. Non si tratta di adattarsi alla macchina, ma di restituire umanità alla tecnica, di ricordare che dietro ogni decisione, ogni parola, ogni algoritmo, c’è sempre una responsabilità che parla il linguaggio dell’uomo. È in questo equilibrio delicato — fra logica e valore, fra codice e coscienza — che continuerà a vivere l’avvocatura come arte nobile del pensiero e come presidio della libertà.
*****
BIBLIOGRAFIA ESSENZIALE
- Legge 23 settembre 2025, n. 132, “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”;
- Regolamento (UE) 2024/1689, “AI Act”;
- ProcessoCivileTelematico.it, “Obbligo di informativa AI per gli Avvocati”, ottobre 2025;
- Diritto.it, “Legge italiana sull’Intelligenza Artificiale: cosa cambia per la professione forense”, 2025;
- Altalex.it, IP-IT e Data Protection – Nuove Tecnologie, “AI e deontologia forense: uno sguardo alla giurisprudenza italiana e internazionale”, 9 ottobre 2025, a cura di Paolo Piazza e Romilda Giuffrè, Avvocati Cassazionisti in Napoli, Roma e Milano.