Diritto costituzionale

INTELLIGENZA ARTIFICIALE E RESPONSABILITÀ DEL LEGALE: IL CASO DEI PRECEDENTI “INVENTATI”

·
Condividi su Facebook Condividi su X Condividi su LinkedIn Condividi su WhatsApp Invia per email Stampa 33

ABSTRACT: L’uso dell’intelligenza artificiale nella redazione degli atti giudiziari pone nuove questioni in tema di responsabilità professionale. La recente pronuncia del Tribunale di Siracusa, che ha censurato l’inserimento di precedenti giurisprudenziali inesistenti generati da strumenti di AI, ribadisce un principio fondamentale: l’innovazione tecnologica non attenua i doveri di diligenza del legale. L’AI si configura come supporto operativo, ma non sostitutivo del controllo umano, imponendo una riflessione sul rapporto tra tecnologia e deontologia forense.

Sommario: 1. L’Ingresso dell’ai nella pratica forense – 2. Il caso del tribunale di Siracusa – 3. Diligenza professionale e responsabilità – 4. Tecnologia e deontologia: quale equilibrio

1. L’INGRESSO DELL’AI NELLA PRATICA FORENSE

L’impiego dell’intelligenza artificiale nella professione legale rappresenta oggi una delle trasformazioni più significative dell’attività forense. Strumenti basati su modelli linguistici avanzati vengono sempre più frequentemente utilizzati per la redazione di atti, la sintesi di documenti e la ricerca giurisprudenziale, con evidenti vantaggi in termini di rapidità ed efficienza. Tuttavia, tale evoluzione tecnologica incide profondamente sul metodo di lavoro dell’avvocato, sollevando interrogativi non trascurabili circa l’affidabilità dei contenuti generati e il ruolo del professionista nel processo di validazione delle informazioni.

 

2. IL CASO DEL TRIBUNALE DI SIRACUSA

In questo contesto si inserisce la recente pronuncia del Tribunale di Siracusa (n. 338/2026, depositata a marzo 2026), che ha affrontato un caso emblematico di utilizzo improprio dell’intelligenza artificiale. All’interno di un atto giudiziario, infatti, erano stati richiamati precedenti giurisprudenziali inesistenti, verosimilmente generati mediante strumenti di AI. Il giudice ha censurato tale condotta, sottolineando come l’inserimento di citazioni non verificabili costituisca una violazione dei doveri professionali. La decisione assume particolare rilievo poiché chiarisce, in modo netto, che l’impiego di tecnologie avanzate non può tradursi in un abbassamento degli standard di accuratezza richiesti nella pratica forense.

3. DILIGENZA PROFESSIONALE E RESPONSABILITÀ

Il principio affermato dal Tribunale appare di immediata evidenza ma di grande portata sistematica: la responsabilità dell’atto giuridico resta integralmente in capo al professionista che lo sottoscrive. L’intelligenza artificiale si configura come uno strumento ausiliario, privo di autonomia giuridica e, soprattutto, incapace di garantire l’attendibilità delle informazioni prodotte. Ne deriva che l’avvocato è tenuto a un controllo rigoroso delle fonti, dovendo verificare la veridicità dei precedenti richiamati e la correttezza delle argomentazioni sviluppate. In tale prospettiva, l’utilizzo acritico dell’AI non solo non esonera da responsabilità, ma può integrare una violazione del dovere di diligenza, con possibili riflessi anche sul piano deontologico.

4. TECNOLOGIA E DEONTOLOGIA: QUALE EQUILIBRIO?

La pronuncia in esame offre l’occasione per una riflessione più ampia e sistematica sul rapporto tra innovazione tecnologica e principi deontologici che regolano l’esercizio della professione forense. Se da un lato l’intelligenza artificiale rappresenta un’opportunità significativa per incrementare l’efficienza, la rapidità e l’accessibilità del lavoro giuridico, dall’altro impone una rinnovata attenzione alla dimensione etica e alla responsabilità del professionista. L’avvocato, infatti, non può limitarsi a un utilizzo meramente esecutivo o passivo degli strumenti digitali, ma è chiamato a sviluppare competenze critiche e metodologiche che gli consentano di comprendere il funzionamento di tali tecnologie, valutarne l’affidabilità e, soprattutto, individuare e prevenire i rischi connessi al loro impiego.

In questa prospettiva, l’intelligenza artificiale non si configura come un sostituto dell’attività intellettuale del legale, bensì come uno strumento che richiede un utilizzo consapevole, informato e responsabile. L’automazione di alcune fasi del lavoro non può tradursi in una deresponsabilizzazione del professionista, il quale resta il garante ultimo della correttezza giuridica e fattuale dell’atto redatto. Ne deriva che il rapporto tra tecnologia e deontologia deve essere interpretato in termini di integrazione e non di sostituzione: l’innovazione può e deve essere valorizzata, ma entro un quadro in cui il controllo umano, la verifica delle fonti e il rispetto dei doveri professionali rimangano centrali.

In definitiva, il corretto impiego dell’intelligenza artificiale si fonda su un equilibrio delicato ma imprescindibile tra innovazione e responsabilità, nel quale la competenza tecnica si affianca, senza mai soppiantarla, alla competenza giuridica. Solo attraverso tale equilibrio è possibile garantire che l’evoluzione tecnologica si traduca in un reale progresso per il sistema giustizia, senza compromettere i principi fondamentali di affidabilità, trasparenza e correttezza che ne costituiscono il fondamento.

Autore

  • Chiara Vitone

    Studentessa di Giurisprudenza presso l'Università degli Studi di Napoli Federico II. Amante delle tematiche legate al diritto dell'informazione.