ETHICA SOCIETAS-Rivista di scienze umane e sociali
Diritto Giurisprudenza NOTIZIE Scienza e Tecnologia Silvestro Marascio

AI, TRA ALLUCINAZIONI E SENTENZE, Silvestro Marascio

Trasformazioni tecnologiche, responsabilità professionale e centralità della decisione umana anche nell’impiego delle banche dati giuridiche nell’era dei modelli generativi

Silvestro Marascio

Abstract: Il contributo analizza l’impatto dell’intelligenza artificiale generativa sulla quotidianità individuale e professionale, evidenziando come l’accesso sistematico a strumenti quali ChatGPT, Gemini, Copilot o Grok abbia progressivamente modificato le modalità di ricerca, elaborazione e gestione delle informazioni. L’attenzione si concentra in particolare sul settore giuridico, ove l’impiego di Agent AI e Large Language Models costituisce un rilevante moltiplicatore di efficienza, ma solleva al contempo questioni di affidabilità, verifica delle fonti e responsabilità deontologica. Le recenti pronunce del TAR Lombardia e del Tribunale di Siracusa offrono l’occasione per ribadire la distinzione strutturale tra banche dati giurisprudenziali e sistemi generativi, sottolineando il fenomeno delle c.d. “allucinazioni” e la configurabilità della colpa grave in caso di utilizzo acritico degli output prodotti. Ne emerge un quadro in cui la tecnologia, pur rappresentando uno strumento di supporto evoluto, non può sostituire la centralità della decisione umana, la quale rimane presidio imprescindibile di legalità, proporzionalità e corretto esercizio della funzione giurisdizionale.

Keywords: #AI #intelligenzaartificiale #AIgenerativa #LargeLanguageModels #TAR #Tribunale #Avvocatieintelligenzaartificiale #Allucinazioni #ResponsabilitàProfessionale #DeontologiaForense #Giurisprudenza #CentralitàDellaDecisioneUmana #LegalTech #SilvestroMarascio #EthicaSocietas #EthicaSocietasMagazine #RivistaScientifica #ScienzeSociali #ScienzeUmane #ethicasocietasupli


Come l’AI ha cambiato la quotidianità

Sostanzialmente la nostra vita, con la fruibilità dell’AI, è cambiata, com’era ovvio.

Se qualche anno fa, lanciando un browser, la prima pagina di un utente “generico medio” poteva accogliere un motore di ricerca, come può essere Google, magari affiancato a una seconda scheda con un feed RSS di notizie o con l’accesso alla casella mail, oggi sicuramente ci sarà l’accesso a una AI generativa, sia essa ChatGPT, Gemini, Copilot o Grok, per citarne alcune.

Questo è uno dei motivi per cui sta accadendo sempre più spesso che aziende e organizzazioni stilino dei codici di condotta e delle linee guida sull’utilizzo della AI nei flussi di lavoro.

L’obiettivo è duplice: da un lato non permettere la fuoriuscita di dati o informazioni che potrebbero essere utilizzati dalle AI stesse per il loro addestramento; dall’altro incentivare quella awareness professionale verso nuovi potenziali strumenti di lavoro.

Giurisprudenza, la ricerca del precedente con AI

Anche il mondo della Giustizia non è esente dall’utilizzo di intelligenze artificiali, chiaramente andando a coinvolgere tutto il comparto, iniziando dagli studi legali. Sicuramente l’utilizzo di Agent AI è un moltiplicatore di forza nei carichi di lavoro, ma non vi si può demandare tutto e, soprattutto, bisogna ricordarsi di contestualizzare ogni ricerca effettuata.

Quanto sopra veniva ricordato appena nell’ottobre scorso dal TAR Lombardia.

Viene posto l’accento, in quella occasione, sulla “centralità della decisione umana“, e quindi sulla (ovvia, ndr.) negazione di una accettazione acritica degli output proposti da un sistema informatico, seppur altamente performante.

Al tempo, il contendere era nato dall’analisi del ricorso presentato da un avvocato.  Il documento riportava dei precedenti giurisprudenziali, chiaramente alla parte favorevole, ma che erano frutto di “allucinanzioni” dell’AI.

Precedenti nel senso si erano già avuti a stretto giro (Tribunale di Torino, sent. 16 settembre 2025 – Tribunale di Latina, sent. 23 settembre 2025), ma il TAR ha informato, nell’occasione appena richiamata,  l’ordine degli Avvocati per le valutazioni disciplinari del caso.

Il caso Siracusa

Continuando, interessante è quindi quanto statuito dal Tribunale di Siracusa, con la sentenza n. 338, pubblicata il 20 febbraio 2026, recentissima, quindi, rappresentando una ideale cartina tornasole di quanto accade nel quotidiano:

«Costituisce ormai fatto notorio, acquisito alla generalità dei consociati e certamente esigibile da un operatore professionale del diritto, che i modelli di intelligenza artificiale generativa (c.d. Large Language Models) non costituiscono banche dati giurisprudenziali da cui estrarre precedenti e citazioni, bensì strumenti di generazione automatica del linguaggio fondati su meccanismi inferenziali di natura statistica e probabilistica. Tali sistemi, in altri termini, non “sanno” né “ricordano” alcunché, ma si limitano a produrre sequenze di testo statisticamente plausibili sulla base di miliardi di parametri di addestramento, senza avere accesso – ordinariamente – ad alcuna base di conoscenza verificata o verificabile. È per tale ragione che i modelli di intelligenza artificiale generativa sono notoriamente soggetti al fenomeno delle c.d. “allucinazioni”, consistente nella generazione di contenuti formalmente plausibili ma sostanzialmente falsi o inesistenti, ivi comprese citazioni giurisprudenziali mai rese. L’utilizzazione acritica di tali strumenti, senza la doverosa verifica dell’attendibilità degli output mediante consultazione delle fonti primarie (banche dati giuridiche, repertori ufficiali, CED della Corte di Cassazione), integra gli estremi della colpa grave, non potendosi più tollerare, allo stato attuale delle conoscenze tecnologiche diffuse, errori di tale natura, i quali – lungi dal costituire meri refusi o imprecisioni – aggravano significativamente l’attività del giudice e delle controparti, costretti a verificare l’attendibilità di ogni singola citazione e a controdedurre su precedenti inesistenti.»

Ovviamente la precisazione appena esposta è corretta, ma è anche lecito chiedersi, sarà stata usata AI per la stesura della motivazione? Basta ricorda che google workspace è integrato con Gemini. Gmail offre un aiuto durante la stesura di una mail o nel riassumere i punti salienti di una missiva appena giunta.


ULTIMI 5 DELLO STESSO AUTORE

FERMO PREVENTIVO, I DUBBI DELLA POLITICA

POLIZIA GIUDIZIARIA E DIPENDENZA DA ENTE LOCALE, CHI PAGA?

POTERE DI ORDINANZA E GIUDICE AMMINISTRATIVO

ZONE ROSSE E SUSSISTENZA DELLA PERICOLOSITÀ, UNA CASSAZIONE DIRIMENTE

INTELLIGENZA ARTIFICIALE, BIOMETRIA E INDAGINI DI POLIZIA, UN VELOCE ABSTRACT

ULTIMI 5 ARTICOLI SULL’INTELLIGENZA ARTIFICIALE

COSA DICE DELLA NOSTRA RIVISTA L’INTELLIGENZA ARTIFICIALE

L’ASCESA DEGLI AVATAR GENERATI TRAMITE INTELLIGENZA ARTIFICIALE: ANALISI DI UN FENOMENO DIGITALE

INTELLIGENZA ARTIFICIALE E BIAS: LIMITI E OPPORTUNITÀ

PAPA FRANCESCO SFERZA I GRANDI DELLA TERRA SULL’INTELLIGENZA ARTIFICIALE [CON VIDEO]

INTELLIGENZA ARTIFICIALE NELLA PREVENZIONE DEI SUICIDI NELLE FORZE DI POLIZIA

ULTIMI 5 ARTICOLI PUBBLICATI

TURNAZIONE E RIPOSO NEL FESTIVO INFRASETTIMANALE NEL NUOVO CCNL FL

LE MODIFICHE ALL’ARTICOLO 23 DEL CODICE DELLA STRADA NEL 2026: TRA SEMPLIFICAZIONE PROCEDURALE E RAFFORZAMENTO DEI CONTROLLI

DECRETO-LEGGE 23/2026: SICUREZZA PUBBLICA, GIUSTIZIA E GOVERNO DEL RISCHIO

COME SE AVESSE TOLTO IL CIUCCIO A UN BAMBINO

DONNE, FEDE E MILITANZA NELLA JIHAD CONTEMPORANEA


Ethica Societas è una testata giornalistica gratuita e no profit edita da una cooperativa sociale onlus
Copyright Ethica Societas, Human&Social Science Review © 2026 by Ethica Societas UPLI onlus.
ISSN 2785-602X. Licensed under CC BY-NC 4.0

Related posts

IL CORPO COME CAMPO DI BATTAGLIA: LA VIOLENZA SESSUALE SULLE DONNE NEI CONFLITTI ARMATI CONTEMPORANEI, Cristina Di Silvio e Maurizio Colangelo

@Direttore

INTERVISTA A DIEUDONNÉ NZAPALAINGA E LA SUA LOTTA PER LA PACE [CON VIDEO], Massimiliano Mancini

@Direttore

IL GARANTE SI ESPRIME SUGLI OBBLIGHI PER LE BODY CAM [CON VIDEO], Massimiliano Mancini

@Direttore