Come l’Italia applica il regolamento europeo sull’AI e quali cambiamenti introduce per cittadini, PA e imprese

Abstract: La legge 29 settembre 2025, n. 132, rappresenta l’attuazione dell’AI Act (Reg. UE 2024/1689), segnando un passaggio decisivo nella regolazione dell’intelligenza artificiale in Italia. La norma definisce il quadro organizzativo e sanzionatorio necessario a rendere operativo l’approccio europeo basato sul rischio, individuando le autorità competenti, stabilendo regole specifiche per settori sensibili – quali pubblica amministrazione, sicurezza pubblica, giustizia e lavoro – e rafforzando la tutela dei diritti fondamentali. La legge introduce inoltre una nuova fattispecie di reato (“Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”), concepita per contrastare la diffusione di deepfake dannosi. Il presente contributo analizza le principali disposizioni della legge, i rapporti con il quadro europeo, le implicazioni operative per istituzioni e operatori e le criticità interpretative emergenti, con particolare attenzione al bilanciamento tra innovazione tecnologica, sicurezza e diritti della persona.
Keywords: #IntelligenzaArtificiale #AI #AILaw #AIAct #Legge1322025 #NormativaAI #DeepFake #RegolamentoEuropeoAI #AIAttuation #AIRegulation #AIDiritto #AIEtica #RiskBasedApproach #AIVietata #AIAltoRischio #AIRischioLimitato #AIRischioMinimo #DirittiFondamentali #Privacy #DignitàUmana #NonDiscriminazione #ProtezioneDati #TrasparenzaAI #SupervisioneUmana #SergioBedessi #ethicasocietas #ethicasocietasrivista #rivistascientifica #diritto #ethicasocietasupli
Sergio Bedessi (1958), laureato in architettura, in scienze politiche e in metodologia e ricerca empirica nelle scienze sociali, ha lavorato molti anni nella pubblica amministrazione, inizialmente come tecnico nei lavori pubblici, poi come comandante della polizia locale in vari comandi, giornalista pubblicista, autore di oltre 30 testi e centinaia di articoli, in particolare ha pubblicato “Intelligenza artificiale e fenomeni sociali. Previsioni con le reti neurali” per Maggioli, attualmente è presidente CEDUS-Centro Documentazione Sicurezza Urbana e Polizia Locale, docente in numerosi corsi anche universitari.
LA NUOVA LEGGE ITALIANA SULL’INTELLIGENZA ARTIFICIALE E I SUOI CONTENUTI
La legge 29 settembre 2025, n. 132 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, costituisce la normativa italiana di attuazione -e non di recepimento essendo una norma self-executing- del Regolamento UE 2024/1689 del Parlamento europeo e del consiglio, cosiddetto AI Act.
La legge 132/2025 costituisce un passaggio fondamentale per rendere operativo in Italia il quadro regolamentare europeo sull’intelligenza artificiale (IA intelligenza artificiale / AI – artificial intelligence), bilanciando così gli esiti dell’innovazione tecnologica con la tutela dei diritti dei cittadini.
La nuova norma introduce disposizioni specifiche per l’attuazione delle regole europee sull’AI nel nostro ordinamento con particolare riferimento a:
- individuare le autorità nazionali competenti all’attuazione del regolamento europeo (ACN – Agenzia per la cybersicurezza nazionale, AGID – Agenzia per l’Italia digitale);
- introdurre un sistema sanzionatorio specifico sulla base delle norme del regolamento europeo, individuando anche l’autorità preposta ai controlli e alle sanzioni (ACN).
In particolare la l. 132/2025 dedica particolare attenzione ad alcuni settori specifici, considerati sensibili in relazione all’uso delle tecnologie di AI:
- la pubblica amministrazione, stabilendo alcune regole per l’utilizzazione di AI nella fornitura di servizi pubblici;
- il settore sicurezza e ordine pubblico, imponendo limitazioni all’uso dei sistemi biometrici;
- l’ambito giustizia, stabilendo un principio di trasparenza nell’utilizzazione delle tecnologie di AI quando utilizzate per assumere decisioni di tipo giudiziario;
- il settore del lavoro, affinché i lavoratori siano tutelati rispetto a sistemi automatizzati di selezione e di gestione del personale che utilizzano AI.
La norma italiana si occupa inoltre, in questo senso ricalcando i principi dell’AI-Act, di tutela dei diritti fondamentali dei cittadini con una particolare enfasi sulla protezione:
- della dignità umana;
- del diritto di non discriminazione;
- dei dati personali e, più in generale, della privacy.
prevedendo la continua supervisione umana sui sistemi automatizzati.
Dal punto di vista delle sanzioni si introduce un regime di sanzioni amministrative pecuniarie per le violazioni del Regolamento europeo AI-Act, che già prevedeva gli importi, e quindi:
- sanzioni fino a 35 milioni di euro o 7% del fatturato globale annuo per le violazioni più gravi ossia per i sistemi vietati;
- sanzioni fino a 15 milioni o 3% del fatturato per violazioni degli obblighi sui sistemi ad alto rischio;
- sanzioni fino a 7,5 milioni o 1,5% del fatturato per le altre violazioni.
Da notare che la l. 132/2025 si basa sul risk-based approach europeo e quindi prevede la seguente distinzione per i sistemi che utilizzano AI:
- AI vietata, per i sistemi che manipolano i comportamenti umani o sfruttano la vulnerabilità umana;
- AI ad alto rischio, con obblighi stringenti di conformità e documentazione;
- AI a rischio limitato, con obblighi di trasparenza in relazione al funzionamento;
- AI a rischio minimo, il cui uso non implica alcun obbligo specifico.

CHE COSA È L’INTELLIGENZA ARTIFICIALE IN PAROLE SEMPLICI?
È opportuno fornire alcune definizioni prima di affrontare l’argomento specifico.
In modo semplice si può definire “intelligenza artificiale” la disciplina che si occupa essenzialmente di “sistemi intelligenti”, quei sistemi che hanno un “comportamento intelligente”, in pratica quel comportamento capace di applicare autonomamente una determinata conoscenza alla risoluzione di problemi, accrescendo poi la conoscenza tramite l’autoapprendimento.
Si può parlare di “intelligenza artificiale” solamente quando il sistema, autonomamente, apprende dalla propria esperienza e non quando si debba comunque avere un intervento esterno da parte dell’uomo, anche se la realtà è un po’ più sfumata.
In questo senso sbaglia chi parla in modo semplicistico di «algoritmi» a proposito di intelligenza artificiale.
“Algoritmo” in informatica, è l’insieme di istruzioni che deve essere applicato per eseguire un’elaborazione o risolvere un problema, quindi l’opposto di quel che fa l’AI che apprende dalla propria stessa esperienza e non fornisce un risultato basandosi su un insieme di istruzioni.
I software di intelligenza artificiale, di qualsiasi tipo, sono basati su reti neurali artificiali (ANN = artificial neural networks) che possono essere considerate un sistema di elaborazione dell’informazione basato sul modello del cervello umano o animale.
Le ANN sono costituite da molti semplici processori (neuroni artificiali) ognuno dei quali ha un piccolo quantitativo di memoria locale; il neurone è il singolo elemento computazionale e la conoscenza è “distribuita” in tutta la rete.
Non esistendo al momento in ambito commerciale computer il cui hardware sia formato da reti neurali artificiali è giocoforza utilizzare computer tradizionali (ma anche smartphone) sui quali gira un software che, di fatto, simula una rete neurale artificiale e, per far questo, usa tecniche di elaborazione algoritmiche.
L’elaborazione di alto livello è comunque quanto di più lontano possibile dall’elaborazione algoritmica, le reti neurali artificiali apprendono, come quelle naturali, dall’esperienza.
LA LEGGE ITALIANA SULL’AI: I NUOVI REATI
La legge italiana sull’AI interessa la Polizia Locale sotto vari punti di vista; uno di questi è quello relativo ai nuovi reati previsti.
In particolare L’articolo 26, comma 1, lettera c) della Legge 132/2025[1] introduce nel codice penale il nuovo articolo 612-quater, configurando un’autonoma fattispecie di reato (“Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale”) destinata a contrastare la diffusione illecita di contenuti deepfake.
“Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate.”
Diversamente dalla rubrica che riporta “generati o alterati” il testo della norma riporta “falsificati o alterati”, ponendo quindi qualche dubbio su quali siano i comportamenti che si vogliono effettivamente perseguire.
Infatti mentre la parola “generati”, è abbastanza comprensibile (chiedo al software di generare un’immagine, un video, comunque un contenuto) e può essere sinonimo di “falsificati”, la parola “alterati” presuppone di chiedere al software di alterare qualcosa che esisteva già prima, comportamento sicuramente più mite ma forse più subdolo.
In ogni caso il reato si sostanzia non nella generazione, falsificazione o alterazione, ma nella cessione, pubblicazione o diffusione senza consenso di tali materiali.
Comprensibile la volontà del legislatore di predisporre una norma per sanzionare comportamenti che altrimenti non trovavano riscontro nel codice penale; meno comprensibile la misura draconiana della reclusione da 1 a 5 anni, escludendo quindi la possibilità di oblazione.
Si badi bene che la reclusione da 1 a 5 anni è prevista per reati di gravità sociale ben maggiore quali l’istigazione o l’aiuto al suicidio (quando questo non avvenga, ma comunque deriva una lesione grave o gravissima), l’adescamento di minorenni, l’omicidio colposo.
Particolare attenzione va fatta agli elementi costitutivi del nuovo reato (condotta, oggetto, elemento soggettivo, requisiti specifici) e in particolare all’idoneità del contenuto ad ingannare e il danno ingiusto.

Con riferimento alla nozione di danno ingiusto ci può infatti porre la domanda se sia sufficiente il danno morale oppure debba essere provato anche quello patrimoniale, mentre con riferimento alla idoneità a indurre in inganno può risultare estremamente difficile individuare uno standard di valutazione rispetto a un utente medio.
Non ultimo si pongono problemi in relazione al confine fra la satira (per la quale vengono a volte utilizzate immagini e audio/video) e il concretizzarsi del reato, anche in funzione del soggetto che, ipoteticamente, lo compie (persona normale / vignettista per un quotidiano / ecc.).
Il reato è punibile a querela della persona offesa, ma si procede d’ufficio in tre ipotesi specifiche:
- se il fatto è connesso con altro delitto per cui si deve procedere d’ufficio
- se è commesso nei confronti di persona incapace per età o infermità
- se il fatto è commesso nei confronti di una “pubblica autorità” a causa delle funzioni esercitate;
l’ultima delle quali porrà sicuramente problemi interpretativi in quanto l’accezione «pubblica autorità» è molto vasta.
Quale sarà l’ambito applicativo del nuovo reato?
Evidente che la norma mira a sanzionare:
- deepfake pornografici;
- fake news mediante deepfake di personaggi pubblici;
- manipolazioni vocali per truffe o estorsioni;
- utilizzo fraudolento dell’identità altrui in contesti digitali.
ed è in stretto rapporto con altri reati (art. 612-bis c.p.[2], art. 612-ter c.p.[3], art. 595 c.p.[4], art. 494 c.p.[5]).
Da notare che l’attività di polizia giudiziaria risulta essere complessa e specializzata perché oltre che utilizzare i tradizionali strumenti di indagine, vi sono aspetti tecnico-informatici da gestire anche al fine di avere una rapidità di intervento per recuperare prove digitali che sono, per loro stessa natura, estremamente volatili.
Non va infine trascurato il capitolo, sempre in ambito attività di p.g., delle misure urgenti (rimozione immediata dei contenuti, misure cautelari personali).
NOTE
[1] L. 132/2025, art. 26 (Modifiche al codice penale e ad ulteriori disposizioni penali) «1. Al codice penale sono apportate le seguenti modificazioni: all’articolo 61, dopo il numero 11-decies è aggiunto il seguente: […omissis…] c) dopo l’articolo 612-ter è inserito il seguente: “Art. 612-quater (Illecita diffusione di contenuti generati o alterati con sistemi di intelligenza artificiale). – Chiunque cagiona un danno ingiusto ad una persona, cedendo, pubblicando o altrimenti diffondendo, senza il suo consenso, immagini, video o voci falsificati o alterati mediante l’impiego di sistemi di intelligenza artificiale e idonei a indurre in inganno sulla loro genuinità, è punito con la reclusione da uno a cinque anni. Il delitto è punibile a querela della persona offesa. Si procede tuttavia d’ufficio se il fatto è connesso con altro delitto per il quale si deve procedere d’ufficio ovvero se è commesso nei confronti di persona incapace, per età o per infermità, o di una pubblica autorità a causa delle funzioni esercitate”.»
[2] Codice Penale, art. 612-bis (Atti persecutori) «1.Salvo che il fatto costituisca più grave reato, è punito con la reclusione da un anno a sei anni e sei mesi chiunque, con condotte reiterate, minaccia o molesta taluno in modo da cagionare un perdurante e grave stato di ansia o di paura ovvero da ingenerare un fondato timore per l’incolumità propria o di un prossimo congiunto o di persona al medesimo legata da relazione affettiva ovvero da costringere lo stesso ad alterare le proprie abitudini di vita. […omissis…]»
[3] Codice Penale, art. 612-ter. (Diffusione illecita di immagini o video sessualmente espliciti) «1. Salvo che il fatto costituisca più grave reato, chiunque, dopo averli realizzati o sottratti, invia, consegna, cede, pubblica o diffonde immagini o video a contenuto sessualmente esplicito, destinati a rimanere privati, senza il consenso delle persone rappresentate, è punito con la reclusione da uno a sei anni e con la multa da euro 5.000 a euro 15.000. 2. La stessa pena si applica a chi, avendo ricevuto o comunque acquisito le immagini o i video di cui al primo comma, li invia, consegna, cede, pubblica o diffonde senza il consenso delle persone rappresentate al fine di recare loro nocumento.[…omissis…]»
[4] Codice Penale, art. 595 (Diffamazione) «1. Chiunque, fuori dei casi indicati nell’articolo precedente, comunicando con più persone, offende l’altrui reputazione, è punito con la reclusione fino a un anno o con la multa fino a lire diecimila.[…omissis…]»

ULTIMI 5 ARTICOLI SULL’INTELLIGENZA ARTIFICIALE
INTELLIGENZA ARTIFICIALE, BIOMETRIA E INDAGINI DI POLIZIA, UN VELOCE ABSTRACT
IL RISCHIO DI BIAS RELIGIOSO NELL’INTELLIGENZA ARTIFICIALE
L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE NELLA FINANZA AZIENDALE
L’ASCESA DEGLI AVATAR GENERATI TRAMITE INTELLIGENZA ARTIFICIALE: ANALISI DI UN FENOMENO DIGITALE
INTELLIGENZA ARTIFICIALE E BIAS: LIMITI E OPPORTUNITÀ
ULTIMI 5 ARTICOLI PUBBLICATI
LA TUTELA DEI MINORI NELLA VIOLENZA DOMESTICA
“LA VITA NON CI APPARTIENE”: IL MINISTRO FLORES HERNÁNDEZ PARLA DI DIPLOMAZIA CON L’ANIMA
L’OBBLIGO FORMATIVO PER I DIPENDENTI DEGLI ENTI PUBBLICI
LA TELEMEDICINA COME PARADIGMA DI TRASFORMAZIONE NELLA SANITÀ TERRITORIALE
UCRAINA, IL FRONTE INVISIBILE DELLA GUERRA TOTALE
Ethica Societas è una testata giornalistica gratuita e no profit edita da una cooperativa sociale onlus
Copyright Ethica Societas, Human&Social Science Review © 2025 by Ethica Societas UPLI onlus.
ISSN 2785-602X. Licensed under CC BY-NC 4.0


