ETHICA SOCIETAS-Rivista di scienze umane e sociali
Intelligenza Artificiale NOTIZIE Privacy Sergio Bedessi

L’OBBLIGO DELLA FRIA PER LA POLIZIA LOCALE, Sergio Bedessi

La FRIA come nuovo adempimento obbligatorio per videosorveglianza e sistemi di AI ad alto rischio

Sergio Bedessi

Abstract: La legge 132/2025, attuativa dell’AI Act europeo, rende obbligatoria la Fundamental Rights Impact Assessment (FRIA) per tutti i sistemi di intelligenza artificiale ad alto rischio, ampiamente utilizzati dalle Polizie Locali nei servizi di videosorveglianza e sicurezza urbana. Con l’ACN individuata come autorità competente per controlli e sanzioni — fino a 35 milioni di euro — i Comuni devono classificare le tecnologie impiegate, valutare i rischi sui diritti fondamentali e predisporre la FRIA entro il 2 febbraio 2026. L’articolo sintetizza gli obblighi normativi, le implicazioni operative e il rapporto tra FRIA e DPIA, evidenziando urgenze e criticità per gli enti locali e in particolare per tutti quelli che adottano sistemi di videosorveglianza come sono pressoché la totalità.

Keywords:  #polizialocale #IntelligenzaArtificiale #AI #AILaw #AIAct #Legge1322025 #NormativaAI #DeepFake #RegolamentoEuropeoAI #AIAttuation #AIRegulation #AIDiritto #AIEtica #RiskBasedApproach #AIVietata #AIAltoRischio #AIRischioLimitato #AIRischioMinimo #DirittiFondamentali #Privacy #DignitàUmana #NonDiscriminazione #ProtezioneDati #TrasparenzaAI #SupervisioneUmana #SergioBedessi #ethicasocietas #ethicasocietasrivista #rivistascientifica #diritto  #ethicasocietasupli


Sergio Bedessi (1958), laureato in architettura, in scienze politiche e in metodologia e ricerca empirica nelle scienze sociali, ha lavorato molti anni nella pubblica amministrazione, inizialmente come tecnico nei lavori pubblici, poi come comandante della polizia locale in vari comandi, giornalista pubblicista, autore di oltre 30 testi e centinaia di articoli, in particolare ha pubblicato “Intelligenza artificiale e fenomeni sociali. Previsioni con le reti neurali” per Maggioli, attualmente è presidente CEDUS-Centro Documentazione Sicurezza Urbana e Polizia Locale, docente in numerosi corsi anche universitari.


english version


La legge 29 settembre 2025, n. 132 “Disposizioni e deleghe al Governo in materia di intelligenza artificiale”, che come si è già detto costituisce la normativa italiana di attuazione del Regolamento UE 2024/1689 del Parlamento europeo e del consiglio, cosiddetto AI Act, andando a individuare l’autorità preposta alle sanzioni previste dall’AI-Act costringe a questo punto tutti coloro che erano rimasti inerti ad adottare la FRIA (Fundamental Rights Impact Assessment – valutazione di impatto sui diritti fondamentali), obbligo previsto dal Regolamento europeo per chi utilizza sistemi di intelligenza artificiale a rischio elevato.

Tenuto conto della proliferazione a dismisura dei sistemi di videosorveglianza urbana, che hanno a bordo molteplici funzioni, sempre assistite da AI, è banale osservare che pressoché tutte le Polizie Locali (i Comuni) hanno l’obbligo di adottare questo documento.

In realtà due scadenze per l’adozione della FRIA sono già passata (l’ultima il 2 agosto 2025) ma non essendo stata individuata l’autorità italiana preposta ai controlli e alle sanzioni niente di negativo è accaduto.

A questo punto approssimandosi la prossima e definitiva scadenza (2 febbraio 2026) per l’adozione della FRIA è necessario che chi utilizza (definito deployer dall’AI-Act) sistemi di AI ad alto rischio adotti questo documento.

Tralasciando i sistemi vietati (esempio: sistemi di identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico, sistemi di categorizzazione biometrica basati su caratteristiche sensibili, come anche solamente il genere, ecc.) vi è un’area molto ampia di sistemi che utilizzano AI e che potrebbero potenzialmente andare a inerire ai diritti fondamentali della persona e fra questi i sistemi di videosorveglianza urbana, le dashcam, le bodycam, le “fototrappole”, gli APR (“droni”).

A seguito di un’analisi delle funzioni che tali sistemi hanno a bordo e una loro classificazione secondo le regole dell’AI-Act, qualora la funzione risulti fra quelle ad alto rischio sarà suscettibile della valutazione di impatto sui diritti fondamentali.

Da tenere conto che la FRIA deve essere redatta anche se tale funzione non viene utilizzata ma è potenzialmente utilizzabile.

L’allegato III dell’AI-Act riporta un’elencazione sommaria delle tecnologie che usano AI per le quali deve essere predisposta la FRIA con riferimento alle attività di polizia; fra questi i sistemi utilizzati per la gestione del traffico stradale, i sistemi per valutare e classificare le chiamate di emergenza, i sistemi di polizia predittiva e molti altri ancora. 

COSA DEVE FARE QUINDI UN COMANDO DI POLIZIA LOCALE?

Le domande da porsi sono: stiamo utilizzando sistemi vietati? stiamo utilizzando sistemi ad alto rischio per i quali si debba prevedere la valutazione d’impatto?

Per rispondere a queste due domande si deve dunque condurre fare un’analisi delle tecnologie che si utilizzano (e la stessa cosa andrà fatta per i futuri acquisti), con particolare riferimento a quelle che recuperano o lavorano su immagini e flussi video, come la videosorveglianza, questo per comprendere se si stanno utilizzando tecnologie con rischio inaccettabile (sono vietate), tecnologie ad alto rischio, Tecnologie a rischio limitato, Tecnologie a rischio minimo (non regolato).

Effettuata l’analisi va redatta la valutazione di impatto sui diritti fondamentali e quindi adottate una serie di misure per mitigare tale impatto e conseguentemente il rischio per i diritti fondamentali delle persone.

Va osservato come la valutazione di impatto FRIA abbia forti relazioni con la valutazione di impatto per la privacy (DPIA – Data Protection Impact Assessment) e dovrebbero quindi essere condotte parallelamente.

La predisposizione della FRIA dovrebbe far carico a un soggetto che abbia contemporaneamente competenze tecniche, tecnologiche e legali, coinvolgendo anche i produttori/distributori dei sistemi che utilizzano l’AI (esempio: il produttore del sistema di videosorveglianza).

Avendo la legge nazionale individuato finalmente l’autorità preposta ai controlli e alle sanzioni nell’ACN, il rischio è che anche per la tematica dell’intelligenza artificiale avvenga quel che è avvenuto per la privacy, e quindi che molti Comuni/Polizie Locali si trovino sprovvisti della FRIA alla prossima scadenza (2 febbraio 2026), con il rischio di sanzioni fino a 35.000.000 di euro.


ALTRI ARTICOLI DELLO STESSO AUTORE

LA DISCIPLINA NAZIONALE SULL’IA: NUOVI REATI E VIOLAZIONI AMMINISTRATIVE

ULTIMI 5 ARTICOLI SULL’INTELLIGENZA ARTIFICIALE

INTELLIGENZA ARTIFICIALE, BIOMETRIA E INDAGINI DI POLIZIA, UN VELOCE ABSTRACT

IL RISCHIO DI BIAS RELIGIOSO NELL’INTELLIGENZA ARTIFICIALE

L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE NELLA FINANZA AZIENDALE

L’ASCESA DEGLI AVATAR GENERATI TRAMITE INTELLIGENZA ARTIFICIALE: ANALISI DI UN FENOMENO DIGITALE

INTELLIGENZA ARTIFICIALE E BIAS: LIMITI E OPPORTUNITÀ

ULTIMI 5 ARTICOLI PUBBLICATI

QUANDO IL PROCESSO DIVENTA LUOGO DI NUOVA VIOLENZA

LA TUTELA DEI MINORI NELLA VIOLENZA DOMESTICA

“LA VITA NON CI APPARTIENE”: IL MINISTRO FLORES HERNÁNDEZ PARLA DI DIPLOMAZIA CON L’ANIMA

L’OBBLIGO FORMATIVO PER I DIPENDENTI DEGLI ENTI PUBBLICI

LA TELEMEDICINA COME PARADIGMA DI TRASFORMAZIONE NELLA SANITÀ TERRITORIALE


Ethica Societas è una testata giornalistica gratuita e no profit edita da una cooperativa sociale onlus
Copyright Ethica Societas, Human&Social Science Review © 2025 by Ethica Societas UPLI onlus.
ISSN 2785-602X. Licensed under CC BY-NC 4.0

Related posts

MINORS PROTECTION IN DOMESTIC VIOLENCE, Deborah Breda

Deborah Breda

LA DICHIARAZIONE ANTIFASCISTA DI GIORGIA MELONI, Francesco Mancini

@Direttore

L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE NELLA FINANZA AZIENDALE, Lolita Guliman e Diego Serafin

@Direttore