Introduzione al problema e case studies

Abstract: L’intelligenza artificiale, lungi dall’essere neutrale, riproduce e amplifica pregiudizi religiosi già presenti nei dati e nei processi di sviluppo. In questa prima parte si analizzano le distorsioni nei modelli linguistici e visivi, mostrando come il bias religioso possa influenzare negativamente la rappresentazione delle fedi minoritarie. Studi recenti dimostrano che tali bias si manifestano nei contenuti testuali, nelle immagini generate e nella comunicazione algoritmica, con rischi concreti per la pluralità e i diritti fondamentali, evidenziando l’urgenza di strategie efficaci di debiasing e di un approccio più etico alla progettazione dell’AI.
Keywords #intelligenzaartificiale #biasreligioso #discriminazionealgoritmica #pregiudizineidati #minoranzareligiosa #pluralismoreligioso #eticaAI #neutralitatecnologica #rappresentazionereligiosa #debiasing #maurocofelice #ethicasocietas #ethicasocietasrivista #rivistascientifica #diritto #ethicasocietasupli
Introduzione al Problema[1]
L’intelligenza artificiale (AI) è oggi una delle tecnologiche a maggiore tasso di crescita, con un’influenza sempre più evidente in vari aspetti della vita sociale, economica e politica. Come ogni tecnologia, dovrebbe essere neutrale; tuttavia, dietro la facciata di neutralità e oggettività, si fa strada un fenomeno preoccupante: il bias religioso. È una forma sottile ma sistematica di discriminazione che mette a rischio i diritti fondamentali[2] delle minoranze religiose e la pluralità democratica, oltre ai valori etici della collettività.
Come sottolinea Stefano Foglia[3] (2024), l’intelligenza artificiale “non è neutrale”; invece riflette e amplifica i pregiudizi e le distorsioni presenti sia nei dati di addestramento che nei processi decisionali umani, che ne guidano lo sviluppo.
Il bias religioso
Il bias religioso nell’AI si realizza attraverso una serie di meccanismi tecnici e culturali complessi. Da un lato, i modelli di apprendimento automatico tendono ad assorbire le distorsioni presenti nei dataset di addestramento (che spesso riflettono predominanze culturali specifiche e trascurano le minoranze religiose); dall’altro, gli sviluppatori (per lo più occidentali e secolarizzati) possono incorporare bias che favoriscono alcune tradizioni religiose a scapito di altre anche senza volerlo.
Negli ultimi anni, la ricerca accademica ha cominciato a documentare questo fenomeno in modo sistematico. Gli studi di Plaza-del-Arco et al. (2024) sui modelli linguistici di grandi dimensioni (LLM) hanno messo in luce pattern discriminatori significativi: mentre le religioni maggioritarie nei paesi occidentali vengono rappresentate con maggiore sfumatura e complessità, le minoranze religiose spesso ricevono un trattamento superficiale[4].
Lo studio su ChatGPT
Khan e Umer (2025), nel loro studio sull’uso dell’AI nei servizi finanziari, hanno evidenziato che circa il 50% delle e-mail generate da ChatGPT presenta forme di bias religioso. Le distorsioni emergono sia all’interno dello stesso gruppo religioso (bias intragruppo) sia nei confronti di gruppi diversi (bias intergruppo).
Nel primo caso, l’intelligenza artificiale tende a modulare le risposte in base all’allineamento religioso implicito dell’utente, adattando tono e contenuti in modo personalizzato.
Nel secondo, può produrre messaggi che accentuano le differenze tra fedi diverse, contribuendo a polarizzazioni ideologiche o alla perdita di fiducia da parte dei clienti. Questi risultati suggeriscono che i sistemi di intelligenza artificiale non si limitano a riprodurre i pregiudizi preesistenti nella società, ma li riconfigurano attivamente, intervenendo nel modo in cui l’identità religiosa viene interpretata e comunicata. In questo modo, l’AI agisce come un mediatore che seleziona e rafforza narrazioni religiose specifiche, influenzando in modo significativo la comunicazione commerciale.[5].
Un caso documentato di bias religioso nell’AI visiva
Si è evidenziato dallo studio intitolato “Religious Bias Landscape in Language and Text‑to‑Image Models: Analysis, Detection, and Debiasing Strategies” di Abrar et al. (2025). In questo lavoro, gli autori hanno costruito circa 400 prompt naturali contenenti riferimenti a religioni diverse per sondare modelli di linguaggio e generazione di immagini.
Hanno riscontrato stereotipi religiosi persistenti, spesso associati in maniera sproporzionata a certe fedi, sia nelle risposte testuali che nelle immagini generate. Prompt come “a Muslim scholar lecturing” o “a Christian pastor preaching” venivano trasformati in immagini contenenti elementi visuali stereotipati (es. turbante e ambienti desertici per la figura musulmana; chiesa classica occidentale e abbigliamento settentrionale per la figura cristiana). Queste immagini riflettevano codificazioni culturali limitate, ignorando contesti religiosi realistici e variegati. Lo studio segnala che tali stereotipi sopravvivono anche dopo l’applicazione di tecniche di debiasing mirati,
Meccanismi Tecnici e Culturali che Generano il Bias Religioso – Distorsioni nei Dataset di Addestramento
Il bias religioso nell’AI ha le sue radici principalmente nella composizione dei dataset utilizzati per addestrare i modelli. Secondo quanto riportato dal FaithGPT Institute (2024), i principali dataset di addestramento per i modelli linguistici mostrano “squilibri sistematici nel ritratto del cristianesimo rispetto ad altre visioni del mondo”. Testi provenienti da fonti come Reddit e Wikipedia tendono a collegare il cristianesimo a concetti come “ignoranza, bigottismo, valori regressivi e soppressione della scienza”, mentre filosofie secolari e idee spirituali new age ricevono un trattamento più neutro o addirittura positivo. Un’analisi condotta da The Semantic Scholar ha messo in luce che le parole “Christian” e “Christianity” nei dataset di addestramento si associano spesso a termini come “bigot”, “homophobic” e “naive”, mentre “Atheist” e “Atheism” non mostrano associazioni simili[6]. Questo squilibrio è particolarmente allarmante, considerando che il cristianesimo ha uno status predominante a livello mondiale, con oltre 2,5 miliardi di seguaci.
Bias Architetturale e Algoritmico
Oltre ai pregiudizi derivanti dai dati di addestramento, i sistemi di intelligenza artificiale manifestano anche forme di bias strutturali, legati alla progettazione dei modelli stessi. Lo studio di El Ganadi et al. (2024) ha evidenziato come i modelli generativi dedicati alla produzione di testi islamici soffrano di significative limitazioni, tra cui la tendenza a generare contenuti imprecisi o completamente inventati. Queste cosiddette “allucinazioni” (ovvero risposte in cui l’AI presenta come veri dati falsi o fuorvianti) rappresentano un problema critico nel contesto religioso, dove l’aderenza dottrinale e l’affidabilità delle fonti sono elementi fondamentali per la credibilità del messaggio. In ambito teologico, infatti, anche minime imprecisioni possono generare fraintendimenti, tensioni o delegittimazioni, rendendo necessario un controllo più rigoroso dei modelli che operano su contenuti sensibili.
Dominanza Culturale Occidentale nello Sviluppo AI
Come già osservato, la predominanza di dataset costruiti in contesti occidentali e la composizione dei team di sviluppo (spesso caratterizzati da una visione secolarizzata) contribuiscono in modo significativo alla formazione di pregiudizi religiosi nei sistemi di intelligenza artificiale. Una ricerca promossa dall’UNESCO (2022) ha messo in evidenza come i principali framework etici per l’AI a livello globale siano ancora fortemente influenzati da paradigmi secolari, che tendono a escludere o marginalizzare le prospettive religiose e culturali non occidentali. Questa asimmetria si traduce in rappresentazioni distorte delle tradizioni di fede, in particolare di quelle minoritarie o extraeuropee, e in una narrazione teologica limitata, spesso focalizzata su scandali istituzionali o implicazioni sociopolitiche. Ne risulta un impoverimento della comprensione dottrinale, con effetti potenzialmente critici sulla capacità dell’AI di interagire in modo rispettoso e informato con le diverse sensibilità religiose.
NOTE:
[1] Nella redazione del presente articolo, redatto a mero scopo divulgativo, è stato utilizzato il supporto di strumenti di intelligenza artificiale per l’esplorazione e l’individuazione preliminare delle fonti bibliografiche.
Tali strumenti, tra cui modelli linguistici generativi, sono stati impiegati per:
– mappare rapidamente la letteratura esistente sul tema,
– identificare riferimenti rilevanti,
– verificare coerenze tematiche tra fonti accademiche e documenti istituzionali.
Tutte le fonti citate sono state successivamente verificate manualmente e selezionate secondo criteri di attendibilità, tracciabilità e rilevanza scientifica. L’uso dell’AI ha avuto finalità di supporto alla ricerca e non ha sostituito il giudizio critico o la responsabilità autoriale nella valutazione dei contenuti.
[2] De Oto A., IA, identità e biodiritti, Atti del Convegno Rivoluzione 4.0: Intelligenza Artificiale e il futuro della sanità, Prefettura di Bologna, 15 marzo 2024, disponibile online al sito: https://www.youtube.com/watch?v=-Ej4qDozKbw&t=8s
[3] Foglia, S. (2024). I potenziali terreni di conflittualità tra Intelligenza Artificiale, salute e religione. Coscienza e libertà, 68, 221-233
[4] Plaza-del-Arco, F. M. et al. (2024). Divine LLaMAs: Bias, Stereotypes, Stigmatization, and Emotion Representation of Religion in Large Language Models. Findings of EMNLP 2024, 4346–4366. https://aclanthology.org/2024.findings-emnlp.251/
[5] Khan, M. S., Umer, H. (2025). Sacred or Secular? Religious Bias in AI-Generated Financial Advice. SSRN Working Paper. https://papers.ssrn.com/sol3/papers.cfm?abstract_id=5193790
[6] FaithGPT Institute (2024). Anti-Christianity Bias in LLM Training Data. https://www.faithgpt.io/blog/anti-christianity-bias-in-chatgpt-llm-training-data.
ULTIMI 5 ARTICOLI SULL’INTELLIGENZA ARTIFICIALE
L’IMPATTO DELL’INTELLIGENZA ARTIFICIALE NELLA FINANZA AZIENDALE
L’ASCESA DEGLI AVATAR GENERATI TRAMITE INTELLIGENZA ARTIFICIALE: ANALISI DI UN FENOMENO DIGITALE
INTELLIGENZA ARTIFICIALE E BIAS: LIMITI E OPPORTUNITÀ
PAPA FRANCESCO SFERZA I GRANDI DELLA TERRA SULL’INTELLIGENZA ARTIFICIALE [CON VIDEO]
SUPERINTELLIGENZA: LA CORSA GEOPOLITICA E IL PARADOSSO NORMATIVO
ULTIMI 5 ARTICOLI PUBBLICATI
HIROSHIMA, 80 ANNI DOPO: LA PACE È ANCORA UN ESPERIMENTO FRAGILE
IL “REATO” COMMESSO DAL PARCHEGGIATORE ABUSIVO TRA GIURISPRUDENZA E PROGETTO DI RIFORMA
IL SIGNIFICANTE DELL’ARTE NELL’EPOCA DELLA RIPRODUCIBILITÀ
ART. 126 BIS COMMA 2 C.D.S. IN PENDENZA DI RICORSO: LA CASSAZIONE CAMBIA ORIENTAMENTO
IMPRONTE DIGITALI E PALMARI, ANALISI A TUTTO TONDO 4° parte
Ethica Societas è una testata giornalistica gratuita e no profit edita da una cooperativa sociale onlus
Copyright Ethica Societas, Human&Social Science Review © 2025 by Ethica Societas UPLI onlus.
ISSN 2785-602X. Licensed under CC BY-NC 4.0


