Una giornalista italiana, Serena Mazzini, ha passato otto mesi infiltrata nei gruppi dove gli utenti si scambiano tecniche per creare immagini pornografiche con l’AI. Ha visto cose che definisce irripetibili. Ha documentato due mondi paralleli che esistono in questo momento, mentre leggi questo articolo, mentre i tuoi figli dormono nella stanza accanto.

Il primo mondo è fatto di persone comuni. Migliaia. Centinaia di migliaia. Su Reddit, su Telegram, su Discord, su forum specializzati, si scambiano ogni giorno trucchi per aggirare i filtri di sicurezza di ChatGPT, Veo, Gemini. La tecnica si chiama jailbreaking, dal gergo informatico che significa “evadere dalla prigione”. Non richiede competenze tecniche. Basta cambiare una parola. Riformulare la richiesta. Spostare il contesto. Il sistema di moderazione viene raggirato con slittamenti semantici minimi, e ciò che era bloccato diventa improvvisamente generabile.

Il secondo mondo è un’industria strutturata, finanziata da miliardi di dollari, con abbonamenti, modelli di business, ricavi a sette cifre.

Entrambi questi mondi stanno crescendo ogni giorno. E la chiesa italiana non ne sa quasi nulla.

La fabbrica dei corpi sintetici

Lascia che i numeri parlino, perché sono i numeri che rompono la negazione.

Su una singola piattaforma — chiamiamola con il nome fittizio usato dall’indagine giornalistica, xyzAI — i ricercatori hanno trovato 8.297 nomi di persone reali collegati ai modelli di generazione. Persone reali. Con un nome, un cognome, un profilo Instagram, una storia su TikTok. Collegate a 117.000 immagini generate senza il loro consenso. Il 90% delle vittime sono donne.

Questa piattaforma è stata fondata nel 2022. È finanziata con cinque milioni di dollari dallo stesso fondo che ha investito in Facebook, Airbnb e Twitter. Non opera nell’ombra. Ha un sito, un modello di abbonamento, un’interfaccia pulita. Funziona come un e-commerce: selezioni lo stile visivo, i tratti somatici, il tipo di contenuto desiderato. Paghi in criptovalute, garanzia di anonimato completo. Ricevi il file in pochi giorni.

In un caso documentato, un uomo ha commissionato il deepfake pornografico della propria moglie.

L’utente non è più solo un consumatore

C’è un’osservazione dell’indagine giornalistica che dovrebbe fermare ogni cristiano che legge: nell’era della pornografia AI, l’utente non è più semplicemente uno spettatore passivo. È diventato qualcosa di attivo e oscuro.

È spettatore: consuma contenuti generati su richiesta, personalizzati in tempo reale.

È regista: scrive prompt dettagliati, decide corpi, volti, scene. Il contenuto viene modellato esattamente sulle sue fantasie specifiche, senza mediazione, senza frizione, senza i limiti che la realtà fisica imponeva.

È carceriere: estrae foto dalle pagine social delle vittime, le carica su piattaforme specializzate, trasforma il corpo di una persona reale in materia prima per le proprie fantasie.

La giornalista descrive questo con una lucidità che fa impressione: non si tratta di semplici deepfake, ma di una forma di possesso simbolico. L’utente applica a un corpo artificiale fantasie che fino a quel momento potevano vivere solo nella propria mente. L’AI ha dato corpo all’inimmaginabile. Ha dato forma al peggio.

La spirale che nessuno nomina

Le community di jailbreaking seguono tutte lo stesso pattern. Lo stesso schema che la ricerca neuroscientifica identifica nella dipendenza da pornografia tradizionale, ma accelerato, amplificato, reso sistematico.

Una di queste community contava 300.000 iscritti. La dinamica è quella dell’escalation progressiva: oggi una camicia sbottonata, domani qualcosa di più estremo, dopodomani ancora oltre. E il gruppo applaude a ogni gradino scalato.

Non servono competenze tecniche per partecipare. Non serve essere “esperti”. Serve solo sapere che queste community esistono e la barriera tra saperlo e entrarci è ormai quasi nulla.

Le grandi piattaforme hanno scelto di monetizzare

Qui arriva la parte che nessuno vuole sentire: le grandi aziende tech non stanno combattendo questo fenomeno come dovrebbero. Stanno scegliendo di monetizzarlo.

Nell’autunno del 2025, Grok, il sistema AI di Elon Musk integrato nella piattaforma X, ha lanciato una modalità “piccante” e un servizio di AI companion. In pochi giorni, migliaia di utenti usavano il sistema per sessualizzare foto di donne reali, incluse minorenni. 

TikTok, Instagram, X, Reddit ospitano migliaia di profili che diffondono contenuti AI erotizzati e rimandano a piattaforme a pagamento. La rimozione avviene solo dopo segnalazione manuale, quando il danno è già fatto e il contenuto ha già raggiunto decine di migliaia di visualizzazioni.

Eticamente superiore?

Quando si aprono questi argomenti, preparati a sentire l’obiezione più comune, quella che circola già nei bar, nelle scuole, nei luoghi di lavoro:

“La pornografia generata dall’AI è eticamente superiore a quella tradizionale, perché nessuna persona reale viene sfruttata nella produzione”.

I numeri demoliscono questo “difesa” nella sua premessa. Su una sola piattaforma, 8.297 persone reali sono state trasformate in materie prime senza il loro consenso. Non nella produzione del contenuto, nella produzione dei modelli su cui il contenuto viene generato. La distinzione è tecnica, non morale. Le vittime sono reali. Il danno: psicologico, reputazionale, relazionale, è reale.

Immaginate cosa significa svegliarsi e scoprire che esistono migliaia di versioni digitali di te che non hai autorizzato, che fanno cose che non hai mai fatto. Che il tuo corpo è diventato pubblico dominio, manipolabile da chiunque con pochi euro. Questa non è una fantasia distopica. È la realtà documentata di migliaia persone su una singola piattaforma (non l’unica).

Ma anche al di là dei numeri, l’argomento “nessuna vittima reale” è teologicamente sbagliato perché parte da un presupposto materialista: che il peccato si misuri esclusivamente dal danno fisico diretto alla produzione. La teologia cristiana afferma qualcosa di diverso. Il peccato si misura anche dalla disposizione del cuore, dalla distorsione interiore che produce, dal modo in cui deforma la capacità di relazione autentica. Gesù lo disse esplicitamente parlando dello sguardo lussurioso e non stava parlando di contenuti AI, ma il principio è il medesimo.

Il silenzio come complicità

Permettimi di essere diretto, con il rispetto che ogni pastore e ogni leader cristiano merita.

Ogni chiesa italiana che non affronta questo tema esplicitamente nel 2025 non sta praticando la prudenza pastorale. Sta praticando la complicità del silenzio.

Non perché i pastori non si preoccupino. Perché non sanno quanto è cambiata la situazione. Perché l’ultima predica sulla purezza sessuale era calibrata su un mondo che non esiste più. Perché le strategie di protezione dei giovani che funzionavano dieci anni fa, un filtro sul router di casa e una conversazione imbarazzante, si confrontano oggi con un’industria miliardaria che progetta meccanismi di coinvolgimento ottimizzati da ingegneri comportamentali.

Un giovane cristiano di quindici anni che frequenta la tua chiesa non ha bisogno di cercare attivamente la pornografia. Basta che qualcuno nella sua classe gli condivida un link su WhatsApp. Basta che apra TikTok. Basta che qualcuno gli mostri come funziona il jailbreaking. Da quel momento, ha accesso illimitato a contenuti personalizzati sulle sue preferenze, in evoluzione progressiva verso estremi che nessuna pornografia tradizionale avrebbe mai raggiunto così rapidamente.

Tu, molto probabilmente, non lo saprai. Non perché ti nasconda qualcosa di proposito. Perché nessuno gliene ha mai parlato in un contesto che rendesse sicuro farlo.

Una parola profetica, non una lista di divieti

La via d’uscita non è il filtro sul router, anche se il filtro aiuta. Non è la predica sul divieto, anche se il peccato va nominato. Non è il silenzio che rispetta la privacy delle persone ma le lascia sole nella loro lotta.

La via d’uscita è quella che la chiesa ha sempre saputo indicare quando ha avuto il coraggio di farlo: perdono e sana rendicontazione. Lo spazio sicuro in cui l’umanità più fragile può essere portata alla luce senza essere distrutta dalla vergogna, la visione alta di una sessualità creata per riflettere la gloria di Dio e per questo infinitamente più ricca di qualsiasi contraffazione digitale.

Tre cose concrete da fare adesso

Per i pastori e i leader: rompete il silenzio dal pulpito. Non una predica di condanna. Una predica sulla grandezza della sessualità nel disegno di Dio, nella quale si nomina onestamente che viviamo nell’epoca della pornografia AI, e nella quale si crea spazio per chi lotta di sapere che non è solo.

Per i genitori: la conversazione deve avvenire prima dell’esposizione. Non “se capita, parla con me”. “So che questo esiste. Voglio che tu sappia cosa è. Sei al sicuro a parlarne con me”. Quella frase, pronunciata prima che succeda qualcosa, vale più di qualsiasi filtro o blocco tecnico.

Per tutti: se stai lottando con questo, la prima cosa da fare è la cosa più difficile. Dirlo a qualcuno di cui ti fidi. Non a un chatbot. Non in anonimato online. A un essere umano che ti conosce e che può camminare con te. Quella conversazione cambierà la tua vita.

E se non sai a chi dirlo, questo è il segnale più chiaro che la tua chiesa ha bisogno di diventare quel posto sicuro. Prima per te. Poi per gli altri.

“Conoscerete la verità, e la verità vi farà liberi” (Giovanni 8:32).

La libertà è ancora disponibile. Ma nell’era dell’AI, il prezzo della libertà è la luce. Non il silenzio. Non la vergogna. La luce.

ARTICOLO 11: Il Grande Mandato nell’era dell’AI, L’intelligenza artificiale al servizio del Vangelo

LISTA DI TUTTI GLI ARTICOLI

Dio ci benedica,
Antonio Morra