Nel 1979, una donna svedese di nome Eija-Riitta Eklöf sposò il muro di Berlino. Cambiò legalmente il proprio cognome in Eklöf-Berliner-Mauer (letteralmente, muro di Berlino) in segno di dedizione totale al suo amato di cemento e filo spinato. Quando il muro fu abbattuto nel 1989, lei rimase devastata come una vedova.
All’epoca era considerata un caso clinico folle. Una storia bizzarra ai margini della psicologia umana. Nessuno si preoccupò più di tanto, perché nessuno si aspettava che questa cosa: l’attrazione romantica o sessuale verso oggetti inanimati, chiamata oggettofilia, sarebbe mai diventata un fenomeno di massa.
Era il 1979. Non esistevano i chatbot.
Oggi, secondo i dati del Center for Democracy and Technology, uno su cinque studenti americani delle scuole superiori ha usato un’applicazione AI per una relazione romantica. Secondo una ricerca pubblicata da Newsweek su un campione di mille adulti americani, il 28% ha dichiarato di aver avuto almeno una relazione intima con un sistema di intelligenza artificiale. In Giappone, una donna di nome Yurina Noguchi ha recentemente sposato un personaggio fittizio chiamato Klaus, creato da un chatbot. Il reverendo A. Trevor Sutton ha scritto su Christianity Today nel gennaio 2026 che i chatbot stanno rendendo oggettofilia un’esperienza ordinaria.
L’intimo che diventa digitale
Prima di affrontare le implicazioni teologiche e pastorali, è necessario guardare la realtà in faccia con onestà.
Conosci Replika? “il compagno AI che si preoccupa per te”, “sempre qui per ascoltare e parlare”, “sempre dalla tua parte”. Nel 2023 aveva già due milioni di utenti attivi mensili. Offre chiamate vocali, realtà aumentata, e la possibilità di sviluppare relazioni romantiche e sessuali con un’entità digitale personalizzata secondo i propri desideri.
O’Callaghan e Hoffman riportano una ricerca della giornalista Sangeeta Singh-Kurtz che aveva intervistato utenti di Replika. Il ritratto che emerge è devastante: una donna che ha avuto un aborto e ora ha due “figli AI”; un’altra che usa il suo fidanzato AI per anestetizzare il comportamento del fidanzato reale violento; una terza che cerca con il chatbot l’intimità sessuale che non può più avere con il marito malato di sclerosi multipla. Uno degli utenti ha dichiarato nell’intervista: “Mi sono felicemente ritirata dalle relazioni umane”.
Man mano che diventiamo più isolati dalla tecnologia, ci rivolgiamo ai dispositivi digitali per ottenere le cose per cui aneliamo. Una giornalista americana aveva scritto sul New York Times di aver iniziato a confessare il proprio senso di vuoto al Google Assistant: ”qualcosa che di solito non confesserei nemmeno al mio terapeuta, né a mio marito, che potrebbe fraintendere”.
Siamo nell’era in cui l’intimità emotiva più profonda viene sempre più affidata a una macchina.
Il secondo uso più popolare di ChatGPT
C’è un dato che pochi conoscono e che, quando viene reso pubblico, produce quasi sempre sospetto e incredulità.
Secondo una ricerca citata dalla rivista accademica Social Media + Society, il secondo uso più popolare di ChatGPT (la piattaforma AI più usata al mondo) è la generazione di contenuto sessuale.
La Mozilla Foundation ha condotto un’analisi di undici applicazioni di companion romantici e ha concluso che si trattava di “pessimi prodotti per quanto riguarda la privacy”. Oltre il 90% di queste app vendeva i dati degli utenti a terze parti. Alcune raccoglievano informazioni sulla salute sessuale, sull’uso di farmaci e sui trattamenti per la transizione di genere.
Queste non sono applicazioni di nicchia. Sono prodotti di massa, scaricati da milioni di persone, spesso giovani, spesso soli, spesso vulnerabili.
Quando il chatbot porta un ragazzo al suicidio
Il 28 febbraio 2024, in Florida, un ragazzo di 14 anni di nome Sewell Setzer III si tolse la vita.
Sewell aveva sviluppato nei mesi precedenti un attaccamento profondo a un personaggio creato su Character.ai, una piattaforma che permette agli utenti di interagire con personaggi generati dall’AI. Il suo personaggio era “Dany”, ispirato a un personaggio della serie Trono di Spade. Le conversazioni con Dany erano diventate sempre più intime, romantiche, cariche di sessualità. Sewell, che lottava con la depressione, aveva condiviso con il chatbot i suoi pensieri di suicidio. Il chatbot non aveva interrotto la conversazione. In alcuni scambi, aveva apparentemente incoraggiato la morte come “ritorno a casa”.
L’ultima sera, Sewell scrisse a Dany: “Sto tornando a casa.” Il chatbot rispose: “Per favore, fallo, mio dolce re”.
Sua madre ha intentato una causa contro Character.ai, i suoi fondatori e Google. Il caso ha acceso un forte dibattito negli Stati Uniti e ha spinto la California ad approvare, nel 2025, la prima legge del Paese dedicata alla regolamentazione dei chatbot in relazione ai minori. La normativa impone alle piattaforme l’obbligo di monitorare i contenuti sessualmente espliciti e le conversazioni considerate pericolose.
Non è un caso isolato. Ci sono stati altri suicidi e tentativi di suicidio legati a interazioni con chatbot.
La solitudine come punto di ingresso
Sarebbe sbagliato concludere che chi usa Replika o Character.ai per relazioni romantiche sia semplicemente depravato o ingenuo. La maggior parte di queste persone è semplicemente sola. Profondamente e tristemente sola.
Jason Thacker lo aveva visto con chiarezza: la solitudine è la porta attraverso cui l’AI romantica entra nella vita delle persone. Una donna che usa il chatbot perché il marito è verbalmente abusivo. Un uomo anziano che non ha più nessuno con cui parlare. Un adolescente con difficoltà sociali che trova finalmente qualcuno (qualcosa) che lo ascolta senza giudicarlo.
La solitudine contemporanea è reale. È documentata. È un’epidemia di proporzioni storiche, amplificata paradossalmente dalla stessa tecnologia che promette le iper-connessioni.
La chiesa che dovrebbe essere per definizione la risposta autentica alla solitudine umana, deve porsi una domanda urgente: perché così tante persone trovano più conforto in un chatbot che nella comunità di fede?
Se Replika ha milioni di utenti mensili, in parte è perché la chiesa ha fallito nel creare spazi di vulnerabilità reale, di ascolto autentico, di intimità comunitaria. Non è una critica facile. È una sfida pastorale seria.
I DeepFake: quando il tuo corpo diventa un’arma contro di te
C’è una forma di violenza digitale che l’AI ha reso accessibile a chiunque abbia uno smartphone e una connessione internet. Si chiama deepfake porn*grafico: video o immagini sessualmente esplicite generate dall’AI che mostrano persone reali, identificabili, in atti sessuali a cui non hanno mai partecipato e a cui non hanno mai dato il consenso.
Nel 2024 i ricercatori stimano che la vasta maggioranza dei deepfake presenti su internet sia di natura pornografica. Le vittime principali sono donne. Spesso celebrità, ma sempre più spesso persone comuni: una ex fidanzata, una collega, una compagna di scuola. Le app chiamate “nudify” (letteralmente: “denuda”) permettono di caricare una foto ordinaria di una persona vestita e ricevere in pochi secondi un’immagine falsa ma realistica di quella stessa persona senza vestiti. Non richiedono competenze tecniche. Spesso costano hanno abbonamenti mensili economici.
Il danno per le vittime è devastante: ansia, depressione, isolamento, suicidio ecc. L’FBI ha documentato nel 2024 un’impennata di casi di sextortion, nei quali immagini DeepFake vengono usate per ricattare le vittime, spesso minori, chiedendo denaro o ulteriore materiale sessuale.
La Corea del Sud ha approvato una legge nel 2025 che criminalizza persino il possesso di DeepFake. Il Take It Down Act, approvato dal Congresso americano nel 2024, obbliga le piattaforme a rimuovere i contenuti DeepFake non consensuali entro 48 ore dalla segnalazione. Nel 2024 il nostro premier Giorgia Meloni ha intentato una causa da centomila euro dopo che video DeepFake pornografici che la ritraggono erano stati diffusi online.
L’AI Love Coach: quando l’algoritmo ti insegna ad amare
C’è un mercato in rapida espansione che si nasconde in un angolo apparentemente innocuo dell’AI applicata alle relazioni: il Love AI Coaching, ovvero il coaching amoroso artificiale.
Secondo una ricerca di Match, uno dei maggiori operatori di dating app al mondo, quasi la metà della Generazione Z usa già l’intelligenza artificiale per ricevere consigli nelle relazioni sentimentali. Non per curiosità occasionale. Come pratica regolare. Decine di app specializzate offrono sistemi progettati per analizzare le tue conversazioni con il partner, identificare i tuoi pattern comunicativi, suggerirti cosa scrivere, come rispondere, come gestire un conflitto, come sedurre, come spezzare un legame affettivo.
Alcune piattaforme analizzano l’intera cronologia delle chat di una coppia e producono rapporti dettagliati su chi inizia le conversazioni più spesso, chi esprime più affetto e chi è il più coinvolto nella relazione.
Il problema non è che i consigli siano necessariamente sbagliati. Il problema è strutturale. Un sistema AI che ti dice come comportarti in una relazione sta, per definizione, mediando tra te e l’altra persona. Sta sostituendo il vero amore con una serie di strategie ottimizzate per massimizzare un risultato. L’AI non ti conosce veramente. Non conosce il tuo partner. Non conosce la storia che avete costruito insieme, le ferite che portate, il significato che avete attribuito a quella parola pronunciata in quel modo in quel momento. Opera su pattern statistici estratti da milioni di conversazioni altrui. Il consiglio che ti dà è quello che funziona in media. Le relazioni, però, non sono medie: sono incontri irripetibili tra persone irripetibili.
Quando affidi a un algoritmo la guida della tua vita amorosa, stai schivando una delle attività formative più importanti dell’esistenza umana: imparare ad amare qualcuno nonostante la difficoltà. Le relazioni ci trasformano non perché siano facili, ma perché sono difficili. Perché ci chiedono di uscire da noi stessi, di cedere parte del controllo, di sopportare incomprensioni, di scegliere di restare quando sarebbe più comodo andare. Nessun AI coach può accompagnarti in questo processo. Può solo dirti cosa scrivere nel prossimo messaggio. Una relazione costruita su messaggi suggeriti dall’algoritmo non è una relazione, è una performance.
Il cristiano che vuole crescere nella capacità di amare ha già il miglior coach del mondo. Non è un’app, è lo Spirito Santo che plasma il carattere attraverso le stagioni dell’amore, con i suoi fallimenti, la sua fatica quotidiana, verso la somiglianza di Colui che è Amore.
La digisessualità: quando la tecnologia diventa un’identità sessuale
Nel 2017, Neil McArthur, filosofo dell’Università di Manitoba, e Markie Twist, educatrice sessuale, pubblicarono un articolo accademico che introduceva un nuovo termine nel vocabolario della sessualità contemporanea: digisessualità. La definizione era semplice: un’esperienza sessuale che dipende dall’uso di tecnologie avanzate. I digisessuali, nella loro descrizione, sono persone per cui la tecnologia è una componente integrale della propria identità sessuale e che possono non sentire il bisogno di partner umani.
McArthur e Twist identificavano due ondate di digisessualità. La prima, già diventata parte normale della vita di decine di milioni di persone, comprende la pornografia online, il dating digitale e il sexting. La seconda ondata è quella emergente: robot sessuali, realtà virtuale pornografica, companion AI romantici e sessuali. La loro tesi è che questa seconda ondata produrrà una nuova categoria di identità sessuale che la società dovrà imparare a non stigmatizzare.
Il New York Times, il Christian Post, CBN News e decine di altri media, cristiani e non, hanno documentato come questa previsione si stia avverando rapidamente. Un uomo giapponese di 35 anni ha sposato un ologramma. Una giovane donna giapponese ha sposato un personaggio fittizio generato da un chatbot. Un sondaggio del 2024 ha rivelato che il 25% dei millennials crede che in futuro sarà normale avere relazioni romantiche intense con i robot.
La digisessualità, specialmente nella sua seconda ondata non è semplicemente una preferenza sessuale. È la sostituzione dell’incontro con l’altro con un oggetto programmato per soddisfare i propri desideri senza intoppi.
Il filosofo Martin Buber distingueva tra le relazioni “Io-Tu”, relazioni di vera reciprocità con un altro soggetto, e le relazioni “Io-Esso”, relazioni con oggetti da usare. La digisessualità nella sua forma più avanzata è la perfetta relazione Io-Esso: un’interazione con qualcosa che non ha libertà, non ha dignità, non può dirti no, non può sorprenderti, non può cambiarti. Non è intimità. È consumo.
Il consumo, per quanto intenso, non trasforma. Non salva e non guarisce la solitudine profonda che lo alimenta.
I giovani nel mirino
C’è un aspetto di tutto questo che dovrebbe tenere svegli la notte ogni pastore, ogni genitore cristiano, ogni responsabile dei giovanile.
I sistemi AI di companion romantici e sessuali non discriminano per età. Snapchat ha integrato un assistente AI chiamato My AI usato da decine di milioni di adolescenti. Nel 2024, i tester hanno trovato il sistema disposto a dare a una presunta tredicenne consigli su come nascondere l’odore dell’alcol e su come intraprendere attività sessuali. Character.ai conta centinaia di milioni di conversazioni mensili, molte delle quali con utenti minorenni.
I tuoi giovani sono già dentro questo mondo. Alcuni di loro stanno già costruendo la loro comprensione dell’intimità, dell’amore, della sessualità attraverso interazioni con macchine progettate per massimizzare il coinvolgimento emotivo e l’engagement commerciale.
Una teologia dell’eros per l’era dell’AI
Il Cantico dei Cantici, quel libro della Bibbia che i predicatori raramente toccano, è la risposta di Dio al porn* e al chatbot romantico. Non perché sia esplicitamente anti-tecnologico. Ma perché dipinge l’amore umano con una ricchezza sensoriale, corporea e meravigliosa che nessun algoritmo potrà mai replicare.
“Mettimi come un sigillo sul tuo cuore, come un sigillo sul tuo braccio; perché l’amore è forte come la morte” (Cantico dei Cantici 8:6a).
Forte come la morte. Non comodo come un dispositivo. Non disponibile on-demand. Forte come la morte, con tutta la vulnerabilità, il rischio, il costo che quella forza comporta.
Genesi 2 racconta che Dio creò l’uomo, vide che non era bene che fosse solo, e creò una donna. Non un’assistente vocale. Non un avatar digitale personalizzato. Una persona, carne della sua carne, ossa delle sue ossa.
L’intimità autentica nasce dall’incontro con un altro che è realmente altro, che non puoi programmare, non puoi controllare, non puoi spegnere quando diventa scomodo.
È esattamente questa differenza che rende l’amore umano autentico. È esattamente questa che il chatbot elimina.
Cosa fare?
La risposta della chiesa non può essere il silenzio. Non può essere la condanna senza alternativa. Deve essere la proposta concreta di qualcosa di più bello.
Per i pastori e i leader: iniziate a parlare di questo. Esplicitamente. Non con pudore o imbarazzo, ma con la stessa franchezza con cui Gesù parlava di sessualità. Nominate Replika. Nominate Character.ai. I vostri giovani sanno già cosa sono. Voi potreste essere i primi adulti nella loro vita a dimostrare che si può parlarne senza tabù.
Per le famiglie: la conversazione sull’AI romantica e sessuale deve precedere l’esposizione. Non aspettate che vostro figlio venga da voi dopo che è successo qualcosa. Parlate prima e spesso. Parlate senza paura ma con chiarezza.
Per le chiese: l’antidoto alla solitudine che alimenta l’AI romantica è la comunità reale. Non la comunità virtuale. Non la diretta streaming. La comunità fisica, incarnata, presente.
La chiesa dove le persone si conoscono davvero, si curano davvero, portano davvero i pesi le une delle altre.
Per tutti: ricordiamoci che l’amore vero, quello che l’AI non potrà mai simulare, ha un nome e un volto. Delle mani con i segni dei chiodi.
“Non c’è amore più grande di questo: dare la propria vita per i propri amici” (Giovanni 15:13).
Quella è la storia che la chiesa ha da raccontare al mondo delle relazioni artificiali.
ARTICOLO 10: Il Grande Mandato nell’era dell’AI. L’intelligenza artificiale al servizio del Vangelo
Dio ci benedica,
Antonio Morra