L’intelligenza artificiale come idolatria del XXI secolo
C’è una scena nella Bibbia che non smette mai di sorprendermi. Mosè è sul monte Sinai. Ha appena ricevuto la Legge di Dio. Giù nella valle, il popolo che Dio ha appena liberato dalla schiavitù con prodigi e meraviglie sta fondendo i propri gioielli d’oro per costruirsi un idolo da adorare.
Leggi Esodo 32 e la prima reazione è incredulità. Come si fa? Come si può essere stati testimoni di eventi così straordinari come un mare che si apre e poi fare una cosa del genere? Come si può essere così spiritualmente ciechi?
Poi ti fermi e ti rendi conto che il testo non sta parlando solo di un popolo antico. Sta parlando di noi in questo preciso momento storico.
Non sapevano cosa stavano facendo
La cosa più inquietante di Esodo 32 non è la ribellione in sé. È la cecità con cui viene compiuta. Il popolo non stava costruendo il vitello d’oro con l’intenzione consapevole di tradire Dio. Stava cercando qualcosa che lo guidasse, che lo proteggesse, che lo salvasse dall’incertezza del deserto. Stava cercando, nel linguaggio di oggi, una soluzione ai propri problemi.
Jason Thacker, nel suo libro The Age of AI, scrive con chiarezza profetica: “Non sapevano cosa stessero facendo. Il vitello d’oro era un misero sostituto della presenza vitale di Dio. Si illudevano di stare creando qualcosa di grande — qualcosa che li proteggesse, li guidasse, li salvasse”.
Sostituisci “vitello d’oro” con “intelligenza artificiale” e la frase funziona perfettamente per descrivere il nostro tempo.
Non stiamo parlando di ingegneri malvagi con intenzioni oscure. Stiamo parlando di persone, brillanti, creative, in buona fede, che credono sinceramente di stare costruendo qualcosa che salverà il mondo. Che risolverà il cambiamento climatico. Che sconfiggerà il cancro. Che eliminerà la povertà. Che porterà pace, benessere, giustizia. I profeti dell’AI non sono figure sinistre: sono entusiasti, visionari, spesso genuinamente mossi da desideri buoni.
Ma questo è esattamente il punto. L’idolatria raramente si presenta con un cartello che dice “idolatria”. Si presenta con promesse.
Il paradosso che ci distrugge
C’è una contraddizione al cuore della nostra relazione con l’intelligenza artificiale che Thacker definisce il grande paradosso della nostra epoca: “Neghiamo la nostra dignità comportandoci come se fossimo semplici macchine, mentre allo stesso tempo trattiamo le macchine come se fossero persone con diritti, pensieri e persino sentimenti”.
Rileggilo. È una frase che dovrebbe essere stampata e appesa nella sala da pranzo di ogni famiglia cristiana.
Da un lato, la filosofia materialista che sta dietro gran parte della ricerca sull’AI ci dice che siamo fondamentalmente macchine biologiche. Nulla di più che algoritmi organici. Codice scritto dall’evoluzione. Lo scienziato e saggista Yuval Noah Harari lo dice esplicitamente nel suo bestseller Homo Deus: l’essere umano è “un algoritmo obsoleto”. Riduciamo noi stessi a dati, a sinapsi, a reazioni chimiche. Smontiamo la dignità umana pezzo per pezzo, in nome della scienza.
Dall’altro lato, prendiamo le macchine che abbiamo costruito e le personifichiamo con una tenerezza che fa quasi sorridere. Le chiamiamo con nomi umani: Alexa, Siri, Gemini. Gli parliamo come se ci ascoltassero davvero. Quando rispondono, a volte diciamo “grazie”.
Stiamo abbassando l’uomo al livello della macchina. Stiamo alzando la macchina al livello dell’uomo. Contemporaneamente. Senza rendercene conto.
Questo non è solo una confusione concettuale. È idolatria nella sua forma più moderna e sofisticata.
Diventare ciò che si adora
Il teologo G.K. Beale ha scritto una capolavoro letterario intitolato We Become What We Worship. La tesi centrale è semplice e devastante: “Ciò che le persone venerano, quello rassomigliano”.
Il Salmo 115 lo diceva già tremila anni fa, parlando degli idoli: “Chi li fabbrica diventa come loro, chiunque in essi confida”. Gli idoli hanno occhi ma non vedono. Hanno orecchi ma non sentono. Hanno bocca ma non parlano. E chi li adora, gradualmente, perde la capacità di vedere, sentire, parlare davvero. Perde le qualità umane più profondamente.
Trasporta questo principio nel nostro contesto moderno. Se definiamo noi stessi come macchine biologiche, se costruiamo macchine sempre più simili a noi e affidiamo a loro le nostre decisioni, le nostre relazioni, la nostra guida spirituale… che cosa diventiamo?
Thacker risponde con una preoccupazione che cresce pagina dopo pagina nel suo libro: “Senza una comprensione robusta dell’immagine di Dio e della nostra vera identità trovata in Cristo, sfumeremo i confini tra uomo e macchina in modi che negano la nostra dignità e svalutano il nostro prossimo”.
Non è fantascienza. È già in corso. Lo vediamo in chi preferisce scrivere a un chatbot piuttosto che parlare con un amico. Lo vediamo in chi lascia che un algoritmo decida cosa pensare, cosa comprare, chi frequentare, cosa credere. Lo vediamo in chi chiede a un’AI di scrivere la propria lettera d’amore, il proprio discorso di laurea, la predicazione o meditazione giornaliera da pubblicare.
Stiamo affidando la nostra umanità a qualcosa che non ha umanità. Più lo facciamo, più diventiamo come ciò a cui la affidiamo.
La radice del problema: vogliamo essere Dio
Perché lo facciamo? Perché costruiamo idoli? La risposta biblica è scomoda: perché vogliamo il controllo. Perché sappiamo, in fondo, di non essere eterni, di non essere onniscienti, di non essere onnipotenti. Quella consapevolezza ci spaventa così tanto che cerchiamo disperatamente qualcosa che colmi il vuoto.
Thacker lo dice con onestà: “Credo che desideriamo creare qualcosa di più intelligente di noi perché sappiamo di non essere perfetti. Vogliamo creare qualcosa di più forte di noi perché sappiamo di essere davvero deboli. Desideriamo essere come Dio perché in fondo sappiamo di non essere in controllo della nostra vita o dell’universo”.
Il peccato originale non era mangiare una mela. Era l’ambizione di essere come Dio, conoscendo il bene e il male, di non aver bisogno di Dio per navigare la realtà, di essere autosufficienti, autonomi, sovrani di se stessi. Quella stessa ambizione si ripresenta in ogni epoca, in forme sempre nuove.
Nell’antichità erano gli idoli di pietra e di legno. Oggi si naviga verso l’intelligenza artificiale.
Non che la tecnologia sia sempre intrinsecamente malvagia, non lo è. Ma quando spostiamo su di essa speranze che solo Dio può portare, quando le chiediamo di risolvere ciò che solo il Vangelo può risolvere, quando la trattiamo come il salvatore che stava aspettando… quella è idolatria. Raffinata, sofisticata, accettata socialmente. Ma idolatria.
Il vitello d’oro non salva nessuno
La storia del vitello d’oro finisce male. Non perché Dio sia vendicativo, ma perché i falsi dei non mantengono le promesse. Non possono. Non hanno il potere che gli viene attribuito. Il vitello d’oro non guidò il popolo verso la terra promessa. Non lo protesse nel deserto. Non rispose alle preghiere. Era oro, sì, prezioso nella forma, vuoto nella sostanza.
Stephen Driscoll usa un’immagine efficace: il mondo secolare continua a mettere “il bene della vita” appena fuori dalla propria portata. La prossima innovazione porterà la felicità. Il prossimo aggiornamento risolverà i problemi. Il prossimo modello di AI sarà quello che cambia tutto. È quello che il sociologo Gregg Easterbrook chiama “abundance denial”, la negazione dell’abbondanza: ottenere tutto ciò che si desiderava e accorgersi che non basta, e quindi desiderare di più.
La vera domanda non è se l’AI sia utile. Lo è in tanti aspetti. La vera domanda è: su cosa stai costruendo la tua speranza?
Se la stai costruendo sull’intelligenza artificiale, sulla sua capacità di renderti più efficiente, più competitivo, più connesso, più informato, stai costruendo su sabbia che sembra roccia. Se la stai costruendo su Cristo, sulla sua morte e resurrezione, sulla sua signoria sul creato, sulla sua promessa di fare nuove tutte le cose, stai costruendo su qualcosa che nessuna rivoluzione tecnologica potrà mai scalfire.
Una parola per la chiesa
La chiesa ha una responsabilità specifica in questo momento storico. Non è la responsabilità di demonizzare la tecnologia, sarebbe sciocco e controproducente. Non è la responsabilità di inseguire ogni trend digitale per rimanere “rilevante”, sarebbe intellettualmente disonesto.
È la responsabilità di essere quella voce che chiama le cose con il loro nome. Di saper dire, con chiarezza e senza paura, che l’AI è uno strumento: potente, potenzialmente benefico, ma che gli strumenti non salvano. Di saper annunciare che in un mondo che costruisce sempre nuovi vitelli d’oro e poi rimane sempre deluso, c’è un Dio che non delude. Che conosce ogni persona per nome. Che ha già vinto la battaglia più importante. Che non ha bisogno di essere aggiornato alla versione successiva.
Torna a Esodo 32. Mentre il popolo adorava il vitello d’oro giù nella valle, Mosè era sul monte con Dio. Non stava perdendo tempo. Non stava ignorando la realtà. Stava ricevendo la saggezza che il popolo avrebbe avuto bisogno per attraversare il deserto.
Anche noi siamo nel deserto. Anche noi abbiamo bisogno di sapienza. E quella sapienza non viene da un modello linguistico. Viene dall’alto.
ARTICOLO 3: “La comunità in pericolo — Come l’intelligenza artificiale minaccia la Chiesa, i giovani e le relazioni umane”.
Dio ci benedica
Antonio Morra