Nel discorso rivolto al Collegio cardinalizio subito dopo il suo insediamento, papa Leone XIV ha spiegato che la scelta del nome rinvia alla storica enciclica Rerum Novarum, dedicata alle questioni sociali poste dalla prima grande rivoluzione industriale. Ha poi aggiunto che oggi la Chiesa offre a tutti “il tesoro della sua dottrina sociale in risposta a un’altra rivoluzione industriale e agli sviluppi nel campo dell’intelligenza artificiale che pongono nuove sfide per la difesa della dignità umana, della giustizia e del lavoro”.
Poco più di un anno prima, il 28 gennaio 2025, era stata pubblicata Antiqua et Nova. Nota sul rapporto tra intelligenza artificiale e intelligenza umana, documento congiunto del Dicastero per la Dottrina della Fede e del Dicastero per la Cultura e l’Educazione. Si tratta di un testo particolarmente interessante perché rappresenta uno dei primi tentativi sistematici della Chiesa cattolica di affrontare l’AI sul piano antropologico ed etico, e non soltanto su quello pastorale.
Il documento parte da una premessa molto chiara: l’intelligenza umana appartiene alla dignità della persona creata “a immagine di Dio”, mentre le tecnologie sono considerate come frutto della collaborazione dell’uomo con la creazione. L’AI, dunque, non viene trattata come qualcosa di intrinsecamente negativo; al contrario, il testo riconosce esplicitamente che il progresso tecnico può rientrare nella vocazione umana.
La Nota non si limita dunque a fissare limiti e cautele: prova anche a collocare l’AI entro una visione positiva della tecnica come possibilità propria dell’agire umano, purché resti subordinata alla dignità della persona, al bene comune e alla responsabilità morale.
Ci si muove certamente nel solco della tradizione dottrinale. Ma proprio per questo il documento è interessante: perché prova a misurarsi con l’intelligenza artificiale non dall’esterno, né soltanto in chiave difensiva, bensì cercando di chiarire quali aspetti dell’umano debbano restare indisponibili anche dentro una trasformazione tecnologica di portata storica.
Antiqua et Nova individua tre limiti fondamentali dell’AI.
Esiste anzitutto un limite ontologico: l’AI può eseguire compiti complessi, ma non pensa realmente. Opera su inferenze statistiche, non possiede comprensione semantica piena, né coscienza o esperienza.
C’è poi un limite corporeo ed esperienziale: l’intelligenza umana nasce da esperienza corporea, emozioni, relazioni sociali e storia personale. L’AI, invece, apprende da dati ma non vive esperienze. Su questo punto la Nota si avvicina a quanto sostengono molti neuroscienziati e filosofi della mente.
Infine esiste un limite morale e relazionale. L’AI non può esercitare discernimento morale né instaurare relazioni autentiche; non è un soggetto morale e non è responsabile delle proprie azioni.
Da questi limiti deriva la tesi centrale del documento: l’AI deve essere considerata uno strumento prodotto dall’intelligenza umana e non va confusa con una forma di intelligenza equivalente alla nostra. Qui si trova il cuore della sua impostazione antropologica: la tecnologia deve restare subordinata alla dignità della persona e orientata al bene comune.
Accanto alla definizione dei limiti cognitivi, l’analisi affronta poi i rischi sociali e politici: concentrazione del potere nelle grandi aziende tecnologiche, manipolazione dell’opinione pubblica, amplificazione delle disuguaglianze, uso militare dell’AI. La Nota insiste inoltre sul tema della responsabilità. Dal momento che l’AI non è un soggetto morale, la responsabilità delle sue applicazioni non può che ricadere sugli esseri umani: su chi la progetta e la programma, ma anche su chi decide di impiegarla e di affidarle determinate funzioni.
Un approccio così attento agli aspetti antropologici ed etici non può che operare una netta distinzione tra intelligenza umana e AI. Resta tuttavia aperta la domanda se questa distinzione ontologica sia sufficiente ad affrontare anche il problema del potere epistemico che i sistemi artificiali tendono ad acquisire.
Dal punto di vista empirico, infatti, oggi assistiamo al fatto che l’AI è in grado di produrre conoscenza, orientare la ricerca e modificare i processi decisionali. La risposta della Nota, su questo punto, è ferma: l’AI può ampliare le capacità umane, ma non può sostituire il soggetto umano della conoscenza e della decisione morale.
È proprio a partire da qui che diventa possibile misurare, con maggiore precisione, le convergenze e soprattutto le divergenze tra il documento vaticano e le analisi di Amodei e di Pignataro. A uno sguardo superficiale si potrebbe essere tentati di insistere soprattutto sui punti di contatto. E tali punti, in effetti, non mancano.
Ma su un aspetto decisivo la Nota si distanzia da entrambi: quando ribadisce che l’AI non è una intelligenza in senso proprio, bensì un prodotto dell’intelligenza umana, e soprattutto quando sottolinea che l’uso stesso della parola “intelligenza” riferita alle macchine è, in qualche misura, fuorviante, in quanto oscura ciò che è specifico dell’intelligenza umana. È questo il suo punto antropologico fondamentale.
Nel caso di Amodei, la tensione si ripresenta in termini non del tutto diversi da quelli già emersi nel confronto con le neuroscienze, anche se qui il fondamento è diverso. Non si tratta anzitutto di chiarire che cosa sia l’intelligenza in senso proprio, bensì di comprendere che cosa, nell’esperienza umana, non possa essere ridotto a funzione tecnica o delegato a sistemi artificiali.
Amodei, in realtà, non sostiene che l’AI sia identica all’intelligenza umana. Come si è visto, il presupposto del suo ragionamento è un altro: se i sistemi raggiungono capacità cognitive comparabili o superiori a quelle dell’uomo, le conseguenze economiche e politiche possono essere enormi.
Da una parte, dunque, la Nota muove dall’idea che l’AI non possieda esperienza, discernimento morale e relazioni autentiche, e conclude che le sue capacità restano solo una frazione delle capacità umane. Dall’altra, Amodei non si chiede se la macchina sia veramente intelligente, ma quale potere possano acquisire sistemi che svolgono compiti cognitivi meglio degli esseri umani.
I due discorsi, perciò, si muovono su piani diversi.
Nel caso di Pignataro, la divergenza è ancora più esplicita. Pignataro sostiene che il vero problema non sia l’intelligenza delle macchine, ma il fatto che le piattaforme possano apprendere la grammatica delle istituzioni economiche, accumulando conoscenza organizzativa e orientando decisioni. Il documento vaticano, invece, continua a collocare l’AI entro un orizzonte fondamentalmente strumentale.
È qui che la distanza tra i due approcci diventa più netta. Per Pignataro, infatti, i sistemi non si limitano a eseguire compiti: possono ristrutturare dall’interno i processi decisionali. La Nota riconosce alcuni rischi sociali molto seri, ma non arriva fino a questa diagnosi. Continua a pensare l’essere umano come unico soggetto morale e responsabile e, proprio per questo, a subordinare l’AI alla responsabilità umana invece di leggerla come possibile infrastruttura autonoma di potere.
Le differenze ci sono, anche se la Nota segnala con lucidità il pericolo che le nuove tecnologie rafforzino il paradigma tecnocratico, cioè l’idea che ogni problema umano possa essere risolto tecnicamente. Su questo punto il documento prende esplicitamente posizione contro quelle correnti — dal transumanesimo al postumanesimo — che vedono nelle tecnoscienze non soltanto strumenti, ma il principio di una ridefinizione dell’uomo e della società.
L’intelligenza umana non è soltanto capacità di risolvere problemi: include relazioni, esperienza corporea, apertura alla verità, dimensione morale e spirituale. Questa concezione ampia dell’intelligenza serve a difendere la dignità della persona.
Antiqua et Nova afferma con forza che la tecnologia deve restare al servizio dell’uomo. Resta però da capire come tradurre questo principio in forme effettive di responsabilità, là dove sistemi sempre più potenti entrano nei processi della conoscenza, della decisione e dell’azione.
← Neuroscienze Le tecnoscienze →
Testi e documenti citati
Per chi desideri confrontarsi direttamente con i testi citati in questa analisi, sono disponibili qui Antiqua et Nova, Quo Vadis, Humanitas?, Pensare l’antropologia cristiana di fronte ad alcuni scenari sul futuro dell’umano, i saggi di Dario Amodei e di Andrea Pignataro.