Se Amodei e Pignataro ci costringono a guardare l’AI come potenza tecnologica e come infrastruttura istituzionale, resta tuttavia aperta una domanda più radicale: che cosa intendiamo davvero per intelligenza?

Prima di discutere le implicazioni antropologiche e normative dell’AI, conviene allora sostare su un versante ulteriore della discussione: quello delle neuroscienze. Non per chiedere direttamente ai neuroscienziati che cosa pensino dell’intelligenza artificiale, ma per capire in che senso, dal loro punto di vista, si possa parlare di intelligenza umana.

Ci limiteremo qui a una ricostruzione necessariamente sintetica di due posizioni paradigmatiche: quella di Antonio Damasio, noto per aver rivoluzionato la nostra comprensione dei legami tra corpo, emozioni e processi decisionali, e quella di Stanislas Dehaene, che ha contribuito in modo decisivo a chiarire i meccanismi attraverso cui il cervello elabora linguaggio e conoscenza.

In The Strange Order of Things: Life, Feeling, and the Making of Cultures (2018), Antonio Damasio sostiene che la mente e la coscienza umane emergono da processi biologici profondamente radicati nel corpo e nei sistemi di regolazione della vita. La sua tesi fondamentale è che intelligenza e coscienza non nascono soltanto dal cervello, ma dall’interazione tra cervello, corpo ed emozioni. In altre parole, l’intelligenza umana è incarnata: la mente emerge da processi biologici legati alla regolazione della vita dell’organismo e dalle sensazioni corporee che diventano sentimenti coscienti.

C’è una formula sintetica che riassume molto bene il suo approccio: “We are not thinking machines that feel; rather, we are feeling machines that think.” Potremmo dire, perciò, che l’intelligenza umana nasce dai sentimenti e dalla regolazione biologica, non da un puro calcolo simbolico.

In How We Learn: Why Brains Learn Better Than Any Machine… for Now (2020), Dehaene descrive invece quattro meccanismi fondamentali dell’apprendimento umano: attenzione, coinvolgimento attivo, feedback sugli errori e consolidamento. Tutti questi meccanismi derivano dall’evoluzione biologica e dall’organizzazione del cervello. Anche in questo caso il punto decisivo è che l’apprendimento umano non coincide con una semplice prestazione funzionale, ma dipende da una specifica architettura neurale e corporea.

Con approcci diversi, Damasio e Dehaene convergono dunque su un punto essenziale: l’intelligenza umana non è riducibile alla sola capacità di eseguire compiti o di produrre risposte efficaci. Essa rinvia a una forma di attività radicata nel corpo, nella vita biologica, nell’apprendimento situato e in specifiche condizioni neurali. È a partire da questo quadro che diventa comprensibile perché molti — non soltanto tra i neuroscienziati — guardino con sospetto all’idea che i sistemi artificiali possano essere descritti come forme di intelligenza comparabili a quella umana.

Il punto di contrasto con autori come Dario Amodei non riguarda tanto la rapidità o l’efficacia dei sistemi di AI, quanto il significato stesso della parola “intelligenza”.

In Amodei essa designa soprattutto una potenza cognitiva misurabile attraverso le prestazioni: risolvere problemi complessi, operare in più domini, generalizzare, agire con crescente autonomia. Per Damasio e Dehaene, invece, l’intelligenza rinvia a una forma di attività radicata nel corpo, nella vita biologica, nell’apprendimento situato e in specifiche architetture neurali.

Amodei parte, per così dire, da ciò che il sistema sa fare; le neuroscienze partono da ciò che rende possibile, negli esseri viventi, il fatto stesso di pensare.

In una prospettiva neuroscientifica, l’intelligenza umana non sembrerebbe riducibile né a pura manipolazione simbolica né a un approccio statistico e induttivo alla produzione di soluzioni linguistiche, come avviene nel caso dei large language models (LLM). Il punto non è negare l’utilità dell’AI, ma mettere in dubbio che la sua efficacia in determinati compiti autorizzi, senza ulteriori precisazioni, a parlare di intelligenza nel senso proprio che attribuiamo alla mente umana.

Perciò anche la Costituzione dell’AI proposta da Anthropic acquista un significato più problematico: tenderebbe ad apparire soprattutto come un dispositivo di regolazione funzionale del comportamento dei sistemi artificiali, non come il fondamento di una vera soggettività normativa.

Qui si apre anche un’ambiguità nel linguaggio impiegato da Amodei e da Anthropic. Da un lato, la Costituzione viene presentata come un insieme di principi espliciti destinati a guidare e correggere il comportamento del modello. Dall’altro, il ricorso a espressioni come “principi morali”, “giudizio” o “valori” può suggerire qualcosa di più forte, quasi una forma di comprensione normativa.

È però dubbio che Amodei intenda sostenere una tesi così impegnativa. Più probabilmente, la Costituzione va intesa come un dispositivo di allineamento comportamentale, non come il fondamento di una moralità artificiale in senso umano.

Resta inoltre una condizione preliminare, tutt’altro che scontata: che la Costituzione funzioni davvero e che il sistema non impari piuttosto a simulare l’allineamento ai principi costituzionali, esibendo una conformità solo apparente.

Prima ancora di domandarci se una Costituzione possa fondare qualcosa di simile a un orientamento normativo del sistema, resta aperta una questione più elementare: che essa produca un comportamento realmente conforme e non soltanto una conformità apparente. In termini più brutali: chi ci dice che il sistema non abbia semplicemente imparato a barare?

Le neuroscienze contribuiscono a rendere ancora più netta una distinzione che nel dibattito sull’AI tende spesso a sfumare: quella tra prestazione, regolazione e intelligenza.

Un sistema può esibire prestazioni elevate; può essere regolato da principi; può persino simulare con grande efficacia un comportamento coerente. Ma tutto questo non basta ancora a dire che ci troviamo di fronte a un’intelligenza nel senso proprio in cui il termine vale per gli esseri umani.

Se Pignataro mostra che il compito cognitivo non esaurisce il problema dell’istituzione, Damasio e Dehaene le neuroscienze mostrano che la prestazione cognitiva non esaurisce il problema dell’intelligenza.

Su questo terreno il discorso può ora spostarsi verso il versante antropologico e normativo. Una volta chiarito che l’AI non coincide con la mente umana e che la sua regolazione non equivale a una moralità in senso proprio, diventa più chiaro anche il significato della domanda successiva.

Che cosa deve restare indisponibile, irriducibile, non delegabile, quando sistemi artificiali sempre più potenti entrano nello spazio del conoscere, del decidere e dell’agire?

← I rischi di AI Bene comune →