Tra il 28 gennaio e il 13 febbraio 2026 oltre duemila miliardi di dollari di capitalizzazione sono scomparsi dal settore del software enterprise. La causa immediata è stata il lancio di nuovi strumenti basati sull’intelligenza artificiale — in particolare plugin per Claude Cowork e i progressi di Claude Code.

Questi strumenti hanno mostrato come sistemi AI possano svolgere molte attività tipiche del lavoro cognitivo strutturato: redigere documenti legali, gestire flussi contabili, costruire strumenti interni di coordinamento e automatizzare numerose funzioni aziendali. Da qui la reazione dei mercati: se un agente AI può svolgere ciò che oggi fanno questi software, perché continuare a pagare per essi?

A scrivere queste cose è Andrea Pignataro, CEO di ION Group, leader globale nel settore del software e dei dati finanziari. Ha pubblicato sul suo blog il saggio The Wrong Apocalypse, per lanciare questa allerta ma soprattutto per contestare la tesi di Dario Amodei, il quale immagina un futuro in cui l’AI raggiunge livelli cognitivi equivalenti a una “nazione di geni in un data center”. Ma, come vedremo, pur rifiutando una visione catastrofista, le conclusioni cui giunge sono forse più radicali di quelle di Amodei.

In effetti, la sua tesi può essere riassunta in modo molto netto: il vero rischio non è l’intelligenza della macchina, ma la piattaforma che apprende la grammatica delle istituzioni.

Pignataro non contesta la direzione del cambiamento. Ritiene però sbagliato il modo in cui viene interpretato, come pure i tempi e i settori che sarebbero esposti alla trasformazione: “wrong about the mechanism, wrong about the timeline, and wrong about which companies are actually vulnerable”.

Quello che Amodei compie, secondo Pignataro, è un errore concettuale: confonde la capacità di un sistema AI di svolgere un compito cognitivo con la possibilità concreta che quel sistema possa sostituire l’intero sistema organizzativo che rende quel compito significativo.

Molti osservatori partono dall’idea che se l’AI può eseguire una determinata attività — scrivere codice, analizzare dati, produrre documenti — allora potrà anche sostituire il software o le professioni che oggi la rendono possibile. Questa, per Pignataro, è un’inferenza tutt’altro che ovvia: ignora il fatto che gran parte del software enterprise non esiste per eseguire compiti cognitivi, ma per coordinare attività cognitive tra molte persone e istituzioni.

Le organizzazioni, infatti, sono sistemi complessi composti da attori con informazioni, responsabilità e incentivi diversi. Il software aziendale funziona come infrastruttura che rende possibile questa coordinazione: definisce standard, procedure, flussi informativi e forme di controllo.

Per questo motivo sostituire un software non equivale a sostituire un singolo compito cognitivo. Anche quando una determinata attività può essere svolta meglio da un sistema AI, resta il problema di come quella attività venga inserita e resa verificabile all’interno di processi organizzativi più ampi. Il valore di questi strumenti risiede nella loro integrazione nei processi istituzionali e nelle pratiche organizzative che regolano il lavoro collettivo.

A tal proposito l’autore distingue tra due livelli: i task cognitivi e i language games istituzionali. I primi possono essere sempre più facilmente svolti dall’AI; i secondi riguardano le pratiche, le norme implicite e le strutture organizzative attraverso cui operano le istituzioni. Sostituire i task è relativamente facile; sostituire i language games istituzionali è molto più difficile, perché implica modificare abitudini, rapporti di potere e processi decisionali.

Come osserva Pignataro: “The Adolescence of Technology treats the economy as a collection of tasks that AI will perform, rather than as a collection of language games that AI must learn to play.”

Il vero cambiamento potrebbe quindi essere più lento e complesso di quanto suggerisca il panico dei mercati. L’AI probabilmente eroderà lo strato più diffuso del software — quello che svolge funzioni cognitive relativamente isolate — mentre rafforzerà il valore dei sistemi profondamente integrati nei processi istituzionali.

Il rischio principale, secondo Pignataro, non è che l’AI sostituisca i lavoratori, né l’intelligenza della macchina in sé. Il vero rischio è la piattaforma che apprende le strutture organizzative, accumula conoscenza istituzionale e diventa il nodo centrale di coordinamento.

Superata la soglia, essa potrebbe ridimensionare o rendere superflue intere professioni.

Si potrebbe così innescare una dinamica quasi tragica: una sorta di tragedy of the commons applicata alla conoscenza organizzativa; “each individual firm is rational, yet the collective result is catastrophic.”

Ogni azienda adotta strumenti AI per restare competitiva, ma così facendo contribuisce a rafforzare l’infrastruttura che finirà per ridurre il suo stesso spazio di autonomia.

A questo punto il problema cambia natura. Non più l’AI come soggetto intelligente, ma l’AI come infrastruttura epistemica che apprende il funzionamento dell’intero sistema sociale.

E qui la “questione costituzionale”, per riprendere il discorso su Amodei, diventa ancora più complessa. Non si tratta soltanto di controllare il comportamento dei modelli, ma di decidere chi controlla l’infrastruttura che apprende la grammatica delle istituzioni.

Allora, se davvero le piattaforme AI acquisissero la grammatica delle istituzioni economiche, la Costituzione di AI dovrebbe regolare il comportamento dei modelli oppure la proprietà e il controllo dell’infrastruttura cognitiva globale?

Sono due problemi completamente diversi. E non è escluso che proprio il secondo sia quello decisivo.

← Cost. di AI - 3 Neuroscienze →


Testi e documenti citati