Se la Costituzione serve a governare una nuova forma di potere, allora non siamo più soltanto nel campo dell’ingegneria del software. Siamo nel terreno della teoria costituzionale.
Ogni Costituzione implica un atto fondativo, un’autorità legittimante, un “noi” che decide. Ma l’AI non ha confini geografici, non appartiene a un solo Stato, non riconosce un unico ordinamento giuridico.
Possiamo davvero parlare di Costituzione senza un popolo costituente? Senza procedure condivise? Senza un’autorità capace di farla rispettare?
La questione dell’allineamento tecnico apre così un problema molto più radicale: se sia possibile, nel mondo frammentato e competitivo di oggi, scrivere una Costituzione per un potere che è al tempo stesso globale, diffuso e in larga parte privato.
Per chiarire i termini del problema occorre essere diretti su un punto preliminare: quando parliamo di AI, ci riferiamo a un soggetto oppure a un’infrastruttura?
Nel dibattito attuale — e anche negli scritti di Dario Amodei — l’AI è trattata come sistema tecnico da controllare, come strumento economico e come potenziale agente autonomo. Giuridicamente, tuttavia, non è né persona fisica né persona giuridica, né Stato, né organizzazione internazionale.
Eppure può agire globalmente, influenzare mercati e informazione, assumere decisioni operative e operare senza confini territoriali.
Dovremmo allora scrivere la Costituzione di un soggetto? Oppure la Costituzione di un’infrastruttura globale? Da qui discende una questione ulteriore: chi potrebbe legittimamente assumere il ruolo di “padre costituente”?
Nelle costituzioni tradizionali i costituenti sono rappresentanti politici, delegati territoriali, espressione di un popolo. Qui, invece, il “popolo” è globale, eterogeneo, culturalmente plurale e privo di una rappresentanza unitaria.
Si possono individuare almeno quattro categorie di possibili costituenti, ciascuna con limiti evidenti.
- Le aziende tecnologiche (Anthropic, OpenAI, Google DeepMind, …), in virtù delle loro competenze. Ma si tratta di attori privati, portatori di interessi economici.
- Gli stati nazionali, con la legittimità della sovranità, ma immersi nella competizione geopolitica e in profonde divergenze di valori.
- Le organizzazioni sovranazionali (ONU, G20, OCSE, …), dotate di riconoscimento formale ma spesso caratterizzate da lentezza decisionale e scarsa capacità vincolante.
- Infine la comunità scientifica e la società civile, forti di legittimità morale ma deboli sul piano esecutivo.
Si profila così un paradosso: a fronte di un’AI intrinsecamente globale, la sovranità resta prevalentemente nazionale o regionale, e manca un luogo istituzionale naturale nel quale elaborare una Costituzione condivisa.
Anche sul piano dei modelli costituzionali le difficoltà non sono minori.
- Si potrebbe immaginare una ‘costituzione industriale’, redatta dalle aziende leader e adottata volontariamente come standard. Sarebbe rapida ed efficiente, ma democraticamente fragile e potenzialmente espressione di un cartello tecnologico.
- Si potrebbe optare per il modello del ‘trattato internazionale’, già sperimentato in ambiti come il nucleare o il clima. Si avrebbero maggiore legittimità statale e meccanismi di controllo più robusti, ma lentezza procedurale e rischio di mancata adesione delle grandi potenze.
- Oppure si potrebbe mantenere il modello della ‘costituzione tecnica incorporata nel codice’, per intenderci, quello della Constitutional AI. Ha il pregio dell’operatività immediata, ma resta scritto da pochi e non deliberato pubblicamente.
Qualunque modello si scelga, resta una domanda decisiva: cosa accadrebbe se uno Stato o un’azienda in grado di sviluppare un’AI potente decidesse di non riconoscere la Costituzione proposta e di adottare principi differenti — o nessuno?
Si possono immaginare almeno tre scenari.
- Primo: competizione normativa. Una corsa al ribasso in cui chi è meno vincolato procede più rapidamente.
- Secondo: restrizioni e blocchi tecnologici, con sistemi esclusi dai mercati perché privi di certificazioni riconosciute.
- Terzo: una frammentazione crescente, una sorta di “balcanizzazione algoritmica” che accentua la divisione già visibile nello spazio digitale globale.
Resta infine il problema del pluralismo morale.
Ogni Costituzione presuppone un nucleo di valori comuni. Ma il mondo contemporaneo non condivide una stessa concezione di libertà, di sicurezza, di verità o di autorità.
Una Costituzione dell’AI che ambisca a essere globale potrebbe risultare troppo minimale, e dunque inefficace; oppure troppo sostanziale, e quindi politicamente divisiva.
Il problema non è inedito — basti pensare alle dichiarazioni universali dei diritti umani — ma qui si aggiunge un elemento ulteriore: la Costituzione non dovrebbe restare dichiarativa. Dovrebbe essere operativa nel codice.
L’analisi di Amodei, e il suo richiamo alla responsabilità di governi, imprese e società civile, ci offre una cornice entro cui articolare il confronto. Ma la risposta non è già scritta.
Per avviare il dibattito possiamo partire da alcune domande, volutamente provocatorie:
- L’AI deve avere una Costituzione propria, o deve essere regolata esclusivamente dalle costituzioni umane esistenti?
- È possibile una Costituzione globale senza un demos globale?
- Chi legittima i “padri costituenti” dell’AI?
- L’allineamento è in ultima analisi un problema tecnico o un problema politico?
- È realistico immaginare una convergenza etica mondiale sull’AI?
In ogni caso, non si tratta di sostituire la politica con la tecnoscienza, né di affidare il governo dell’AI a nuove élite illuminate. Si tratta di capire se le istituzioni democratiche siano ancora capaci di esercitare una funzione costituente all’altezza delle trasformazioni tecnologiche in corso.
← Cost. di AI - 2 I rischi di AI →