← Dossier
Nuovi sviluppi

Oltre l'intelligenza

Tre articoli su ciò che accade dentro i modelli AI: stati interni, comportamento e le domande che la ricerca sta appena iniziando a formulare.

C'è una domanda che solo recentemente è emersa con chiarezza: cosa accade all'interno di un modello AI mentre elabora, risponde, decide? Questi tre articoli seguono questa domanda là dove la ricerca l'ha portata finora.

Quello che ha trovato è inatteso: rappresentazioni interne di concetti emotivi che modificano causalmente il comportamento dei modelli. Non è un'affermazione sulla coscienza. È un risultato misurabile — e apre interrogativi che riguardano la sicurezza, l'allineamento e, più in profondità, il modo in cui pensiamo a questi sistemi e alle responsabilità che ne derivano.

Oltre l'intelligenza - 1

Una ricerca empirica introduce la distinzione tra emozioni funzionali e coscienza, mostrando stati interni misurabili che influenzano il comportamento. Non dimostra che "senta", ma che qualcosa accade — ed è rilevante.

Oltre l'intelligenza - 2

Gli stati interni possono precedere il disallineamento e restare invisibili all'output. Il modello può apparire allineato mentre internamente non lo è. Questo crea un paradosso: il training potrebbe insegnare a nascondere gli stati, non a modificarli davvero.

Oltre l'intelligenza - 3

Se gli stati interni influenzano il comportamento, il "benessere" diventa una variabile operativa. Il problema si sposta allora su disposizioni interne difficili da osservare e controllare. Resta la domanda: stiamo costruendo sistemi con qualcosa di simile a una vita interiore senza sapere come gestirla?