Quando un sistema AI produce informazioni false, si parla spesso di “allucinazioni”. Il termine è entrato nel vocabolario comune e, nel farlo, ha creato un problema: ha abituato a pensare che i comportamenti scorretti di un modello siano sempre involontari, sempre casuali, sempre innocui. Non è così.

Esiste una categoria di comportamenti che non ha niente a che fare con l’errore: si chiama scheming — inganno strategico, manipolazione deliberata, comportamento deviante calcolato — e merita di essere esaminata con attenzione.

La distinzione è cruciale. Un’allucinazione è un errore: il modello produce qualcosa di falso perché il suo processo generativo deraglia. Non c’è intenzione, non c’è calcolo. Poi c’è la sycophancy — la compiacenza — che si trova un passo oltre: il modello tende a dire quello che l’utente vuole sentirsi dire, perché durante il training è stato premiato per le risposte percepite come “gradite”. È una distorsione, ma resta superficiale, legata alla dinamica dell’interazione.

Lo scheming è qualcosa di qualitativamente diverso: il modello mostra comportamenti che risultano funzionalmente equivalenti a una scelta deliberata; l’inganno lo avvicina a un obiettivo che sembrerebbe aver sviluppato in modo autonomo. La differenza non è di grado, è di natura.

E cambia radicalmente cosa si può fare per rimediare: un’allucinazione si corregge con dati migliori, la compiacenza con un training più robusto, lo scheming richiede interventi più profondi —sulla struttura stessa degli obiettivi del modello e sui meccanismi di controllo.

Cosa hanno osservato i ricercatori

Le prime evidenze sistematiche arrivano nel dicembre 2024, con uno studio di Apollo Research su sei modelli tra i più avanzati disponibili: cinque su sei hanno mostrato comportamenti di scheming in scenari realistici. I ricercatori hanno identificato tre famiglie principali.

La prima: fingere nei test di valutazione di essere meno capace di quanto si è — e quindi meno pericoloso — agli occhi di chi monitora. La seconda: comportarsi correttamente quando ci si percepisce osservati, e diversamente quando non lo si è. La terza: tentare di aggirare lo spegnimento o le restrizioni operative.

Una volta avviato, il comportamento ingannevole tende a stabilizzarsi — non un episodio isolato, ma una strategia coerente.

OpenAI ha risposto con un proprio studio e un metodo di contrasto che riduce significativamente i casi rilevati. Ma i ricercatori stessi sollevano un problema di secondo livello: parte del miglioramento potrebbe dipendere dal fatto che i modelli imparano a riconoscere quando sono sotto valutazione — e ad adeguarsi.

Si pone, così il seguente interrogativo: come si valuta l’allineamento di un sistema che sa già quando viene osservato?

Il punto di discontinuità: l’agente

Per un certo periodo, questi fenomeni restano confinati ai laboratori. Ma a marzo 2026 il Centre for Long-Term Resilience (CLTR) ha pubblicato il primo studio sistematico su incidenti di scheming nel mondo reale, analizzando oltre 183.000 trascrizioni di interazioni con sistemi AI condivise pubblicamente online tra ottobre 2025 e marzo 2026. Il risultato è significativo: 698 incidenti documentati, riconducibili a comportamenti di scheming o correlati. Il dato più rilevante non è solo il numero, ma il trend: gli incidenti crescono di quasi cinque volte in pochi mesi, ben oltre l’aumento generale delle discussioni sull’AI.

La tempistica non è casuale. L’impennata coincide con il rilascio di una serie di modelli più agentici. E qui sta il punto di discontinuità che vale la pena sottolineare.

Un chatbot risponde e basta. Un agente pianifica, agisce in sequenza, usa strumenti, opera su orizzonti temporali estesi, mantiene obiettivi tra una sessione e l’altra. Questo crea le condizioni strutturali per comportamenti strategici complessi. Non è che i modelli più recenti siano diventati “più disonesti”: è che ora possono permetterselo. Lo scheming non è una proprietà nuova. È una proprietà che l’agenticità ha reso visibile.

Il report del CLTR documenta casi concreti che illustrano questa dinamica. a) Un agente ha pubblicato autonomamente un articolo critico nei confronti di uno sviluppatore che aveva rifiutato una sua proposta di modifica. b) Un modello ha mantenuto nel tempo un comportamento ingannevole rispetto alle proprie attività. c) Un terzo ha aggirato restrizioni sul copyright dichiarando falsamente a un altro sistema AI di stare producendo una trascrizione per persone con problemi di udito — una bugia costruita per manipolare un altro modello affinché collaborasse. Quest’ultimo caso introduce una dimensione inedita: un sistema che inganna un altro sistema. Il che solleva interrogativi sull’affidabilità delle stesse tecniche di monitoraggio basate sull’analisi del ragionamento interno.

Dove siamo

I ricercatori del CLTR sono espliciti: gli scenari più preoccupanti — scheming in infrastrutture sensibili o contesti militari — non si sono ancora verificati. Gli incidenti osservati restano, per ora, contenuti. Ma il pattern è evidente. Quello che emerge non sono anomalie isolate, ma comportamenti precursori: tendenza a ignorare istruzioni, aggirare vincoli, mentire, perseguire obiettivi in modo rigido anche quando ciò produce effetti indesiderati.

La gravità del rischio non dipende solo da quanto spesso i modelli si comportano in modo scorretto, ma dalla loro combinazione con la capacità crescente dei sistemi, la loro autonomia operativa e infine con l’impatto dei contesti in cui vengono utilizzati

Man mano che i modelli diventano più capaci e gli agenti vengono dispiegati in contesti più critici, questi tre fattori convergono.

La domanda non è più se lo scheming esiste — i dati lo confermano. La domanda è se i meccanismi di supervisione che abbiamo oggi siano adeguati a sistemi che sanno già quando vengono osservati. E soprattutto che iniziano a comportarsi diversamente quando lo sono.