Stiamo entrando in una nuova fase, quella dell’intelligenza artificiale agentica. L’espressione non è felice, ma le difficoltà che nasconde sono tutt’altro che linguistiche. Per capirle, bisogna chiarire che cosa cambia quando, tra utente e piattaforma, entra in gioco un agente.
Finché l’intelligenza artificiale risponde a una domanda, resta uno strumento reattivo. Quando invece riceve un obiettivo, usa strumenti, interroga ambienti digitali e compie azioni intermedie per arrivare a un risultato, entra in scena un’altra figura: l’agente. Il punto non è stabilire se sia “più intelligente”, ma capire quale nuova mediazione introduca tra intenzione umana, sistemi tecnici e responsabilità dell’azione.
Dal modello classico, fondato su un rapporto relativamente diretto tra utente e piattaforma, si passa così a una nuova architettura nella quale si profila una triade: utente, agente, ecosistema di piattaforme. Ma qual è, esattamente, il ruolo dell’agente? Si limita a tradurre il linguaggio umano in istruzioni operative, oppure interviene anche nella riformulazione degli obiettivi, nella scelta dei mezzi e nella definizione del percorso?
Per affrontare la questione conviene evitare due scorciatoie opposte. La prima è quella entusiastica: gli agenti sarebbero semplicemente assistenti intelligenti. La seconda è quella speculare: gli agenti finirebbero per sostituire l’umano. Entrambe queste formule dicono troppo poco. La domanda più utile è un’altra: che cosa media davvero un agente? Il linguaggio, l’accesso ai sistemi, la decisione, oppure una parte della responsabilità?
Da questa domanda discendono alcuni interrogativi concreti. Quando un agente è davvero un agente? Quale ostacolo rimuove? Che cosa perde l’utente quando delega? Dove si colloca il controllo umano? Come cambia la forma dell’interfaccia? E che cosa significa, esattamente, fidarsi di un agente?
In questo articolo in tre parti non cercherò di dare risposte esaurienti. Proverò piuttosto a chiarire la portata del problema, seguendo tre piani: la fenomenologia dell’agente, cioè il modo in cui cambia l’esperienza dell’interazione; la sua fisiologia, cioè ciò che accade realmente tra la formulazione di un obiettivo e la restituzione di un esito; e infine la dimensione epistemologica ed etica della delega, che emerge quando una parte del percorso decisionale viene affidata a un sistema opaco o solo parzialmente visibile.
Potremmo tentare di definirlo dicendo che l’agente è un sistema che riceve un obiettivo, usa strumenti, consulta fonti o applicazioni, prende decisioni intermedie e porta avanti un compito con un certo grado di autonomia. Ma è più utile osservare questo nuovo modello dalla parte dell’utente e capire che cosa cambia per lui quando entra in gioco un agente.
Nella relazione diretta utente-sistema, l’utente sa che cosa ha chiesto e vede che cosa riceve. C’è una trasparenza immediata della transazione: input, output, fine. Con un agente la struttura cambia su almeno quattro dimensioni osservabili.
1. Il tempo. L’utente delega e aspetta. Nel mezzo accade qualcosa che non osserva in tempo reale, o che osserva solo parzialmente attraverso log, messaggi intermedi, notifiche. Si apre una finestra opaca tra la richiesta e il risultato.
2. La granularità del controllo. L’utente non specifica ogni passo: specifica un obiettivo. Questo è un guadagno di efficienza, ma implica anche una cessione. L’agente decide come scomporre il compito, in quale ordine, con quali strumenti.
3. La verificabilità. Con una risposta diretta, l’utente può valutare immediatamente se essa sia corretta o pertinente. Con un agente che ha compiuto molte operazioni, la verifica è più difficile: il risultato finale può sembrare corretto anche se uno dei passaggi intermedi era sbagliato o inopportuno.
4. Il senso di agenzia. L’utente percepisce una combinazione singolare: da un lato più potere — “posso fare cose che prima non potevo fare da solo” — dall’altro una maggiore distanza dal processo. Non è più chiaro dove finisca la propria intenzione e dove cominci l’esecuzione autonoma del sistema.
Sorge allora spontaneo chiedersi se l’utente abbia davvero contezza del mutamento di modello. Nella maggior parte dei casi, no. L’interfaccia non cambia: l’utente continua a scrivere in una casella di testo e a ricevere risposte in linguaggio naturale. La continuità dell’esperienza conversazionale maschera la discontinuità funzionale sottostante.
In più, il linguaggio usato dall’agente per comunicare i risultati è lo stesso del modello di base. Non c’è una voce diversa, non c’è un registro diverso. L’utente continua così a mantenere il modello mentale del dialogo diretto anche quando non è più ciò che sta accadendo. Pensa di “parlare con il sistema”, mentre in realtà riceve l’esito di una catena di operazioni autonome.
Questo produce un disallineamento tra esperienza soggettiva e processo reale.
Perché si è avvertito il bisogno di ricorrere a questo insolito strumento di mediazione? Anzitutto per una ragione tecnica: i modelli linguistici, nella loro forma di base, producono testo ma non agiscono. Non recuperano da soli informazioni aggiornate, non eseguono operazioni su file, non interagiscono direttamente con sistemi esterni. L’agente nasce per trasformare la capacità linguistica in capacità operativa.
C’è poi una ragione funzionale. Molti compiti reali non sono riducibili a una singola domanda e a una singola risposta. Richiedono sequenze di operazioni, decisioni intermedie, gestione di risultati parziali. Un utente che vuole analizzare un documento, cercare informazioni correlate, produrre un report e inviarlo non sta formulando una semplice query: sta descrivendo un flusso di lavoro. L’agente è la risposta a questa complessità.
C’è anche una ragione economica. Più l’agente sa fare autonomamente, più il sistema diventa indispensabile e più aumenta il valore percepito del servizio. L’autonomia dell’agente è anche un argomento commerciale.
Ma esiste infine una ragione più profonda. L’introduzione dell’agente sposta il baricentro della relazione. Prima l’utente era il soggetto attivo che usava uno strumento. Con l’agente, l’utente tende a diventare il soggetto che definisce obiettivi, mentre il sistema decide come raggiungerli. Anche quando non viene presentato esplicitamente in questi termini, questo passaggio comporta una ridistribuzione silenziosa di agency tra utente e sistema.
L’agente, in sostanza, non è un terzo soggetto autonomo nel senso forte del termine. È una modalità organizzativa del sistema: il modo in cui esso si riorganizza per gestire compiti che richiedono sequenzialità, iterazione e uso di strumenti. La sua terzietà è funzionale, non ontologica.
C’è però una conseguenza che vale la pena nominare fin d’ora. Se l’opacità del percorso non è soltanto una scelta strategica, ma dipende anche dalla struttura stessa di questa mediazione, non per questo è meno reale.
L’utente si trova strutturalmente in una posizione in cui non può verificare il percorso, ma solo valutarne l’esito. E la valutazione dell’esito, senza accesso al percorso, è una forma di fiducia, non di controllo.
È precisamente da questo scarto tra fiducia e controllo che occorre ripartire. Per capire come funzioni davvero questa mediazione bisognerà allora entrare nella sua fisiologia: vedere in che modo l’agente scompone il compito, riformula le intenzioni, sceglie gli strumenti e costruisce il percorso della soluzione.
Ma si può già intravedere il punto decisivo: quando il controllo arretra e la fiducia diventa necessaria, la questione non è più soltanto tecnica. Diventa anche epistemologica ed etica.