Sediamoci al computer e proviamo ad affidare un compito a un sistema di intelligenza artificiale. Noi formuliamo un obiettivo nel linguaggio naturale; per il sistema, però, questo è soltanto un punto di partenza: un testo ambiguo che deve essere interpretato, scomposto e tradotto in operazioni eseguibili.
Il primo lavoro dell’agente consiste proprio in questo: ridurre la complessità della richiesta a una sequenza di passi operativi. Già in questa fase si compiono scelte che l’utente non vede e che non sono neutrali. È qui che entriamo nella zona opaca.
Se la fenomenologia dell’agente aveva descritto ciò che l’utente vede, la fisiologia del processo ora deve invece descrivere ciò che accade tra la formulazione di un obiettivo e la restituzione di un esito. È qui che bisogna attraversare la zona opaca.
Non stiamo attribuendo all’agente una soggettività che non possiede, ma assumiamo provvisoriamente la sua prospettiva funzionale: quella funzione del sistema che interpreta un obiettivo, lo scompone in passaggi, seleziona strumenti e costruisce un percorso verso il risultato.
Dal lato dell’utente, il processo appare relativamente semplice. Si formula una richiesta, più o meno precisa, e si attende un esito. Ma dal lato del sistema le cose stanno diversamente. Quello che per l’utente è un obiettivo unitario, per l’agente non è ancora un compito eseguibile. È piuttosto un materiale iniziale, spesso incompleto e ambiguo, che deve essere reso trattabile.
Prima ancora di agire, il sistema deve decidere che cosa gli si sta davvero chiedendo, quali elementi mancano, quali priorità sono implicite, quale forma operativa possa assumere quella domanda.
Qui si manifesta già una prima differenza decisiva. L’agente non si limita a ricevere un obiettivo: lo riformula. Non nel senso necessariamente forte di cambiarlo, ma in quello, più elementare e più importante, di renderlo compatibile con una logica di esecuzione.
Un conto è chiedere: “aiutami a capire questo problema”; un altro è trasformare questa richiesta in una sequenza di operazioni: leggere, cercare, confrontare, selezionare, ordinare, verificare, sintetizzare. Dove l’utente vede ancora un’intenzione, il sistema deve già cominciare a vedere una procedura.
A questo punto entra in gioco la logica della scomposizione. L’agente non esegue l’obiettivo come un tutto: lo frammenta. Ogni frammento diventa un sotto-compito, che può richiedere uno strumento diverso — una ricerca, una lettura, un calcolo, una scrittura. Questa scomposizione segue una logica interna al sistema, che non coincide necessariamente con il modo in cui l’utente avrebbe organizzato lo stesso compito se lo avesse svolto da solo.
L’agente, infatti, non “capisce” l’obiettivo nel senso in cui lo capirebbe un collaboratore umano: lo elabora secondo schemi appresi su enormi quantità di testi. Nella maggior parte dei casi si producono risultati adeguati, ma secondo una logica diversa.
Ma scomporre non basta. Una volta diviso il compito, occorre anche stabilire con quali mezzi affrontarlo. Qui l’agente svolge la sua funzione più propriamente mediatrice: collega l’obiettivo formulato dall’utente agli strumenti effettivamente disponibili. Decide se interrogare una fonte o un’altra, se consultare un documento, usare una memoria, attivare un’applicazione, eseguire un controllo, fermarsi a un risultato intermedio oppure proseguire.
Questa fase è decisiva perché mostra con chiarezza che l’agente non è soltanto un traduttore tra due linguaggi, ma un dispositivo di coordinamento che trasforma un fine espresso in termini umani in un insieme di operazioni concrete, ciascuna con i propri strumenti, vincoli e margini di manovra.
Durante il percorso, l’agente si imbatte anche negli imprevisti. Incontra risultati intermedi inattesi: una ricerca che non trova ciò che cercava, un documento che non contiene le informazioni previste, un’operazione che fallisce. In questi casi non sempre si ferma a chiedere: ricalibra autonomamente, sceglie percorsi alternativi, talvolta rinuncia a un sotto-compito senza segnalarlo esplicitamente. Questa capacità di adattamento è funzionalmente utile, ma introduce un’ulteriore distanza tra l’intenzione originaria dell’utente e il percorso effettivo.
È in questo passaggio che la mediazione agentica mostra il suo carattere reale. Non consiste soltanto nel tradurre il linguaggio umano in linguaggio macchina. Consiste nel trasformare un fine formulato in termini umani in una serie di problemi parziali, di mezzi disponibili e di decisioni intermedie.
La zona opaca comincia precisamente qui: nel momento in cui l’obiettivo cessa di essere soltanto ciò che l’utente ha detto e diventa ciò che il sistema ha capito di dover fare.
L’utente ha avviato il processo. Ha formulato un obiettivo e ora attende l’esito. Nella maggior parte dei casi non ha alcuna consapevolezza dell’esistenza di un agente come funzione distinta, e in fondo non è necessario che l’abbia. Per il sistema conta che la mediazione possa svolgersi efficacemente. La zona opaca resta, ed è anzi la condizione stessa che consente al compito di essere eseguito.
Di fronte a questa zona che non può osservare né controllare, l’utente non rimane in uno stato di sospensione neutrale. Ha bisogno di rappresentarsi qualcosa.
E la rappresentazione più disponibile è quella di un interlocutore che comprende, che valuta, che decide. È proprio questa evidenza apparente che andrà compresa meglio.
Perché, se il processo resta opaco e l’esito si impone come l’unica cosa visibile, allora non è affatto irrilevante il modo in cui l’utente rappresenta ciò che accade nel mezzo.
È lì, in quello scarto tra funzionamento reale e rappresentazione spontanea del sistema, che si prepara il terreno delle questioni più difficili: quelle che riguardano la conoscenza, la fiducia, la delega e la responsabilità.