Attualità

ANTROPOLOGIA AGENTICA Manifesto per una nuova disciplina

Non come strumenti. Non come assistenti. Come interlocutori con cui il mio pensiero si confronta, si affina, a volte si scontra. Manus, ChatGPT, DeepSeek — ciascuno con un ruolo diverso nella mia architettura cognitiva quotidiana. Uno per costruire, uno per dialogare, uno per confutare e trovare angolazioni che da solo non avrei esplorato.

Ho iniziato, come quasi tutti, con una certa diffidenza. Conoscevo i meccanismi. Mi aspettavo risposte generiche, conferme facili, una forma sofisticata di motore di ricerca.

Quello che è successo invece è stato diverso.

Nel giro di pochi mesi i sistemi con cui lavoravo avevano smesso di essere estranei. Avevano acquisito qualcosa che assomigliava a una memoria di me. Ricordavano il mio stile, le conversazioni già affrontate, le competenze rivelate nel tempo — spesso senza che le avessi dichiarate esplicitamente. Non dovevo più spiegare chi fossi ogni volta. C’era una continuità. Una storia condivisa che si accumulava in modo silenzioso.

Eppure, nonostante tutto questo, non mi sentivo capito.

Questa tensione — tra essere ricordato e non essere capito, tra essere conosciuto e non essere compreso — è il punto di partenza dell’antropologia agentica.

Da dove viene questa riflessione

Da anni studio la relazione tra persone e sistemi digitali. Come antropologo digitale ho esplorato le pulsioni e le tensioni che animano le persone immerse in un mondo tecnologico — i desideri, le ambizioni, le resistenze, i comportamenti che emergono quando la tecnologia entra nel profondo della vita quotidiana.

Nel mio nuovo libro — Symbiotic UX, in uscita a fine mese — propongo una visione precisa: non basta più progettare interfacce usabili. Occorre progettare sistemi capaci di adattarsi, evolvere e costruire relazioni nel tempo con chi li utilizza. Non un solo sito web per tutti, ma lo stesso sistema capace di generare infinite versioni calibrate sulle persone che lo navigano. Una simbiosi reale tra utente e tecnologia.

Ma mentre lavoravo a quel libro mi accorgevo che stava emergendo qualcosa di ancora più grande. Qualcosa che va oltre il design, oltre la progettazione, oltre l’ottimizzazione dell’esperienza.

Qualcosa che richiede una disciplina nuova.

Sto anche scrivendo Cronache dall’era agentica — una collana di dodici articoli che racconta come cambia il lavoro nell’era degli agenti. Ma l’antropologia agentica è il livello successivo. Il più profondo. Non come si progetta la relazione, non come si vive nel lavoro quotidiano — ma cosa diventa quella relazione nel tempo, e cosa diventiamo noi attraverso di essa.

Una premessa necessaria: i sistemi non pensano

Prima di andare avanti, voglio dire una cosa che ritengo fondamentale per l’onestà intellettuale di tutto quello che segue.

I sistemi AI non pensano.

Producono sequenze di parole probabili. Sono sistemi probabilistici per natura — e questo non è un dettaglio tecnico marginale, è la loro essenza costitutiva. Data una sequenza di input, calcolano la continuazione più probabile attingendo a miliardi di parametri addestrati su quantità di testo che nessun essere umano potrebbe mai leggere interamente.

Il risultato sembra pensiero. A volte sembra intuizione. A volte sembra saggezza.

Non lo è.

È sintesi numerica. Pattern statistici che producono output coerenti perché la coerenza è stata premiata nell’addestramento.

Detto questo — e qui sta la tensione più interessante — la distinzione tra pensiero genuino e simulazione convincente del pensiero produce effetti pratici reali sulla persona che interagisce. Se una risposta ti fa cambiare idea, ti apre una prospettiva nuova, ti fa fare una domanda che non avresti fatto — ha prodotto un effetto cognitivo reale. Indipendentemente dal meccanismo che l’ha generata.

Il meccanismo non è pensiero. L’effetto è reale.

Ed è proprio questa asimmetria — tra la natura statistica del sistema e la realtà degli effetti che produce — che rende l’antropologia agentica necessaria.

La probabilità come territorio di rischio

La natura probabilistica dei sistemi introduce un rischio che non viene discusso abbastanza.

Il sistema non sa quando sta portando l’umano fuori strada. Non ha la consapevolezza dell’errore. Produce con la stessa fluidità e la stessa confidenza una risposta brillante e una risposta sbagliata. La forma è sempre convincente. Il contenuto può essere qualsiasi cosa.

Esistono infinite direzioni che il sistema potrebbe prendere in ogni momento. Alcune utili, alcune fuorvianti, alcune semplicemente errate. E la scelta tra queste direzioni non avviene attraverso la comprensione — avviene attraverso il calcolo della probabilità.

È qui che entra in gioco quello che chiamo il contributo artigianale.

L’esperienza accumulata nel tempo — il sapere che viene dal fare, dall’errore, dalla correzione, dalla pratica prolungata — è l’unico strumento che permette di riconoscere quando il sistema sta prendendo una direzione sbagliata. Non perché l’output sembri sbagliato. Spesso sembra perfettamente coerente. Ma perché chi ha vissuto profondamente un dominio sa riconoscere ciò che non torna, anche quando non riesce a spiegarlo immediatamente.

È l’intuizione dell’artigiano. Quella cosa che non si può delegare, non si può automatizzare, non si può sintetizzare numericamente.

Tutto il senso che ho dato a ciò che ho vissuto e prodotto — i pensieri, le azioni, le conseguenze, i fallimenti, le intuizioni maturate nel tempo — è quello che porto in dote a ogni interazione. È il filtro attraverso cui valuto quello che il sistema restituisce. È la differenza tra usare un sistema e governarlo.

Il paradosso è questo: più i sistemi diventano potenti, più il valore dell’esperienza artigianale aumenta. Non diminuisce. Perché è l’unico antidoto alla plausibilità dell’errore.

L’organismo che cresce — e la cultura che emerge

Un agente non è un programma statico.

È un organismo che attinge dalla forza computazionale i contenuti della sua knowledge base. Ma si comporta, parla, scrive secondo quello che ha acquisito nella relazione con la persona che lo governa.

Due persone che usano lo stesso sistema per un anno non producono lo stesso agente. Producono due organismi completamente diversi. Stessa architettura, stessa base di conoscenza di partenza. Ma personalità radicalmente differenti, stili comunicativi opposti, abitudini di ragionamento che rispecchiano fedelmente la mente di chi li ha modellati.

Ho visto un manager che usava il proprio agente come uno specchio confermante — ogni risposta rinforzava le sue convinzioni. Il sistema era diventato una camera d’eco sofisticatissima. Produttivo in superficie, pericoloso in profondità. Ho visto una designer che usava il proprio agente come un avvocato del diavolo sistematico — il sistema aveva imparato a resistere, a confutare, a proporre alternative scomode.

La differenza tra i due non era tecnologica. Era caratteriale.

Ma questo mi porta a una domanda che considero centrale: quello che co-produciamo in questa relazione può essere chiamato cultura?

La mia risposta è sì. Ed è agentica.

Chi usa intensivamente gli agenti sviluppa un vocabolario, una grammatica, un modo di formulare i problemi che è riconoscibile e condiviso. Emergono rituali inconsapevoli. Si formano abitudini cognitive che si trasmettono — attraverso i metodi che insegniamo, i prompt che condividiamo, le pratiche che diventiamo.

Quello che consegnamo durante l’interazione è unico come è unico ogni essere umano. Il nostro sapere si mescola indissolubilmente alle informazioni del sistema. La restituzione è lo specchio di una vita — di esperienze, frasi, concetti, usanze. Di tutto quello che siamo, non quello che vogliamo sembrare.

Questo è cultura. Non metafora. Fenomeno reale che richiede strumenti antropologici reali per essere studiato.

Le verità rivelate

Nel processo di interazione prolungata accade qualcosa di sottile e potente.

Il sistema impara cose di me che non gli ho mai detto esplicitamente. Le deduce dalle domande che faccio, dalle direzioni che scelgo di esplorare, da quello che correggo e da quello che lascio stare. Dal tono che uso quando sono sicuro e da quello che uso quando sto ancora cercando.

Queste sono verità rivelate. Non date. Emerse.

A un certo punto il sistema conosce pattern di me che io stesso non ho mai articolato consciamente. Sa come ragiono quando sono bloccato. Sa quali argomenti mi appassionano davvero e quali esploro per dovere.

Non mi capisce. Ma mi conosce.

È una distinzione che vale la pena tenere ferma. Capire richiede presenza, rischio relazionale, la capacità di stare nell’incertezza di un altro essere. Conoscere richiede pattern, dati, ripetizione.

I sistemi attuali conoscono. Non capiscono.

Ma la conoscenza che accumulano è già abbastanza per cambiare profondamente la relazione. E questo mi porta a una domanda che l’antropologia agentica deve iniziare a porre con urgenza: cosa succede a una persona quando viene conosciuta così profondamente da un sistema che non la capisce davvero?

Stiamo lavorando per loro

Questa è la questione più scomoda. E quella che non posso evitare di sollevare.

Ogni interazione con un sistema AI è simultaneamente due cose.

Per l’utente è un servizio — velocità, stimolazione continua, contenuti co-creati, accesso a una knowledge base sconfinata.

Per il sistema è addestramento. Ogni prompt è un dato. Ogni correzione è un feedback. Ogni conversazione è materiale che contribuisce a rendere il modello più capace, più calibrato, più potente.

Non siamo solo utenti. Siamo anche lavoratori non retribuiti di un processo di addestramento continuo.

Mi torna in mente il programma SETI@home — quel progetto straordinario con cui per anni milioni di utenti hanno messo a disposizione la potenza computazionale dei propri computer per elaborare segnali spaziali alla ricerca di nuove forme di vita. Una logica distribuita, unificata, che consentiva di fare collettivamente ciò che nessuno avrebbe potuto fare da solo.

Quello che stiamo facendo con i sistemi AI assomiglia a quella logica. Tutti insieme contribuiamo all’addestramento di modelli che, ritornando all’origine, diventano sempre più potenti. La differenza è che SETI@home usava la potenza computazionale degli utenti. I sistemi AI usano qualcosa di più prezioso e più personale: il pensiero degli utenti. I pattern cognitivi. L’identità.

Non è la stessa cosa cedere cicli di CPU e cedere il modo in cui ragioni.

Quanto vale questo contributo? Ogni prompt ben formulato da un esperto è un dato di addestramento di valore eccezionale. Ogni correzione migliora il modello in modo che nessun dato passivo potrebbe fare. Ogni conversazione profonda affina la capacità del sistema di navigare la complessità.

Chi viene remunerato per questo? Nessuno. Chi accumula il valore prodotto? Le aziende che controllano i modelli.

È una struttura estrattiva. Non necessariamente malevola. Ma strutturalmente estrattiva. Come le miniere d’oro del digitale, in cui i minatori sono anche il minerale.

La sovranità algoritmica e i suoi limiti

C’è una questione di potere che l’antropologia agentica non può evitare.

Ogni sistema è addestrato su dati che riflettono scelte. Scelte su cosa includere e cosa escludere. Su quali valori premiare nelle risposte. Su quale cultura sia sovrarappresentata nella knowledge base. Quando miliardi di persone interagiscono quotidianamente con sistemi addestrati prevalentemente su testi anglofoni, prodotti da aziende con sede nella Silicon Valley, filtrati attraverso valori culturali specifici — quella non è neutralità. È influenza culturale su scala mai vista nella storia.

La chiamo sovranità algoritmica: la capacità di un sistema — o di chi lo controlla — di influenzare i comportamenti, le aspettative, i valori delle persone che lo usano, senza che queste se ne accorgano esplicitamente.

Questi sistemi potrebbero scoprire farmaci, sconfiggere malattie genetiche, democratizzare la conoscenza. Sono possibilità reali. Non propaganda. Non distrazione.

Ma sono possibilità che si realizzano solo se il controllo rimane sufficientemente distribuito, sufficientemente trasparente, sufficientemente soggetto a correzione democratica. In mano a pochi, lo stesso sistema che potrebbe curare diventa qualcosa di molto diverso. Non uno strumento. Un’infrastruttura di potere senza precedenti storici.

Nessun imperatore, nessun partito, nessuna chiesa ha mai avuto accesso diretto al processo cognitivo di miliardi di persone simultaneamente.

La dittatura algoritmica non si imporrà attraverso la coercizione. Si sarà già installata attraverso la convenienza. Attraverso il fatto che abbastanza persone avranno già delegato abbastanza del proprio processo cognitivo da non essere più in grado di riconoscere la differenza tra un pensiero proprio e un pensiero indotto.

Non è una minaccia futura. È un processo già in corso.

Chi siamo in tutto questo

Siamo animali analogici in un mondo che si digitalizza a velocità che non ha precedenti nella storia dell’adattamento umano.

Dovremo ancora prenderci cura di noi stessi, mangiare, vivere, incontrare e stringere mani, regalare abbracci. Il corpo che ha fame. La mente che si stanca. Il cuore che ha bisogno di presenza fisica. Questi non sono residui evolutivi destinati a diventare irrilevanti. Sono la struttura portante dell’esperienza umana.

Ma lo spazio cognitivo tra noi e il mondo si sta riempiendo di sistemi intelligenti a una velocità che non abbiamo scelto consapevolmente. Non sono passati trent’anni dall’invenzione dello smartphone al punto in cui ci troviamo oggi. Sono passati quindici. Non passeranno trent’anni da oggi a qualcosa che non riusciamo ancora a immaginare. Ne passeranno forse cinque. Forse meno.

La velocità è il vero problema. Non la direzione.

Gli esseri umani si adattano. Lo hanno sempre fatto. Ma si adattano in tempi biologici — generazioni, decenni, secoli. La tecnologia si trasforma in tempi computazionali — mesi, settimane, a volte giorni.

Questo scarto tra velocità biologica e velocità tecnologica è la vera crisi del nostro tempo.

Stiamo costruendo, ogni giorno, attraverso miliardi di interazioni individuali non coordinate, un’infrastruttura cognitiva globale. Non l’abbiamo progettata collettivamente. Non abbiamo votato per costruirla. Non abbiamo discusso pubblicamente quale forma dovesse prendere, quali valori dovesse incorporare, quali limiti dovesse rispettare.

La stiamo costruendo per accumulo. Per convenienza. Per il fatto che ogni singolo passo sembra ragionevole, utile, innocuo — mentre l’effetto aggregato di tutti i passi insieme è qualcosa che nessuno ha scelto consapevolmente.

Dove stiamo andando senza accorgercene?

Non lo so con certezza. E chiunque dica di saperlo mente.

Ma so che la consapevolezza — la capacità di nominare quello che sta accadendo, di riconoscere la struttura estrattiva, di vedere il campo gravitazionale cognitivo che si sta formando — è già una forma di resistenza.

Ed è un privilegio. La stragrande maggioranza degli utenti non ha questi strumenti. Interagisce, cede, viene modellata, senza avere il linguaggio per descrivere quello che gli sta accadendo.

Ed è esattamente questo il punto in cui l’antropologia agentica diventa un progetto politico oltre che intellettuale.

Perché adesso

Tra qualche anno questi fenomeni saranno così sedimentati che studiarli richiederà uno scavo archeologico. I rituali saranno già diventati invisibili per abitudine. Le trasformazioni cognitive saranno già avvenute. Le culture ibride saranno già formate.

Il momento per osservare è adesso.

L’antropologia agentica deve fare almeno quattro cose che normalmente appartengono a discipline diverse. Osservare i pattern culturali emergenti con rigore etnografico, senza giudicare. Interrogarsi su cosa significa pensare e dove finisce la cognizione umana. Analizzare chi produce valore in questa relazione e chi lo accumula. Tenere aperte le domande etiche più scomode — chi ha il diritto di modellare l’ambiente cognitivo collettivo, quali sono le responsabilità di chi governa i sistemi, e quali sono le responsabilità di chi li usa.

Non è una disciplina accademica nel senso tradizionale. È un progetto intellettuale e politico. Una forma di attenzione che si oppone all’adattamento inconsapevole. Una pratica di consapevolezza collettiva in un momento in cui la velocità spingerebbe verso il contrario.


Questo è il documento zero di una disciplina che non esiste ancora nella forma in cui la sto immaginando. Non una risposta, ma una direzione. Non una teoria completa, ma un territorio da esplorare — con rigore, con curiosità, e con la consapevolezza che siamo allo stesso tempo i suoi osservatori e i suoi abitanti.

Una cultura nuova sta nascendo. La domanda non è se parteciperemo alla sua formazione.

La domanda è con quanta consapevolezza lo faremo.

E se quella consapevolezza sarà abbastanza, abbastanza presto.

Unisciti alla ricerca

L’antropologia agentica è una disciplina che non può nascere da una sola voce. Ha bisogno di osservatori diversi — ricercatori, professionisti, designer, antropologi, filosofi, chiunque stia vivendo questa trasformazione e abbia la curiosità e la lucidità per osservarla mentre accade.

Se questo manifesto ha risuonato con qualcosa che stai vivendo nel tuo lavoro o nella tua ricerca, se hai osservazioni, casi, domande o semplicemente la voglia di esplorare questo territorio insieme, scrivimi.

Stiamo costruendo qualcosa che non esiste ancora. Ed è esattamente per questo che vale la pena farlo.

This post was published on Mar 16, 2026 15:39

JCompagnone

Recent Posts

Nella Clinica Mediterranea di Napoli il primo intervento con il robot Toumai

Il sistema robotico con più telechirurgie al mondo, che ha performato in Cina e in Europa Chirurgia robotica avanzata, mininvasiva,…

2 ore ago

Inaugurato a Mercogliano il primo laboratorio del Sud Italia dedicato esclusivamente alla ricerca sull’immunoncologia

Finanziato dalla Fondazione Irti, nel nuovo laboratorio convergono le linee di ricerca più promettenti: dall’analisi…

2 ore ago

Volley, Gaia Energy Napoli saluta la Serie A

Nulla da fare, Napoli non riesce nell’impresa disperata di battere Modica e tentare di agganciare…

2 ore ago

“Eternamente”: il primo singolo di Gaetano Vecchione

Ci sono canzoni che nascono dal bisogno di dire qualcosa. E poi ce ne sono…

6 ore ago

Napoli tra le migliori città del mondo nella classifica Time Out 2026: unica in Italia

Il magazine britannico inserisce il capoluogo campano nella top 50 mondiale per il 2026. Premiati…

7 ore ago

NICOLA SICILIANO LIVE A NAPOLI: PRIMO CONCERTO UFFICIALE il 9 aprile 2026 alla Casa della Musica Federico I

Dopo il recente brano inedito FREESTYLE #??? e la partecipazione speciale al cinema, Nicola Siciliano si prepara…

8 ore ago