La trappola dell'intensificazione
La promessa era semplice. L’AI gestisce il lavoro di routine. Tu gestisci il lavoro creativo. La macchina ti toglie i compiti ripetitivi dal piatto, e tu usi il tempo liberato per pensare, per la strategia, per il lavoro che solo gli esseri umani sanno fare. Tutti vincono. I guadagni di produttività sono reali e la giornata lavorativa si alleggerisce.
Questa era la promessa. Ecco cosa è realmente accaduto.
Nel febbraio 2026, Aruna Ranganathan e Xingqi Maggie Ye hanno pubblicato i risultati di uno studio etnografico di otto mesi sulla Harvard Business Review. Ye, dottoranda alla Haas School of Business della UC Berkeley, si era integrata in un’azienda tecnologica statunitense di circa duecento dipendenti. Li osservava due volte a settimana, monitorava i loro canali di comunicazione e ha condotto più di quaranta interviste approfondite in ingegneria, prodotto, design, ricerca e operazioni. Lo studio copriva il periodo da aprile a dicembre.
La conclusione non era quella prevista dalla narrativa della produttività. I dipendenti che usavano strumenti di AI non hanno lavorato meno. Hanno lavorato di più. Più velocemente. Hanno assunto una gamma più ampia di compiti. Hanno esteso il lavoro a ore che prima erano vuote — pause pranzo, sere, i dieci minuti prima di una riunione. Lo strumento che doveva creare margine lo ha consumato.
Ranganathan e Ye hanno identificato tre forme di intensificazione. La prima era l’espansione dell’ambito: le persone hanno iniziato ad assumere lavoro che in precedenza sarebbe appartenuto a qualcun altro o che non sarebbe stato neppure tentato. La definizione di “il mio lavoro” si è allargata. La seconda era la dissoluzione dei confini: poiché l’AI rende facile iniziare e continuare i compiti, il lavoro si è infiltrato in momenti che prima funzionavano come pause. Un prompt durante il pranzo. Una ricerca prima di dormire. I punti di arresto naturali della giornata lavorativa si sono dissolti. La terza era l’elaborazione parallela: i lavoratori mantenevano più fili contemporaneamente, eseguendo processi AI in background mentre partecipavano a riunioni, revisionavano codice o redigevano documenti.
Niente di questo era imposto. Nessuno ha detto a questi dipendenti di lavorare di più. L’intensificazione era volontaria — o sembrava esserlo. Lo strumento ha reso il fare di più possibile, accessibile e gratificante nel momento. Così le persone hanno fatto di più. E il fare di più è diventato la nuova linea di base.
Il Paradosso di Jevons del lavoro
Questo schema ha un nome, anche se viene da un secolo diverso e da una risorsa diversa. Nel 1865, l’economista inglese William Stanley Jevons osservò che i miglioramenti di James Watt alla macchina a vapore — che avevano aumentato drasticamente l’efficienza dell’uso del carbone — non avevano portato a una riduzione del consumo di carbone. Avevano portato a un aumento. Il motore era più efficiente per unità di lavoro, quindi era diventato economico usarlo per più lavoro. Il consumo totale di carbone è aumentato, non diminuito.
Il Paradosso di Jevons — la scoperta che i guadagni di efficienza nell’uso delle risorse portano a un aumento del consumo totale di quella risorsa — riguardava il carbone. Ma il meccanismo riguarda gli incentivi, e gli incentivi non si preoccupano della risorsa a cui si attaccano.
L’AI è la macchina di Watt del lavoro cognitivo. Rende ogni unità di lavoro di conoscenza più efficiente. Una bozza che richiedeva due ore ne richiede quaranta minuti. Un’analisi di dati che richiedeva uno specialista può ora essere approssimata da un generalista con il prompt giusto. Un rapporto che non sarebbe stato scritto — perché il costo superava il valore percepito — ora viene scritto, perché il costo è sceso sotto la soglia.
L’efficienza per compito è reale. Ranganathan e Ye non la contestano. Il paradosso è che l’efficienza per compito, aggregata in un’organizzazione che misura il volume di produzione, produce intensificazione, non sollievo. La quantità totale di lavoro cognitivo aumenta. La giornata lavorativa diventa più densa, non più corta. Il tapis roulant accelera.
Questo non è un fallimento tecnologico. La tecnologia ha fatto esattamente ciò per cui è stata progettata. Questo è un fallimento nella progettazione degli incentivi. I sistemi organizzativi che circondano la tecnologia premiano il volume di produzione. Quando uno strumento rende possibile produrre di più, il sistema assorbe l’aumento. Il tempo liberato non viene restituito al lavoratore. Viene reinvestito in più lavoro — automaticamente, strutturalmente, senza che nessuno prenda la decisione consapevole di intensificare.
La metrica premia l’intensificazione
Charles Goodhart, un economista britannico, articolò un principio nel 1975 che è diventato una delle osservazioni più citate nella progettazione organizzativa: “Quando una misura diventa un obiettivo, cessa di essere una buona misura.” Goodhart scriveva di politica monetaria, ma il principio si applica ovunque le metriche determinino il comportamento.
La maggior parte delle organizzazioni misura la produttività come output per unità di tempo. Compiti completati. Ticket risolti. Documenti prodotti. Righe di codice scritte. Email inviate. La metrica è il volume.
Quando l’AI entra in questo sistema, il volume aumenta. La metrica migliora. I dashboard diventano verdi. I rapporti trimestrali celebrano i guadagni di produttività. E nessuno chiede se le persone che producono l’output stanno lavorando più duramente, pensando di più o riposando meno — perché la metrica non traccia il carico cognitivo. Traccia il volume. E il volume è salito.
L’Upwork Research Institute, in partnership con Workplace Intelligence, ha intervistato 2.500 lavoratori a livello globale nel 2024 — inclusi 1.250 dirigenti C-suite. La scoperta principale: il 77 per cento dei dipendenti che usano AI ha detto che gli strumenti avevano aggiunto carico al loro lavoro. Non ridotto. Aggiunto. Le fonti del carico aggiuntivo erano specifiche: il 39 per cento ha riportato di spendere più tempo a revisionare o moderare contenuti generati da AI. Il 23 per cento ha riportato di investire più tempo nell’imparare a usare gli strumenti. Il 21 per cento ha riportato che gli veniva chiesto di fare più lavoro come risultato diretto dell’AI.
I dirigenti, nel frattempo, erano entusiasti. Il 96 per cento esprimeva alte aspettative che l’AI avrebbe migliorato la produttività. Il divario tra l’aspettativa dei dirigenti e l’esperienza dei dipendenti non è un problema di comunicazione. È un problema di misurazione. I dirigenti guardano la metrica del volume. La metrica è salita. I dipendenti vivono dentro la metrica del volume. Il volume è salito perché stanno facendo più lavoro.
La legge di Goodhart prevede questo con precisione. L’organizzazione ha preso come obiettivo il volume di produzione. La metrica è migliorata. E la metrica ha cessato di essere una buona misura di ciò che doveva rappresentare — che non era il volume, ma il valore per unità di sforzo umano.
Cosa lascia l’AI
C’è una dimensione più sottile dell’intensificazione che le metriche di volume non colgono affatto.
Quando l’AI gestisce i compiti di routine — la prima bozza, l’estrazione di dati, il modello, il riassunto — ciò che resta per l’umano non è routine. È la parte difficile. Le decisioni di giudizio. L’ambiguità. Le decisioni che richiedono contesto, sfumatura e competenza di dominio che il modello non possiede.
Questo è il residuo cognitivo del lavoro aumentato dall’AI. I compiti facili sono automatizzati. I compiti difficili restano. E i compiti difficili sono più difficili adesso — non perché sono cambiati, ma perché i compiti facili fornivano riposo cognitivo. Il lavoro di routine era una pausa. Non una pausa eccitante, non una pausa riposante nel senso consapevole, ma un periodo di minore richiesta cognitiva che permetteva al cervello di recuperare tra gli episodi di pensiero impegnativo.
La distinzione di Daniel Kahneman tra Sistema 1 (veloce, automatico, poco sforzo) e Sistema 2 (lento, deliberato, molto sforzo) è utile qui. I compiti di routine vivono nel Sistema 1. I compiti di giudizio vivono nel Sistema 2. Il Sistema 2 è metabolicamente costoso — consuma glucosio, produce affaticamento, ha un budget giornaliero limitato. Una giornata lavorativa che mescola compiti di Sistema 1 e Sistema 2 è sostenibile. Una giornata lavorativa che è prevalentemente Sistema 2 — perché i compiti di Sistema 1 sono stati automatizzati — non è sostenibile alla stessa durata.
La ricerca di Workday, condotta con Hanover Research e pubblicata nel gennaio 2026, ha rilevato che il 37 per cento del tempo risparmiato dai dipendenti grazie all’AI andava perso in rilavorazione — correggere errori, verificare output, riscrivere contenuti che non soddisfacevano requisiti di qualità o contesto. Il 77 per cento dei dipendenti revisionava il lavoro generato dall’AI con la stessa cura, o maggiore, del lavoro fatto da umani. Solo il 14 per cento riportava costantemente risultati netti positivi dall’uso dell’AI.
La rilavorazione è lavoro di Sistema 2. Valutare l’output di un’AI richiede giudizio, confronto, verifica — tutto impegnativo, tutto metabolicamente costoso, tutto attingendo dallo stesso budget cognitivo limitato che il tempo “liberato” avrebbe dovuto ricostituire. Il dipendente ha risparmiato quaranta minuti sulla bozza e ha speso venticinque minuti a verificare l’output. Il risparmio netto è di quindici minuti. Ma il profilo cognitivo di quei venticinque minuti è più impegnativo dei quaranta minuti che hanno sostituito, perché revisionare il lavoro di un altro cercando errori imprevedibili richiede più attenzione sostenuta che produrre lavoro secondo uno schema che già si conosce.
La metrica del volume vede quindici minuti risparmiati. La corteccia prefrontale del dipendente vede venticinque minuti di verifica ad alta richiesta aggiunti a una giornata già satura.
La collisione domanda-controllo
Il modello domanda-controllo di Robert Karasek, sviluppato nel 1979 e affinato nel corso di quattro decenni di ricerca in salute occupazionale, descrive lo stress lavorativo come l’interazione tra due variabili: le richieste poste al lavoratore e il controllo che il lavoratore ha su come soddisfare quelle richieste.
Richieste elevate combinate con controllo elevato producono lavoro attivo — sfidante, sostenibile e associato all’apprendimento e allo sviluppo professionale. Richieste elevate combinate con basso controllo producono lavoro ad alta tensione — la configurazione più fortemente associata al burnout, alle malattie cardiovascolari e allo stress cronico.
Il lavoro aumentato dall’AI, come Ranganathan e Ye lo hanno documentato, è sempre più esigente. L’ambito è più ampio. Il ritmo è più rapido. I confini si sono dissolti. Il carico cognitivo per ora è più alto perché i compiti di routine sono scomparsi e i compiti di giudizio restano.
La dimensione del controllo è dove la trappola si chiude. Nella maggior parte delle organizzazioni, il lavoratore individuale non controlla gli obiettivi di volume. Non stabilisce le aspettative di output. Non decide come vengono allocati i risparmi di tempo dall’AI. I risparmi di tempo vengono automaticamente assorbiti dal sistema — dal prossimo ticket in coda, dal prossimo progetto che diventa fattibile, dal prossimo rapporto che qualcuno richiede perché “l’AI può farlo velocemente.”
Richieste elevate. Basso controllo. Il modello di Karasek prevede stress. La previsione non è teorica. Il 29esimo Global CEO Survey di PwC, pubblicato nel gennaio 2026 e coprendo 4.454 CEO in 95 paesi, ha rilevato che il 56 per cento non riportava alcun beneficio finanziario significativo dai propri investimenti in AI. Solo il 12 per cento riportava miglioramenti sia nei costi che nei ricavi. L’investimento sta producendo intensificazione a livello del lavoratore senza produrre ritorni a livello organizzativo. Il tapis roulant va più veloce ma l’edificio non si è mosso.
L’incentivo che nessuno ha riprogettato
Ecco la frase che voglio trattenere: il problema non è l’AI. Il problema è la struttura di incentivi che circonda l’AI.
Quando un’organizzazione implementa uno strumento di AI e misura il suo impatto attraverso il volume di produzione, l’organizzazione ha costruito una macchina di intensificazione. Non intenzionalmente. Non malevolmente. Strutturalmente. Lo strumento aumenta l’efficienza per compito. La metrica premia il volume. Il volume aumenta. I dipendenti assorbono l’aumento. Il ciclo continua.
La via d’uscita dalla trappola non è rimuovere lo strumento. Lo strumento funziona. L’efficienza per compito è genuina. La via d’uscita è riprogettare l’incentivo.
Questo richiede misurare qualcosa di diverso. Non il volume di produzione. Il valore dell’output per unità di sforzo cognitivo. Questo è più difficile da misurare del volume — che è precisamente il motivo per cui le organizzazioni ricorrono al volume. Il volume è facile da contare. Lo sforzo cognitivo no. Ma la legge di Goodhart è chiara: la metrica facile, una volta diventata obiettivo, cessa di misurare ciò che conta.
Come sarebbe misurare diversamente?
Significherebbe tracciare non quanti rapporti il team ha prodotto, ma quali rapporti hanno portato a decisioni. Non quanti ticket sono stati risolti, ma quali risoluzioni hanno tenuto — quali non sono tornati come problemi riaperti entro trenta giorni. Non quanti documenti sono stati redatti, ma quali documenti sono stati letti, citati e usati. La metrica si sposta dalla produzione all’impatto.
Significherebbe anche tracciare il carico cognitivo direttamente. Non come un’iniziativa di benessere — come una variabile operativa. La ricerca di Workday ha rilevato che quasi nove aziende su dieci avevano aggiornato meno della metà dei propri ruoli per riflettere le capacità AI. Solo il 37 per cento degli utenti intensivi di AI aveva ricevuto formazione aggiuntiva. Le organizzazioni stanno implementando strumenti senza riprogettare i ruoli che quegli strumenti cambiano. Il profilo di richiesta del ruolo è cambiato — più giudizio, meno routine — ma la descrizione del ruolo, le metriche di performance e il volume di produzione atteso non sono cambiati.
Il ruolo è nuovo. L’incentivo è vecchio. Il divario tra i due è la trappola dell’intensificazione.
La metafora del tapis roulant
Torno sempre all’immagine di un tapis roulant — non perché sia ingegnosa, ma perché è precisa.
Un tapis roulant aumenta la tua velocità senza cambiare la tua posizione. Corri più veloce. La tua frequenza cardiaca sale. I tuoi muscoli lavorano di più. Sudi. E alla fine, sei esattamente nello stesso punto dove hai iniziato.
Il lavoro aumentato dall’AI, sotto l’attuale struttura di incentivi, è un tapis roulant. La velocità per compito aumenta. Il volume aumenta. Lo sforzo cognitivo aumenta. E i risultati — misurati a livello organizzativo — non migliorano proporzionalmente. I dati di PwC sono inequivocabili: il 56 per cento dei CEO non riporta benefici finanziari. Il tapis roulant funziona. L’edificio non si muove.
Il tapis roulant non è rotto. Funziona esattamente come è stato progettato. Il problema è che nessuno ha chiesto se un tapis roulant fosse la macchina giusta per l’obiettivo. Se l’obiettivo è andare avanti — creare più valore, non più volume — serve una macchina diversa. Una macchina che premia l’impatto, non la produttività. Una macchina che misura la qualità delle decisioni, non la quantità degli output.
Il tapis roulant misura i passi. La destinazione richiede una direzione.
Cosa possono fare le organizzazioni
Diffido delle liste prescrittive. Riducono problemi complessi a punti d’azione, e i punti d’azione senza contesto sono la legge di Goodhart in attesa di manifestarsi — la lista diventa l’obiettivo, l’obiettivo cessa di essere utile. Ma ci sono interventi strutturali che cambiano il paesaggio degli incentivi invece di aggiungere compiti.
Ridefinire a cosa servono i risparmi di tempo dell’AI. Se l’AI fa risparmiare a un team otto ore a settimana, quelle otto ore devono essere esplicitamente allocate — e l’allocazione non deve ricadere per default su “più dello stesso lavoro.” Le opzioni includono: tempo per il pensiero profondo (blocchi non programmati e non monitorati per la risoluzione di problemi complessi), sviluppo delle competenze (apprendimento che non è direttamente produttivo ma costruisce capacità futura), recupero (riposo cognitivo che riduce il carico cumulativo e previene il burnout che il modello di Karasek prevede). L’allocazione è una decisione di progettazione. Se l’organizzazione non la prende, il sistema la prenderà per lei — e il sistema ricade per default su più volume.
Separare la metrica del volume dalla metrica della performance. Il volume è una misura di attività. Dice cosa è successo. Non dice quanto valeva. Le metriche di performance dovrebbero tracciare i risultati: decisioni prese, problemi risolti, qualità mantenuta, errori evitati. Questi sono più difficili da contare. Quella difficoltà è il punto. Le metriche facili producono la legge di Goodhart. Le metriche difficili producono informazione.
Riprogettare i ruoli per riflettere il lavoro aumentato dall’AI. Se l’AI gestisce la routine, il ruolo è ora un ruolo di giudizio. I ruoli di giudizio richiedono competenze diverse, formazione diversa, profili cognitivi diversi e ritmi di riposo diversi. Un ruolo che era al 60 per cento routine e al 40 per cento giudizio è ora al 20 per cento routine e all’80 per cento giudizio. Le aspettative di performance, la formazione e gli obiettivi di carico di lavoro devono riflettere quel cambiamento. Non lo fanno quasi mai.
Rendere visibile il carico cognitivo. Non come iniziativa di benessere sul portale HR. Come dashboard operativo accanto alle metriche di volume. Quando i leader possono vedere che il volume è salito e il carico cognitivo è salito, la conversazione cambia. L’intensificazione diventa visibile. E i problemi visibili sono più facili da affrontare di quelli invisibili.
L’integrazione
Ecco la tensione che voglio mantenere senza farla collassare.
Gli strumenti AI sono genuinamente efficienti. Riducono il tempo e lo sforzo necessari per compiti specifici. Il miglioramento per compito è misurabile e reale. Ranganathan e Ye non hanno scoperto che l’AI fallisce nella sua funzione prevista. Hanno scoperto che ha successo — e il successo, nel contesto di incentivi basati sul volume, produce un paradosso che è dannoso per le persone che fanno il lavoro.
Lo strumento non è la trappola. L’incentivo è la trappola. Lo strumento è un tapis roulant. Se ti fa avanzare o ti tiene a correre sul posto dipende interamente dal sistema in cui si trova.
Le organizzazioni che implementano AI senza riprogettare le proprie strutture di incentivi otterranno intensificazione. Non perché l’AI sia difettosa, ma perché la progettazione organizzativa è ottimizzata per una metrica che l’AI rende facile gonfiare. La metrica sale. Gli umani dentro la metrica si stancano di più. I risultati, al livello che conta — ritorni finanziari, performance sostenibile, benessere dei dipendenti — non migliorano.
Le organizzazioni che riprogettano l’incentivo — che misurano l’impatto invece del volume, che allocano il tempo risparmiato deliberatamente, che riconoscono lo spostamento cognitivo dal lavoro di routine al lavoro di giudizio — otterranno qualcosa di diverso. Non necessariamente più output. Possibilmente meno output, in volume. Ma decisioni migliori. Meno errori. Ritmo sostenibile. E strumenti che le persone usano perché gli strumenti rendono il loro lavoro migliore, non perché gli strumenti rendono il loro lavoro di più.
La trappola dell’intensificazione non è un problema di tecnologia. È un problema di progettazione degli incentivi vestito da problema tecnologico. La tecnologia ha fatto ciò che le è stato chiesto. La domanda è cosa l’organizzazione le ha chiesto — e se qualcuno ha pensato di chiedere alle persone che fanno il lavoro se “di più, più veloce” fosse la risposta giusta.
Il tapis roulant funziona. La domanda non è se scenderne. È se cambiare la destinazione.