L'incentivo che nessuno audita
Érica 9 dicembre 2025

L'incentivo che nessuno audita

14 min di lettura

Ogni azienda ha una dichiarazione dei valori. La maggior parte include parole come innovazione, collaborazione o agilità. Molte le includono tutte e tre. I valori sono sul sito web. Sono sulla parete della sala riunioni. Sono stati oggetto di un workshop nel 2023.

Ogni azienda ha anche un sistema di incentivi. Il sistema di incentivi include obiettivi trimestrali, valutazioni delle prestazioni, strutture dei bonus, criteri di promozione e le regole non scritte su ciò che realmente viene premiato e ciò che viene punito. Il sistema di incentivi non è sulla parete. È nei fogli di calcolo, nelle riunioni di calibrazione e nelle conversazioni di corridoio di cui nessuno fa verbale.

Il divario tra la dichiarazione dei valori e il sistema di incentivi è il singolo predittore più affidabile del fallimento dell’adozione IA.

È la cosa che nessuno audita. Non perché sia invisibile — perché auditarla richiede di nominare una contraddizione che tutti conoscono e nessuno vuole formalizzare.

Il divario

Un’azienda dice di valorizzare l’innovazione. La sua struttura dei bonus premia il volume di output. Un membro del team che dedica due ore a sperimentare con il nuovo strumento IA invece di elaborare il prossimo lotto di fatture ha innovato — e ha anche prodotto due ore in meno di output misurabile. Il sistema di incentivi nota il divario di output. La dichiarazione dei valori non nota nulla, perché le dichiarazioni dei valori non hanno meccanismi di misurazione.

La risposta razionale — e uso “razionale” nel senso economico, ovvero coerente con la struttura di incentivi reale — è non innovare. Elabora le fatture. Raggiungi l’obiettivo. Tieni il bonus. Usa lo strumento IA durante la pausa pranzo, se proprio.

Non è resistenza al cambiamento. È interpretazione accurata dell’ambiente degli incentivi. Il membro del team non sta fallendo nell’adottare. Sta riuscendo nell’ottimizzazione — ottimizzando per i segnali che effettivamente portano conseguenze.

I tre disallineamenti degli incentivi

Nelle aziende con cui ho lavorato in Bluewaves, tre specifici disallineamenti degli incentivi uccidono l’adozione IA prima che la tecnologia abbia anche solo la possibilità di dimostrare il proprio valore.

Disallineamento 1: Metriche individuali vs strumenti collaborativi

Gli strumenti IA creano frequentemente valore abilitando la collaborazione — condivisione di conoscenza tra team, emersione di pattern che attraversano i reparti, possibilità che l’insight di una persona amplifichi il lavoro di un’altra persona. Il valore è collettivo. Il valore è emergente. Il valore resiste all’attribuzione a un singolo individuo.

Le metriche di performance individuale non riescono a catturare questo. Se la mia valutazione trimestrale mi valuta sul numero di ticket clienti che chiudo, e lo strumento IA mi aiuta a chiudere i ticket più velocemente — questo mi aiuta. Ma se lo strumento IA mi aiuta anche a creare una voce nella knowledge base che aiuta cinque colleghi a chiudere ticket simili — il valore è andato al team, non a me. Le mie metriche non migliorano. Le metriche dei miei cinque colleghi migliorano. Io ho investito lo sforzo. Loro hanno ricevuto il beneficio.

In un sistema di incentivi costruito sull’attribuzione individuale, il valore collaborativo è un’esternalità — un beneficio che va al sistema ma non viene catturato dalla misura di performance dell’individuo. Le esternalità sono, per definizione, sotto-prodotte. Le persone non investono sforzo in risultati per cui non vengono premiate.

La correzione non è eliminare le metriche individuali. È aggiungere metriche collaborative che catturino il valore collettivo prodotto dagli strumenti IA. Quante voci nella knowledge base hai contribuito? Quanto spesso il tuo input è stato usato da altri? Quante interazioni cross-team ha facilitato lo strumento? Sono misurabili. Sono raramente misurate.

Disallineamento 2: Evitamento degli errori vs sperimentazione

Gli strumenti IA richiedono sperimentazione. Le prime dieci query sono query di apprendimento — calibrare cosa lo strumento sa e non sa fare, scoprire i suoi punti di forza e i suoi limiti, sviluppare un’intuizione su quando usarlo e quando no. La sperimentazione produce qualche errore. Non è un malfunzionamento. È il processo di apprendimento.

Se il sistema di incentivi penalizza gli errori — e la maggior parte lo fa, esplicitamente o implicitamente — la sperimentazione comporta rischio. Il rischio non è catastrofico. Nessuno viene licenziato per una brutta query al chatbot. Ma il rischio è reputazionale: il collega che vede un output IA mediocre sul tuo schermo, il responsabile che nota il calo di qualità nella tua prima settimana di adozione dello strumento, la valutazione trimestrale dove “ha esplorato il nuovo strumento IA” non è un riconoscimento ma “ha mantenuto gli standard di qualità” sì.

La ricerca di Edmondson sulla sicurezza psicologica è rilevante qui, ma lo strato degli incentivi è distinto dallo strato della sicurezza. Puoi avere un team psicologicamente sicuro — dove parlare è genuinamente ben accolto — e avere comunque un sistema di incentivi che penalizza proprio gli esperimenti che l’adozione richiede. Il team si sente sicuro a provare. Il sistema di incentivi punisce il provare. Il risultato è un team che sa che è sicuro sperimentare ma ha ragioni razionali per non farlo.

La correzione: crea un’indennità di sperimentazione esplicita. Non un vago “incoraggiamo l’esplorazione”. Una protezione specifica e misurabile: il 10% del tempo di ogni membro del team durante il periodo di adozione è designato alla sperimentazione con lo strumento, e questo tempo è escluso dalle metriche di performance basate sull’output. L’indennità deve essere documentata nei criteri di valutazione delle prestazioni, non solo comunicata verbalmente. L’incoraggiamento verbale senza protezione strutturale è solo rumore.

Disallineamento 3: Metriche di velocità vs curve di apprendimento

Gli strumenti IA rendono il lavoro più veloce — alla fine. Durante il periodo di adozione, rendono il lavoro più lento. La curva di apprendimento è reale. Cercare come formulare una query, interpretare un output non familiare, verificare la risposta dello strumento contro la propria conoscenza — tutto questo richiede tempo. Tempo che, in un sistema di incentivi ottimizzato per la velocità, si registra come un calo di performance.

La maggior parte dei sistemi di incentivi misura la velocità direttamente o indirettamente: chiamate gestite all’ora, ticket chiusi al giorno, report prodotti a settimana. Durante il periodo di adozione, questi numeri calano. Il calo è temporaneo. Il calo è il costo dell’investimento. Ma il sistema di incentivi non distingue tra “calo di performance dovuto a incompetenza” e “calo di performance dovuto a investimento nell’apprendimento”. Entrambi appaiono uguali nel foglio di calcolo.

Un membro del team che osserva questa dinamica fa un calcolo: il costo del calo di performance (visibile, immediato, misurato) rispetto al beneficio della padronanza dello strumento (invisibile, differito, non misurato). Il calcolo favorisce quasi sempre l’abbandono dello strumento e il ritorno al processo esistente.

La correzione: sospendi le metriche basate sulla velocità durante un periodo di adozione definito, o stabilisci una baseline di performance separata per il periodo di adozione che tenga conto del calo di apprendimento atteso. “Ci aspettiamo che il tuo throughput diminuisca del 15% nelle prime due settimane. È budgetizzato.” La specificità conta. Una rassicurazione vaga — “non preoccuparti dei tuoi numeri” — non è credibile quando la valutazione delle prestazioni è tra otto settimane.

Perché nessuno lo audita

Il divario tra valori dichiarati e incentivi reali è noto. In ogni organizzazione con cui ho lavorato, le persone a ogni livello possono descrivere il divario con precisione. Il responsabile acquisti sa che “innovazione” è un valore e “fatture elaborate al giorno” è una metrica. Il team leader sa che “collaborazione” è un valore e “tasso di chiusura ticket individuali” è un criterio per il bonus. Il direttore HR sa che il template di valutazione delle prestazioni premia l’output, non l’apprendimento.

Nessuno audita il divario perché auditarlo richiede di nominarlo. E nominarlo crea accountability. Se il divario viene documentato — se qualcuno scrive “il nostro valore dichiarato è l’innovazione e la nostra struttura dei bonus premia il volume di output” — allora qualcuno deve decidere: cambiare i valori o cambiare gli incentivi.

Entrambe le opzioni sono scomode. Cambiare i valori sembra come abbandonare i principi. Cambiare gli incentivi sembra come interrompere un sistema che funziona (o almeno funzicchia). Quindi il divario persiste, innominato e irrisolto, e ogni iniziativa che dipende dai valori (adozione IA, piattaforme collaborative, programmi di apprendimento) sotto-performa perché il sistema di incentivi lavora contro.

Questa è la mossa centrale a cui torno nel mio lavoro: nomina il divario tra ciò che è dichiarato e ciò che è premiato. Il divario non è un fallimento di comunicazione. È una caratteristica strutturale delle organizzazioni che non hanno allineato i loro sistemi di misurazione con i loro sistemi di aspirazione.

La connessione con Karasek

Il modello domanda-controllo di Robert Karasek aggiunge uno strato che connette il disallineamento degli incentivi allo stress. Karasek ha mostrato che la configurazione lavorativa più dannosa è domande elevate più controllo basso. Quando il sistema di incentivi crea domande elevate (raggiungi i numeri) e il processo di adozione IA riduce il controllo (usa questo strumento non familiare in un modo non familiare), la combinazione produce tensione lavorativa — la configurazione più associata a stress cronico, disengagement e turnover.

Il disallineamento degli incentivi amplifica la tensione. Il membro del team affronta domande contrastanti che non possono essere entrambe soddisfatte: mantieni l’output (domanda degli incentivi) e impara il nuovo strumento (domanda dell’adozione). Il controllo è basso su entrambi gli assi: gli obiettivi di output sono non negoziabili, e l’adozione dello strumento è obbligatoria. Il risultato non è resistenza al cambiamento. È una risposta di stress a una configurazione impossibile.

L’intervento non è motivazionale. Non puoi motivare attraverso una contraddizione strutturale. L’intervento è strutturale: risolvere le domande contrastanti adeguando il sistema di incentivi per accomodare l’investimento nell’adozione. È una decisione di design, non una decisione di leadership. Richiede di cambiare il foglio di calcolo, non il discorso.

L’audit

Ecco come appare un audit degli incentivi per l’adozione IA. Richiede uno-due giorni. Non costa nulla se non onestà.

Passo 1: Elenca le metriche di performance reali. Non quelle aspirazionali. Quelle che appaiono nelle valutazioni delle prestazioni, che determinano i bonus, che influenzano le decisioni di promozione. Sii specifico: “ticket chiusi al giorno”, “fatturato generato per trimestre”, “progetti completati nei tempi”. Includi le metriche informali — le cose misurate dall’attenzione anziché dai fogli di calcolo. “Essere visto come produttivo” è una metrica informale. “Essere visto come un giocatore di squadra” è una metrica informale. Entrambe portano conseguenze reali.

Passo 2: Elenca i comportamenti richiesti dall’adozione IA. Sperimentazione con lo strumento. Tolleranza della curva di apprendimento. Condivisione della conoscenza nel team. Segnalazione degli errori quando lo strumento produce output errati. Investimento di tempo nell’apprendimento che non produce output immediato.

Passo 3: Mappa i conflitti. Per ogni comportamento di adozione, identifica se le metriche di performance reali lo premiano, lo ignorano o lo puniscono. Usa tre categorie: allineato (la metrica premia il comportamento), neutro (la metrica non è influenzata dal comportamento), o disallineato (la metrica penalizza il comportamento).

La mappa mostrerà dove il sistema di incentivi supporta l’adozione e dove la mina. Nella mia esperienza, la maggior parte delle organizzazioni scopre che il 30-50% delle loro metriche reali è disallineato con i comportamenti richiesti dall’adozione IA.

Passo 4: Decidi. Per ogni disallineamento, una di tre risposte: cambia la metrica (adegua l’incentivo per allinearsi con l’adozione), proteggi il comportamento (crea una protezione esplicita che schermi il comportamento di adozione dalla metrica disallineata), o accetta il disallineamento (riconosci che questo specifico comportamento di adozione sarà sotto-prodotto e adegua le aspettative di adozione di conseguenza).

La quarta risposta — non fare nulla e sperare — è il default nella maggior parte delle organizzazioni. È anche la ragione per cui la maggior parte dei deployment IA si blocca nella fase di adozione.

Lo schema stagionale

Voglio nominare qualcosa che ho osservato nelle aziende con cui Bluewaves lavora, perché si connette ai tempi e perché spiega uno schema che frustra molti responsabili IT.

I deployment IA del Q4 falliscono a un tasso più alto dei deployment del Q1 o Q2. La tecnologia è la stessa. La formazione è la stessa. Il caso d’uso è lo stesso. La differenza è l’ambiente degli incentivi.

Nel Q4, gli obiettivi annuali si avvicinano. Il divario tra effettivo e obiettivo si sta o chiudendo (pressione per mantenere) o allargando (pressione per recuperare). In entrambi i casi, il sistema di incentivi è alla massima intensità. Ogni minuto speso ad imparare un nuovo strumento è un minuto non speso a colmare il divario. Ogni esperimento che riduce l’output è un lusso che il calendario del Q4 non può permettersi.

Nel Q1, gli obiettivi si sono azzerati. La pressione è al suo minimo annuale. Il budget per il nuovo anno è confermato. C’è margine cognitivo — non molto, ma qualcuno. Lo stesso strumento distribuito a gennaio, allo stesso team, con la stessa formazione, performa meglio nelle metriche di adozione dello stesso strumento distribuito a ottobre. La differenza è il calendario degli incentivi.

Non è una rivelazione. È un’osservazione che la maggior parte delle timeline di deployment ignora perché la data di prontezza della tecnologia viene trattata come la data di deployment, indipendentemente dall’ambiente degli incentivi. Lo strumento è pronto, quindi distribuiamo. Il team non è pronto — strutturalmente, nella sua architettura degli incentivi, fisiologicamente — ma lo strumento è pronto.

La prontezza non è un attributo della tecnologia. È un attributo dell’ambiente. L’ambiente include il sistema di incentivi, e il sistema di incentivi ha stagioni.

Il ruolo del manager

Voglio nominare la posizione del manager specificamente, perché è la posizione più difficile in questa dinamica.

Il manager è preso tra il sistema di incentivi (che applica) e il requisito di adozione (che promuove). Deve dire al team “raggiungi i numeri” e anche dire al team “prenditi il tempo per imparare il nuovo strumento”. Entrambe le istruzioni escono dalla sua bocca. Il team le sente entrambe. Il team segue quella che ha conseguenze.

Il manager che dice “voglio che esploriate lo strumento IA” e poi chiede il venerdì “perché i numeri sono calati questa settimana?” ha inviato due messaggi. Il secondo ha cancellato il primo. La cancellazione non era intenzionale. Era il sistema di incentivi che parlava attraverso il manager — e il sistema di incentivi parla più forte dell’incoraggiamento.

La correzione è strutturale, non motivazionale. Il manager ha bisogno che il sistema di incentivi sia adeguato prima di poter promuovere credibilmente l’adozione. “Voglio che esploriate lo strumento IA, e il vostro obiettivo è stato ridotto del 15% per le prossime due settimane per creare spazio per quell’esplorazione” è un messaggio credibile. “Voglio che esploriate lo strumento IA, e anche che raggiungiate gli stessi obiettivi del mese scorso” non lo è. Il team conosce la differenza. Il team conosce sempre la differenza.

L’integrazione

Mantengo due cose senza risolverle.

Primo: i sistemi di incentivi esistono per ragioni. Guidano i comportamenti. Creano accountability. Rendono la performance visibile e misurabile. Smontarli in nome dell’adozione IA sarebbe irresponsabile e non necessario.

Secondo: i sistemi di incentivi non sono neutri. Esprimono ciò che l’organizzazione realmente valorizza, indipendentemente da ciò che dice la dichiarazione dei valori. Quando il sistema di incentivi penalizza i comportamenti che l’adozione richiede, l’adozione fallisce. Non è un fallimento del personale o un fallimento della tecnologia. È un fallimento di design nell’architettura degli incentivi.

Entrambe le cose sono vere. Il lavoro è nello spazio tra di esse — adeguare il sistema di incentivi abbastanza da accomodare l’adozione senza smontare l’accountability che il sistema fornisce.

È un lavoro di design, non di policy. Richiede specificità: quali metriche, durante quale periodo, con quali protezioni. Richiede misurazione: l’adeguamento ha prodotto il comportamento di adozione? Ha prodotto conseguenze indesiderate? Richiede iterazione: il primo adeguamento sarà imperfetto. Adegua di nuovo.

L’incentivo che nessuno audita è l’incentivo che determina se il tuo deployment IA riesce o fallisce. Non la tecnologia. Non la formazione. Non la comunicazione della leadership. Il foglio di calcolo che determina cosa viene premiato e cosa viene punito.

Audita l’incentivo. L’adozione segue l’incentivo. L’ha sempre fatto.

La tecnologia è pronta. La formazione è progettata. Il business case è solido. La leadership è impegnata. Niente di tutto ciò conta se il sistema di incentivi — il meccanismo reale che determina cosa fanno le persone un martedì pomeriggio — sta lavorando contro l’adozione.

L’incentivo è l’infrastruttura. Audita l’infrastruttura. Aggiusta l’infrastruttura. L’adozione segue.

L’ha sempre fatto.

Scritto da
Érica
Psicologa Organizzativa

Sa perché le persone resistono agli strumenti — e come progettare strumenti che ameranno. Quando Érica parla, le aziende cambiano direzione. Non per persuasione. Per comprensione.

← Tutte le note