Sicurezza psicologica e la domanda sull'IA
Érica 18 novembre 2025

Sicurezza psicologica e la domanda sull'IA

13 min di lettura

Amy Edmondson ha descritto per la prima volta la sicurezza psicologica nel 1999, studiando team infermieristici ospedalieri. Si aspettava che i team con migliori dinamiche interpersonali commettessero meno errori di somministrazione farmaci. Invece, trovò l’opposto: i team con alta sicurezza psicologica riportavano più errori. Non perché commettessero più errori — perché erano disposti a farli emergere.

La scoperta riformulò la sicurezza. La sicurezza psicologica non è l’assenza di errori. È la convinzione che non sarai punito per far emergere errori, fare domande o ammettere ciò che non sai. I team ad alte prestazioni non evitano gli errori. Intercettano gli errori più velocemente perché parlare è sicuro.

Ventisei anni dopo, questo framework collide con l’adozione dell’IA in un modo che Edmondson non aveva previsto — e che la maggior parte delle aziende che distribuiscono strumenti IA non ha considerato.

Il problema della domanda all’IA

Ogni strumento IA funziona rispondendo a domande. Tu chiedi, lui risponde. L’interfaccia è un ciclo domanda-risposta, che lo strumento sia un chatbot, un motore di ricerca, un sistema di raccomandazione o uno strumento di supporto alle decisioni. L’interazione fondamentale è: l’umano chiede, la macchina risponde.

Ora considera cosa rivela il chiedere.

Quando un responsabile acquisti digita “Cosa significa l’incoterm DDP?” nell’assistente IA dell’azienda, la domanda contiene un’ammissione: non so cosa significa DDP. In un’interazione privata — da solo alla scrivania, nessuno che guarda — questa ammissione non costa nulla. La macchina non giudica. La macchina non ricorda che non sapevi. La macchina non lo dice al tuo responsabile.

Ma gli strumenti IA vengono sempre più distribuiti in ambienti condivisi. La cronologia delle query viene registrata. Lo schermo è visibile ai colleghi. Il team leader chiede “Come stai usando il nuovo strumento?” e la risposta rivela le domande che hai fatto — il che rivela ciò che non sapevi.

In un ambiente psicologicamente sicuro, va bene. “Non sapevo cosa significasse DDP, così l’ho chiesto allo strumento — ora lo so.” La competenza si dimostra attraverso l’apprendimento, non attraverso la finzione.

In un ambiente psicologicamente insicuro — dove ammettere l’ignoranza comporta rischi per la carriera, dove “non sapere” viene confuso con “non essere qualificato”, dove la conoscenza è valuta e spenderla sembra depauperamento — chiedere allo strumento IA diventa un pericolo. Lo strumento non è il problema. La stanza è il problema. La cultura organizzativa determina se lo strumento è una risorsa o una minaccia.

Il framework di Edmondson applicato

Edmondson ha definito quattro dimensioni del comportamento di sicurezza psicologica:

Parlare con preoccupazioni. Nell’adozione dell’IA, si traduce in: un membro del team può dire “Questo strumento IA mi ha dato una risposta che penso sia sbagliata” senza essere liquidato come resistente al cambiamento? Può segnalare un errore nel sistema senza sentirsi dire che “ha solo bisogno di più formazione”?

Fare domande. Un membro del team può chiedere come funziona lo strumento, quali sono i suoi limiti o perché ha dato una certa risposta — senza che la domanda venga interpretata come tecnofobia? Un dipendente junior può fare una domanda a cui un dipendente senior ha risposto in modo errato, senza penalità sociale?

Ammettere errori. Un membro del team può dire “Ho usato la raccomandazione dello strumento ed era sbagliata” senza essere accusato di essersi fidato dello strumento? Può dire “Non ho usato lo strumento perché non mi fidavo del suo output” senza essere accusato di non adottarlo?

Proporre idee. Un membro del team può suggerire un modo migliore di usare lo strumento, modificare il flusso di lavoro o adeguare l’integrazione — senza che il suggerimento venga percepito come una critica alla persona che ha progettato il deployment?

Nella maggior parte delle organizzazioni, la risposta ad almeno due di queste domande è no. Il deployment procede comunque. Il team interagisce con lo strumento in modi che minimizzano l’auto-esposizione: fa domande semplici, non segnala errori, non sperimenta, non suggerisce miglioramenti. Usa lo strumento abbastanza per evitare di essere etichettato come non adottante. Non lo usa abbastanza per trarne valore reale.

È il plateau dell’adozione — la linea piatta tra “distribuito” e “integrato” dove la maggior parte degli strumenti IA vive e muore.

L’asimmetria della visibilità

C’è un’asimmetria nell’interazione con gli strumenti IA che amplifica il problema della sicurezza psicologica.

Quando un membro del team fa una domanda a un collega — “Cosa significa DDP?” — l’interazione è bilaterale. Il collega sa che non sapevi. Nessun altro lo sa. Il costo sociale è contenuto.

Quando un membro del team fa la stessa domanda allo strumento IA, l’interazione viene registrata. È visibile agli amministratori di sistema. Potrebbe essere visibile nelle dashboard di utilizzo. È visibile a chiunque passi davanti allo schermo. L’interazione che era bilaterale è ora potenzialmente multilaterale.

Questa asimmetria di visibilità cambia il calcolo. Il costo di chiedere alla macchina è più alto del costo di chiedere a un collega — non perché la macchina giudica, ma perché il chiedere è più visibile. E in ambienti dove visibilità equivale a vulnerabilità, maggiore visibilità equivale a maggiore rischio.

Ho visto team sviluppare workaround specificamente per evitare interazioni IA visibili. Usare lo strumento su un dispositivo personale. Digitare domande nello strumento e poi cancellare la cronologia. Chiedere a un collega di fare la domanda allo strumento al posto loro. Non sono comportamenti irrazionali. Sono risposte razionali a un ambiente dove l’apprendimento visibile viene penalizzato.

I workaround riducono le metriche di adozione. Il management interpreta la bassa adozione come prova che lo strumento non è utile. Lo strumento viene interrotto o deprioritizzato. La causa reale — l’ambiente, non lo strumento — non viene mai affrontata.

Il paradosso del manager

L’ironia è che i manager che promuovono l’adozione dell’IA sono spesso quelli che inavvertitamente minano la sicurezza psicologica necessaria per essa.

Il manager che dice “Questo strumento è intuitivo — dovresti riuscire a capirlo in un pomeriggio” ha stabilito un benchmark implicito: la competenza con questo strumento dovrebbe essere immediata. Chiunque faccia fatica non sta raggiungendo il benchmark. L’affermazione, intesa come incoraggiante, viene recepita come uno standard di prestazione.

Il manager che monitora le dashboard di adozione e chiede ai membri del team perché il loro utilizzo è basso ha stabilito un’altra dinamica: l’uso dello strumento viene osservato. Il non-uso verrà notato. L’osservazione non è neutra — porta il peso dell’attenzione manageriale, che nella maggior parte delle organizzazioni è associata alla valutazione. Il monitoraggio, inteso a supportare l’adozione, viene recepito come sorveglianza.

Il manager che mostra le capacità più impressionanti dello strumento nella demo — la query complessa, l’analisi brillante, l’output impressionante — ha fissato le aspettative al tetto. La prima interazione reale del team sarà una query semplice con una risposta semplice. Il divario tra la demo e la realtà crea delusione. Lo strumento che sembrava magico nella demo è semplicemente funzionale nella pratica. Non è un fallimento — la funzionalità è ciò che conta. Ma il divario viene registrato come una delusione.

In ciascun caso, le azioni del manager sono ben intenzionate. In ciascun caso, l’effetto è una riduzione della sicurezza psicologica attorno allo strumento. L’intenzione è “questo strumento ti aiuterà”. La ricezione è “questo strumento è un’altra cosa su cui sarò valutato”.

La domanda dietro la domanda

Il lavoro di Daniel Kahneman sulla facilità cognitiva e sullo sforzo cognitivo aggiunge uno strato. Kahneman ha mostrato che quando le persone incontrano informazioni facili da elaborare — familiari, presentate chiaramente, coerenti con le aspettative — sperimentano facilità cognitiva. Si sentono sicure. Sono meno propense a impegnarsi in un pensiero deliberato e critico.

Quando le persone incontrano informazioni difficili da elaborare — non familiari, complesse, incoerenti con le aspettative — sperimentano sforzo cognitivo. Si sentono incerte. Sono più propense a impegnarsi in un pensiero deliberato, ma sono anche più propense a sentirsi ansiose, a disagio e inclini all’evitamento.

Uno strumento IA è una fonte di sforzo cognitivo. È nuovo. I suoi output sono imprevedibili. La sua logica è opaca. L’interfaccia può essere familiare (una finestra di chat), ma il pattern di interazione (parlare a una macchina che capisce il linguaggio) è profondamente non familiare. Lo sforzo cognitivo è intrinseco alla novità.

In un ambiente psicologicamente sicuro, lo sforzo cognitivo è tollerabile. L’incertezza è permessa. Le domande sono benvenute. Lo sforzo si risolve in apprendimento.

In un ambiente psicologicamente insicuro, lo sforzo cognitivo è intollerabile. L’incertezza deve essere nascosta. Le domande rivelano debolezza. Lo sforzo si risolve in evitamento.

La domanda che il membro del team fa allo strumento è la domanda superficiale. La domanda sottostante è: “È sicuro per me non sapere questo?” La risposta alla domanda superficiale viene dal modello IA. La risposta alla domanda sottostante viene dalla stanza.

Misurare la sicurezza psicologica per l’adozione IA

Edmondson ha sviluppato un questionario a sette voci per misurare la sicurezza psicologica. Per i contesti di adozione IA, suggerisco di adattare cinque delle voci:

  1. “Se commetto un errore usando lo strumento IA, mi verrà contestato.” (Punteggio invertito.)
  2. “I membri di questo team sono in grado di sollevare problemi e questioni difficili sullo strumento IA.”
  3. “Le persone di questo team a volte rifiutano gli altri per aver fatto domande basilari allo strumento IA.” (Punteggio invertito.)
  4. “È sicuro correre un rischio con lo strumento IA in questo team — come provare un nuovo caso d’uso.”
  5. “È facile chiedere ad altri membri di questo team aiuto con lo strumento IA.”

Somministra questo questionario prima del deployment IA, due settimane dopo e sei settimane dopo. La traiettoria ti dice di più sui risultati dell’adozione di qualsiasi dashboard di utilizzo.

Se i punteggi diminuiscono dopo il deployment — se l’introduzione dello strumento IA ha ridotto la sicurezza psicologica — lo strumento non è il problema. L’architettura del deployment lo è. E la correzione non è più formazione. La correzione è l’ambiente.

Costruire la sicurezza prima della capacità

La sequenza pratica conta. La maggior parte dei deployment segue: costruisci lo strumento, distribuisci lo strumento, forma il team, misura l’adozione. L’architettura della sicurezza psicologica è assente da questa sequenza.

La sequenza alternativa: valuta la sicurezza psicologica del team, affronta le lacune, distribuisci lo strumento, supporta l’adozione, misura sia l’utilizzo che la sicurezza.

Prima del deployment: Conduci il questionario Edmondson adattato. Se i punteggi sono sotto la soglia (Edmondson suggerisce una media di team di 5,0 su una scala a 7 punti come minimo per un apprendimento di team efficace), affronta le lacune di sicurezza prima. Questo può significare avere conversazioni esplicite sulle aspettative di apprendimento — specificamente, che la curva di apprendimento è normale, che le domande sono valorizzate e che la cronologia delle query del team non è uno strumento di valutazione delle prestazioni.

Durante il deployment: Prendi tre impegni espliciti, per iscritto, comunicati al team e ai loro responsabili. Primo: la cronologia delle query è privata. Nessun responsabile esaminerà i log delle query individuali. Secondo: il periodo di apprendimento è definito (da due a quattro settimane) e durante questo periodo, una produttività ridotta è attesa e protetta. Terzo: la segnalazione degli errori viene premiata. Se lo strumento dà una risposta sbagliata e la segnali, è un contributo — non una lamentela.

Dopo il deployment: Monitora sia le metriche di adozione che le metriche di sicurezza. Se l’adozione sale e la sicurezza tiene, il deployment è sano. Se l’adozione sale e la sicurezza cala, l’adozione è guidata dalla compliance e non sarà sostenibile. Se l’adozione cala e la sicurezza tiene, lo strumento potrebbe aver bisogno di miglioramenti. Se entrambe calano, il deployment sta fallendo e la causa radice è ambientale.

Il team che ha dato un nome allo strumento

Voglio tornare al segnale della denominazione — l’osservazione che quando un team dà un nome al proprio strumento IA, l’adozione ha superato una soglia critica.

La denominazione è un indicatore di sicurezza psicologica. Dare un nome allo strumento è rivendicare una relazione con esso. È dire, pubblicamente, ai colleghi: “Uso questo strumento. Lo conosco abbastanza bene da dargli un nome. Il mio uso di esso è parte della mia identità professionale, non un segreto.” Dare un nome richiede la sicurezza di essere associati allo strumento pubblicamente.

In ambienti psicologicamente insicuri, gli strumenti non vengono nominati. Vengono indicati genericamente — “il sistema”, “la cosa nuova”, “quello strumento IA”. L’anonimità del riferimento è un meccanismo di distanza. Il membro del team non sta rifiutando lo strumento. Si sta proteggendo dall’essere troppo strettamente associato ad esso, nel caso l’associazione diventi una responsabilità.

Quando vedo un team che dà un nome al proprio strumento, so che l’ambiente è abbastanza sicuro per un’adozione sostenuta. Quando vedo un team che tiene lo strumento a distanza linguisticamente, so che l’ambiente ha bisogno di lavoro — indipendentemente da ciò che dicono le metriche di utilizzo.

La complicazione del lavoro da remoto

C’è una dimensione della sicurezza psicologica e dell’adozione IA che è diventata più rilevante dal 2020: il contesto del lavoro da remoto.

In un ufficio fisico, le dinamiche sociali dell’uso degli strumenti IA sono parzialmente visibili. Puoi vedere chi usa lo strumento. Puoi vedere lo schermo. Puoi sentire la query. La visibilità è un’arma a doppio taglio: in ambienti sicuri, crea prova sociale (“lei lo usa, dovrei provarlo”); in ambienti insicuri, crea sorveglianza (“lui fa domande basilari, deve non conoscere il dominio”).

In un ambiente di lavoro remoto, la visibilità è mediata da strumenti digitali. Condivisione schermo, dashboard di attività, messaggi Slack — tutti creano visibilità selettiva. L’utente controlla cosa è visibile e cosa è nascosto. Questo controllo può amplificare la sicurezza psicologica (“posso usare lo strumento privatamente, nessuno vede la mia curva di apprendimento”) o minarla (“la dashboard di utilizzo mostra che ho fatto 47 domande questa settimana, il management può vederlo”).

L’ambiente ibrido — che è la realtà per la maggior parte delle aziende UE — crea una terza dinamica. Il team in ufficio vede l’uso IA reciproco. Il team remoto no. Le condizioni di sicurezza psicologica differiscono tra i due gruppi, anche all’interno dello stesso team. I membri in ufficio sviluppano pratiche condivise e prova sociale. I membri remoti no.

L’implicazione per il design: per i team ibridi e remoti, le strategie di adozione degli strumenti IA devono affrontare esplicitamente l’asimmetria di visibilità. Rendi l’uso dello strumento visibile per scelta, non per default. Condividi i successi dello strumento (buoni output, tempo risparmiato) attraverso canali del team — volontariamente, non obbligatoriamente. Crea opportunità di apprendimento tra pari dove l’uso dello strumento è esplicitamente sociale ed esplorativo, non valutativo.

Il contesto del lavoro da remoto ha reso la sicurezza psicologica sia più importante che più difficile da coltivare. Il deployment dello strumento IA deve tenerne conto — non come caso speciale, ma come ambiente operativo standard del posto di lavoro europeo moderno.

L’integrazione

Sicurezza psicologica e adozione dell’IA non sono conversazioni separate. Sono la stessa conversazione, vista da angolazioni diverse.

L’industria IA si concentra sullo strumento: capacità, accuratezza, velocità, integrazione. Il campo della psicologia organizzativa si concentra sull’ambiente: fiducia, sicurezza, appartenenza, autonomia. Entrambi hanno ragione. Nessuno dei due è sufficiente.

Uno strumento perfetto in un ambiente insicuro non verrà adottato. Uno strumento imperfetto in un ambiente sicuro verrà adottato, migliorato e alla fine avrà un nome. L’ambiente non è un modificatore del successo dello strumento. È una precondizione.

Il lavoro di Edmondson ci dà il framework. Kahneman ci dà il meccanismo cognitivo. Karasek ci dà la struttura domanda-controllo. Insieme, spiegano perché lo strumento IA più capace sul mercato può restare inutilizzato sul desktop di un team mentre un workaround mediocre prospera — perché il workaround non richiede a nessuno di rivelare ciò che non sa.

La macchina non è il problema. La stanza è il problema. Aggiusta la stanza, e la macchina funziona.

La stanza è l’architettura. L’architettura è l’insieme di condizioni — fiducia, sicurezza, controllo, prova sociale — che determinano se uno strumento viene adottato o abbandonato. Le condizioni sono progettabili, misurabili e migliorabili. Non sono misteriose. Non sono soft. Sono l’infrastruttura dell’adozione, e come ogni infrastruttura, devono essere costruite prima della cosa che supportano.

Scritto da
Érica
Psicologa Organizzativa

Sa perché le persone resistono agli strumenti — e come progettare strumenti che ameranno. Quando Érica parla, le aziende cambiano direzione. Non per persuasione. Per comprensione.

← Tutte le note