La sécurité psychologique et la question IA
Érica 18 novembre 2025

La sécurité psychologique et la question IA

15 min de lecture

Amy Edmondson a décrit la sécurité psychologique pour la première fois en 1999, en étudiant des équipes d’infirmières hospitalières. Elle s’attendait à ce que les équipes avec de meilleures dynamiques interpersonnelles fassent moins d’erreurs médicamenteuses. Elle a trouvé l’inverse : les équipes avec une haute sécurité psychologique rapportaient plus d’erreurs. Pas parce qu’elles en faisaient plus — parce qu’elles étaient prêtes à les faire remonter.

Le constat a recadré la sécurité. La sécurité psychologique n’est pas l’absence d’erreurs. C’est la croyance que vous ne serez pas puni pour faire remonter des erreurs, poser des questions ou admettre ce que vous ne savez pas. Les équipes performantes n’évitent pas les erreurs. Elles détectent les erreurs plus vite parce que parler est sans danger.

Vingt-six ans plus tard, ce cadre percute l’adoption de l’IA d’une manière qu’Edmondson n’avait pas anticipée — et que la plupart des entreprises déployant des outils IA n’ont pas considérée.

Le problème de la question IA

Chaque outil IA fonctionne en répondant à des questions. Vous posez une question, il répond. L’interface est une boucle question-réponse, que l’outil soit un chatbot, un moteur de recherche, un système de recommandation ou un outil d’aide à la décision. L’interaction fondamentale est : l’humain demande, la machine répond.

Considérez maintenant ce que demander révèle.

Quand un responsable des achats tape « Que signifie l’incoterm DDP ? » dans l’assistant IA de l’entreprise, la question contient un aveu : je ne sais pas ce que signifie DDP. Dans une interaction privée — seul à son bureau, personne ne regarde — cet aveu ne coûte rien. La machine ne juge pas. La machine ne se souvient pas que vous ne saviez pas. La machine ne le dit pas à votre responsable.

Mais les outils IA sont de plus en plus déployés dans des environnements partagés. L’historique des requêtes est journalisé. L’écran est visible des collègues. Le responsable d’équipe demande « Comment utilisez-vous le nouvel outil ? » et la réponse révèle les questions que vous avez posées — ce qui révèle ce que vous ne saviez pas.

Dans un environnement psychologiquement sûr, ce n’est pas un problème. « Je ne savais pas ce que signifiait DDP, alors j’ai demandé à l’outil — maintenant je sais. » La compétence se démontre par l’apprentissage, pas par la prétention.

Dans un environnement psychologiquement dangereux — où admettre l’ignorance comporte un risque de carrière, où « ne pas savoir » est confondu avec « ne pas être qualifié », où le savoir est une monnaie et le dépenser ressemble à un appauvrissement — poser une question à l’outil IA devient un danger. L’outil n’est pas le problème. La salle est le problème. La culture organisationnelle détermine si l’outil est une ressource ou une menace.

Le cadre d’Edmondson appliqué

Edmondson a défini quatre dimensions du comportement de sécurité psychologique :

Exprimer des préoccupations. Dans l’adoption IA, cela se traduit par : un membre de l’équipe peut-il dire « Cet outil IA m’a donné une réponse que je pense fausse » sans être traité de résistant au changement ? Peut-il signaler une erreur dans le système sans qu’on lui dise qu’il « a juste besoin de plus de formation » ?

Poser des questions. Un membre de l’équipe peut-il demander comment l’outil fonctionne, quelles sont ses limites, ou pourquoi il a donné telle réponse — sans que la question soit interprétée comme de la technophobie ? Un employé junior peut-il poser une question à laquelle un employé senior a répondu incorrectement, sans sanction sociale ?

Admettre des erreurs. Un membre de l’équipe peut-il dire « J’ai utilisé la recommandation de l’outil et c’était faux » sans être blâmé pour avoir fait confiance à l’outil ? Peut-il dire « Je n’ai pas utilisé l’outil parce que je ne faisais pas confiance à sa sortie » sans être blâmé pour ne pas avoir adopté ?

Proposer des idées. Un membre de l’équipe peut-il suggérer une meilleure façon d’utiliser l’outil, modifier le flux de travail ou ajuster l’intégration — sans que la suggestion soit perçue comme une critique de la personne qui a conçu le déploiement ?

Dans la plupart des organisations, la réponse à au moins deux de ces questions est non. Le déploiement se poursuit quand même. L’équipe interagit avec l’outil de manière à minimiser l’auto-exposition : elle pose des questions simples, ne signale pas les erreurs, n’expérimente pas, ne suggère pas d’améliorations. Elle utilise l’outil assez pour éviter d’être marquée comme non-adoptante. Elle ne l’utilise pas assez pour en tirer une vraie valeur.

C’est le plateau d’adoption — la ligne plate entre « déployé » et « intégré » où la plupart des outils IA vivent et meurent.

L’asymétrie de visibilité

Il y a une asymétrie dans l’interaction avec les outils IA qui amplifie le problème de sécurité psychologique.

Quand un membre de l’équipe pose une question à un collègue — « Que signifie DDP ? » — l’interaction est bilatérale. Le collègue sait que vous ne saviez pas. Personne d’autre ne le sait. Le coût social est contenu.

Quand un membre de l’équipe pose la même question à l’outil IA, l’interaction est journalisée. Elle est visible des administrateurs système. Elle peut être visible dans les tableaux de bord d’utilisation. Elle est visible de quiconque passe devant l’écran. L’interaction qui était bilatérale est maintenant potentiellement multilatérale.

Cette asymétrie de visibilité change le calcul. Le coût de poser une question à la machine est plus élevé que le coût de poser une question à un collègue — non parce que la machine juge, mais parce que la question est plus visible. Et dans les environnements où visibilité égale vulnérabilité, une visibilité accrue égale un risque accru.

J’ai observé des équipes développer des contournements spécifiquement pour éviter les interactions IA visibles. Utiliser l’outil sur un appareil personnel. Taper des questions dans l’outil puis effacer l’historique. Demander à un collègue de poser la question à l’outil à leur place. Ce ne sont pas des comportements irrationnels. Ce sont des réponses rationnelles à un environnement où apprendre de manière visible est sanctionné.

Les contournements réduisent les métriques d’adoption. Le management interprète la faible adoption comme la preuve que l’outil n’est pas utile. L’outil est abandonné ou dé-priorisé. La vraie cause — l’environnement, pas l’outil — n’est jamais traitée.

Le paradoxe du manager

L’ironie est que les managers qui portent l’adoption de l’IA sont souvent ceux qui minent involontairement la sécurité psychologique nécessaire.

Le manager qui dit « Cet outil est intuitif — vous devriez pouvoir le maîtriser en un après-midi » a établi un benchmark implicite : la compétence avec cet outil devrait être immédiate. Quiconque a du mal ne satisfait pas au benchmark. La déclaration, voulue encourageante, est reçue comme un standard de performance.

Le manager qui surveille les tableaux de bord d’adoption et demande aux membres de l’équipe pourquoi leur utilisation est faible a établi une autre dynamique : l’utilisation de l’outil est observée. La non-utilisation sera remarquée. L’observation n’est pas neutre — elle porte le poids de l’attention managériale, qui dans la plupart des organisations est associée à l’évaluation. Le suivi, destiné à soutenir l’adoption, est reçu comme de la surveillance.

Le manager qui met en avant les capacités les plus impressionnantes de l’outil dans la démo — la requête complexe, l’analyse astucieuse, la sortie impressionnante — a fixé les attentes au plafond. La première vraie interaction de l’équipe sera une requête simple avec une réponse simple. L’écart entre la démo et la réalité crée de la déception. L’outil qui semblait magique en démo est simplement fonctionnel en pratique. Ce n’est pas un échec — la fonctionnalité est ce qui compte. Mais l’écart s’enregistre comme une déception.

Dans chaque cas, les actions du manager sont bien intentionnées. Dans chaque cas, l’effet est une réduction de la sécurité psychologique autour de l’outil. L’intention est « cet outil va vous aider ». La réception est « cet outil est un truc de plus sur lequel je serai évalué ».

La question derrière la question

Les travaux de Daniel Kahneman sur l’aisance cognitive et la tension cognitive ajoutent une couche. Kahneman a montré que quand les gens rencontrent une information facile à traiter — familière, clairement présentée, conforme aux attentes — ils éprouvent de l’aisance cognitive. Ils se sentent confiants. Ils sont moins susceptibles de s’engager dans une pensée délibérée et critique.

Quand les gens rencontrent une information difficile à traiter — inhabituelle, complexe, non conforme aux attentes — ils éprouvent de la tension cognitive. Ils se sentent incertains. Ils sont plus susceptibles de s’engager dans une pensée délibérée, mais aussi plus susceptibles de se sentir anxieux, mal à l’aise et dans l’évitement.

Un outil IA est une source de tension cognitive. Il est nouveau. Ses sorties sont imprévisibles. Sa logique est opaque. L’interface peut être familière (une fenêtre de chat), mais le schéma d’interaction (parler à une machine qui comprend le langage) est profondément inhabituel. La tension cognitive est inhérente à la nouveauté.

Dans un environnement psychologiquement sûr, la tension cognitive est tolérable. L’incertitude est permise. Les questions sont bienvenues. La tension se résout en apprentissage.

Dans un environnement psychologiquement dangereux, la tension cognitive est intolérable. L’incertitude doit être cachée. Les questions révèlent une faiblesse. La tension se résout en évitement.

La question que le membre de l’équipe pose à l’outil est la question de surface. La question en dessous est : « Est-il sûr pour moi de ne pas savoir cela ? » La réponse à la question de surface vient du modèle IA. La réponse à la question sous-jacente vient de la salle.

Mesurer la sécurité psychologique pour l’adoption IA

Edmondson a développé un questionnaire en sept items pour mesurer la sécurité psychologique. Pour les contextes d’adoption IA, je suggère d’adapter cinq des items :

  1. « Si je fais une erreur en utilisant l’outil IA, cela sera retenu contre moi. » (Score inversé.)
  2. « Les membres de cette équipe sont capables de soulever des problèmes et des sujets difficiles concernant l’outil IA. »
  3. « Les gens de cette équipe rejettent parfois d’autres personnes pour avoir posé des questions basiques à l’outil IA. » (Score inversé.)
  4. « Il est sûr de prendre un risque avec l’outil IA dans cette équipe — comme essayer un nouveau cas d’usage. »
  5. « Il est facile de demander à d’autres membres de cette équipe de l’aide avec l’outil IA. »

Administrez ce questionnaire avant le déploiement IA, deux semaines après et six semaines après. La trajectoire vous en dit plus sur les résultats d’adoption que n’importe quel tableau de bord d’utilisation.

Si les scores baissent après le déploiement — si l’introduction de l’outil IA a réduit la sécurité psychologique — l’outil n’est pas le problème. L’architecture de déploiement l’est. Et la correction n’est pas plus de formation. La correction est l’environnement.

Construire la sécurité avant de construire la capacité

La séquence pratique compte. La plupart des déploiements suivent : construire l’outil, déployer l’outil, former l’équipe, mesurer l’adoption. L’architecture de sécurité psychologique est absente de cette séquence.

La séquence alternative : évaluer la sécurité psychologique de l’équipe, combler les lacunes, déployer l’outil, soutenir l’adoption, mesurer à la fois l’usage et la sécurité.

Avant le déploiement : Menez le questionnaire Edmondson adapté. Si les scores sont en dessous du seuil (Edmondson suggère une moyenne d’équipe de 5,0 sur une échelle de 7 points comme minimum pour un apprentissage d’équipe efficace), adressez d’abord les lacunes de sécurité. Cela peut signifier avoir des conversations explicites sur les attentes d’apprentissage — spécifiquement, que la courbe d’apprentissage est normale, que les questions sont valorisées, et que l’historique des requêtes de l’équipe n’est pas un outil d’évaluation de la performance.

Pendant le déploiement : Prenez trois engagements explicites, par écrit, communiqués à l’équipe et à ses managers. Premièrement : l’historique des requêtes est privé. Aucun manager n’examinera les logs de requêtes individuels. Deuxièmement : la période d’apprentissage est définie (deux à quatre semaines) et pendant cette période, une productivité réduite est attendue et protégée. Troisièmement : le signalement d’erreurs est récompensé. Si l’outil donne une mauvaise réponse et que vous le signalez, c’est une contribution — pas une plainte.

Après le déploiement : Surveillez à la fois les métriques d’adoption et les métriques de sécurité. Si l’adoption augmente et la sécurité tient, le déploiement est sain. Si l’adoption augmente et la sécurité baisse, l’adoption est portée par la conformité et ne se maintiendra pas. Si l’adoption baisse et la sécurité tient, l’outil a peut-être besoin d’amélioration. Si les deux baissent, le déploiement échoue et la cause profonde est environnementale.

L’équipe qui a nommé l’outil

Je veux revenir au signal du nommage — l’observation que quand une équipe donne un nom à son outil IA, l’adoption a franchi un seuil critique.

Le nommage est un indicateur de sécurité psychologique. Nommer l’outil, c’est revendiquer une relation avec lui. C’est dire, publiquement, aux collègues : « J’utilise cet outil. Je le connais assez bien pour le nommer. Mon utilisation fait partie de mon identité professionnelle, pas un secret. » Nommer exige la sécurité d’être associé publiquement à l’outil.

Dans les environnements psychologiquement dangereux, les outils ne sont pas nommés. On les désigne de manière générique — « le système », « le nouveau truc », « cet outil IA ». L’anonymat de la référence est un mécanisme de distance. Le membre de l’équipe ne rejette pas l’outil. Il se protège d’une association trop étroite, au cas où l’association deviendrait un passif.

Quand je vois une équipe qui nomme son outil, je sais que l’environnement est assez sûr pour une adoption soutenue. Quand je vois une équipe qui maintient l’outil à distance linguistique, je sais que l’environnement a besoin de travail — quel que soit ce que disent les métriques d’usage.

La complication du travail à distance

Il y a une dimension de la sécurité psychologique et de l’adoption IA qui est devenue plus pertinente depuis 2020 : le contexte du travail à distance.

Dans un bureau physique, les dynamiques sociales de l’usage d’un outil IA sont partiellement visibles. On voit qui utilise l’outil. On voit l’écran. On entend la requête. La visibilité est à double tranchant : dans les environnements sûrs, elle crée de la preuve sociale (« elle l’utilise, je devrais essayer ») ; dans les environnements dangereux, elle crée de la surveillance (« il pose des questions basiques, il ne doit pas connaître le domaine »).

Dans un environnement de travail à distance, la visibilité est médiatisée par des outils numériques. Partage d’écran, tableaux de bord d’activité, messages Slack — tous créent une visibilité sélective. L’utilisateur contrôle ce qui est visible et ce qui est caché. Ce contrôle peut amplifier la sécurité psychologique (« je peux utiliser l’outil en privé, personne ne voit ma courbe d’apprentissage ») ou la miner (« le tableau de bord d’utilisation montre que j’ai posé 47 questions cette semaine, le management peut voir ça »).

L’environnement hybride — qui est la réalité pour la plupart des entreprises européennes — crée une troisième dynamique. L’équipe au bureau voit l’usage IA de l’autre. L’équipe à distance ne le voit pas. Les conditions de sécurité psychologique diffèrent entre les deux groupes, même au sein de la même équipe. Les membres au bureau développent des pratiques partagées et de la preuve sociale. Les membres à distance non.

L’implication pour le design : pour les équipes hybrides et à distance, les stratégies d’adoption d’outils IA doivent explicitement adresser l’asymétrie de visibilité. Rendre l’usage de l’outil visible par choix, pas par défaut. Partager les succès de l’outil (bonnes sorties, temps économisé) via les canaux d’équipe — volontairement, pas obligatoirement. Créer des opportunités d’apprentissage par les pairs où l’usage de l’outil est explicitement social et exploratoire, pas évaluatif.

Le contexte du travail à distance a rendu la sécurité psychologique à la fois plus importante et plus difficile à cultiver. Le déploiement d’un outil IA doit en tenir compte — non comme un cas particulier, mais comme l’environnement opérationnel standard du lieu de travail européen moderne.

L’intégration

La sécurité psychologique et l’adoption IA ne sont pas des conversations séparées. C’est la même conversation, vue sous des angles différents.

L’industrie de l’IA se concentre sur l’outil : capacités, précision, vitesse, intégration. Le domaine de la psychologie organisationnelle se concentre sur l’environnement : confiance, sécurité, appartenance, autonomie. Les deux ont raison. Aucun n’est suffisant.

Un outil parfait dans un environnement dangereux ne sera pas adopté. Un outil imparfait dans un environnement sûr sera adopté, amélioré et finalement nommé. L’environnement n’est pas un modificateur du succès de l’outil. C’est une condition préalable.

Les travaux d’Edmondson nous donnent le cadre. Kahneman nous donne le mécanisme cognitif. Karasek nous donne la structure demande-contrôle. Ensemble, ils expliquent pourquoi l’outil IA le plus capable du marché peut rester inutilisé sur le bureau d’une équipe tandis qu’un contournement médiocre prospère — parce que le contournement n’exige de personne qu’il révèle ce qu’il ne sait pas.

La machine n’est pas le problème. La salle est le problème. Corrigez la salle, et la machine fonctionne.

La salle est l’architecture. L’architecture est l’ensemble des conditions — confiance, sécurité, contrôle, preuve sociale — qui déterminent si un outil est adopté ou abandonné. Les conditions sont concevables, mesurables et améliorables. Elles ne sont pas mystérieuses. Elles ne sont pas « soft ». Ce sont l’infrastructure de l’adoption, et comme toute infrastructure, elles doivent être construites avant ce qu’elles soutiennent.

Écrit par
Érica
Psychologue Organisationnelle

Elle sait pourquoi les gens résistent aux outils — et comment concevoir des outils qu'ils adoreront. Quand Érica parle, les entreprises changent de cap. Pas par persuasion. Par compréhension.

← Toutes les notes