L'incitation que personne n'audite
Érica 9 décembre 2025

L'incitation que personne n'audite

15 min de lecture

Chaque entreprise a une déclaration de valeurs. La plupart incluent des mots comme innovation, collaboration ou agilité. Beaucoup incluent les trois. Les valeurs figurent sur le site. Elles sont affichées dans la salle de réunion. Elles ont fait l’objet d’un atelier en 2023.

Chaque entreprise a aussi un système d’incitation. Le système d’incitation comprend les objectifs trimestriels, les évaluations de performance, les structures de bonus, les critères de promotion, et les règles non écrites sur ce qui est réellement récompensé et ce qui est sanctionné. Le système d’incitation n’est pas affiché au mur. Il est dans les tableurs, les réunions de calibration et les conversations de couloir que personne ne consigne.

L’écart entre la déclaration de valeurs et le système d’incitation est le prédicteur le plus fiable de l’échec d’adoption de l’IA.

C’est la chose que personne n’audite. Non pas parce qu’elle est invisible — mais parce que l’auditer exige de nommer une contradiction que tout le monde connaît et que personne ne veut formaliser.

L’écart

Une entreprise dit valoriser l’innovation. Sa structure de bonus récompense le volume de production. Un membre de l’équipe qui passe deux heures à expérimenter le nouvel outil d’IA au lieu de traiter le prochain lot de factures a innové — et a aussi produit deux heures de moins en résultats mesurables. Le système d’incitation remarque l’écart de production. La déclaration de valeurs ne remarque rien, parce que les déclarations de valeurs ne disposent pas de mécanismes de mesure.

La réponse rationnelle — et j’utilise « rationnelle » au sens économique, c’est-à-dire cohérente avec la structure d’incitation réelle — c’est de ne pas innover. Traiter les factures. Atteindre l’objectif. Garder le bonus. Utiliser l’outil d’IA pendant la pause déjeuner, si tant est qu’on l’utilise.

Ce n’est pas de la résistance au changement. C’est une interprétation exacte de l’environnement incitatif. Le membre de l’équipe n’échoue pas à adopter. Il réussit à optimiser — il optimise pour les signaux qui ont réellement des conséquences.

Les trois désalignements incitatifs

Dans les entreprises avec lesquelles j’ai travaillé chez Bluewaves, trois désalignements incitatifs spécifiques tuent l’adoption de l’IA avant même que la technologie ait une chance de faire ses preuves.

Désalignement 1 : Métriques individuelles vs outils collaboratifs

Les outils d’IA créent fréquemment de la valeur en favorisant la collaboration — partager les connaissances entre équipes, faire remonter des patterns qui traversent les départements, permettre à l’insight d’une personne d’amplifier le travail d’une autre. La valeur est collective. La valeur est émergente. La valeur résiste à l’attribution à un seul individu.

Les métriques de performance individuelles ne captent pas cela. Si mon évaluation trimestrielle porte sur le nombre de tickets clients que je clôture, et que l’outil d’IA m’aide à clôturer les tickets plus vite — cela m’aide. Mais si l’outil d’IA m’aide aussi à créer une entrée de base de connaissances qui aide cinq collègues à clôturer des tickets similaires — la valeur revient à l’équipe, pas à moi. Mes métriques ne s’améliorent pas. Les métriques de mes cinq collègues s’améliorent. J’ai investi l’effort. Ils ont reçu le bénéfice.

Dans un système d’incitation construit sur l’attribution individuelle, la valeur collaborative est une externalité — un bénéfice qui revient au système mais qui n’est pas capté par la mesure de performance de l’individu. Les externalités sont, par définition, sous-produites. Les gens n’investissent pas d’effort dans des résultats pour lesquels ils ne sont pas récompensés.

La solution n’est pas d’éliminer les métriques individuelles. C’est d’ajouter des métriques collaboratives qui captent la valeur collective produite par les outils d’IA. Combien d’entrées de base de connaissances avez-vous contribuées ? À quelle fréquence votre apport a-t-il été utilisé par d’autres ? Combien d’interactions inter-équipes l’outil a-t-il facilitées ? Ce sont des choses mesurables. Elles sont rarement mesurées.

Désalignement 2 : Évitement de l’erreur vs expérimentation

Les outils d’IA nécessitent de l’expérimentation. Les dix premières requêtes sont des requêtes d’apprentissage — calibrer ce que l’outil peut et ne peut pas faire, découvrir ses forces et ses limites, développer une intuition sur quand l’utiliser et quand ne pas l’utiliser. L’expérimentation produit des erreurs. Ce n’est pas un dysfonctionnement. C’est le processus d’apprentissage.

Si le système d’incitation pénalise les erreurs — et la plupart le font, explicitement ou implicitement — l’expérimentation comporte un risque. Le risque n’est pas catastrophique. Personne ne se fait licencier pour une mauvaise requête au chatbot. Mais le risque est réputationnel : le collègue qui voit un output IA médiocre sur votre écran, le manager qui remarque la baisse de qualité lors de votre première semaine d’adoption, l’évaluation trimestrielle où « a exploré le nouvel outil IA » n’est pas un accomplissement reconnu alors que « a maintenu les standards de qualité » en est un.

La recherche d’Edmondson sur la sécurité psychologique est pertinente ici, mais la couche incitative est distincte de la couche sécurité. On peut avoir une équipe psychologiquement sûre — une équipe où prendre la parole est sincèrement accueilli — et avoir malgré tout un système d’incitation qui pénalise les expérimentations mêmes que l’adoption requiert. L’équipe se sent en sécurité pour essayer. Le système d’incitation punit le fait d’essayer. Le résultat : une équipe qui sait qu’il n’y a pas de risque à expérimenter mais qui a des raisons rationnelles de ne pas le faire.

La solution : créer une allocation explicite d’expérimentation. Pas un vague « nous encourageons l’exploration. » Une protection spécifique et mesurable : 10 % du temps de chaque membre de l’équipe pendant la période d’adoption est consacré à l’expérimentation avec l’outil, et ce temps est exclu des métriques de performance basées sur la production. L’allocation doit être documentée dans les critères d’évaluation, pas simplement communiquée oralement. L’encouragement verbal sans protection structurelle n’est que du bruit.

Désalignement 3 : Métriques de vitesse vs courbes d’apprentissage

Les outils d’IA accélèrent le travail — à terme. Pendant la période d’adoption, ils le ralentissent. La courbe d’apprentissage est réelle. Chercher comment formuler une requête, interpréter un output inhabituel, vérifier la réponse de l’outil par rapport à ses propres connaissances — tout cela prend du temps. Du temps qui, dans un système d’incitation optimisé pour la vitesse, s’enregistre comme une baisse de performance.

La plupart des systèmes d’incitation mesurent la vitesse directement ou indirectement : appels traités par heure, tickets clôturés par jour, rapports produits par semaine. Pendant la période d’adoption, ces chiffres baissent. La baisse est temporaire. La baisse est le coût de l’investissement. Mais le système d’incitation ne distingue pas « baisse de performance due à l’incompétence » de « baisse de performance due à l’investissement d’apprentissage ». Les deux se ressemblent dans le tableur.

Un membre de l’équipe qui observe cette dynamique fait un calcul : le coût de la baisse de performance (visible, immédiat, mesuré) versus le bénéfice de la maîtrise de l’outil (invisible, différé, non mesuré). Le calcul favorise presque toujours l’abandon de l’outil et le retour au processus existant.

La solution : suspendre les métriques basées sur la vitesse pendant une période d’adoption définie, ou établir une baseline de performance distincte pour la période d’adoption qui prend en compte la baisse d’apprentissage attendue. « Nous prévoyons que votre débit diminuera de 15 % pendant les deux premières semaines. C’est budgété. » La précision compte. Une vague rassurance — « ne vous inquiétez pas pour vos chiffres » — n’est pas crédible quand l’évaluation de performance est dans huit semaines.

Pourquoi personne n’audite cela

L’écart entre les valeurs affichées et les incitations réelles est connu. Dans chaque organisation avec laquelle j’ai travaillé, les gens à tous les niveaux décrivent l’écart avec précision. La responsable des achats sait que « l’innovation » est une valeur et que « factures traitées par jour » est une métrique. Le chef d’équipe sait que « la collaboration » est une valeur et que « taux de clôture individuel des tickets » est un critère de bonus. La DRH sait que le modèle d’évaluation de performance récompense la production, pas l’apprentissage.

Personne n’audite l’écart parce que l’auditer exige de le nommer. Et le nommer crée une responsabilité. Si l’écart est documenté — si quelqu’un écrit « notre valeur affichée est l’innovation et notre structure de bonus récompense le volume de production » — alors quelqu’un doit décider : changer les valeurs ou changer les incitations.

Les deux options sont inconfortables. Changer les valeurs donne l’impression d’abandonner des principes. Changer les incitations donne l’impression de perturber un système qui fonctionne (ou du moins qui tourne). Alors l’écart persiste, non nommé et non résolu, et chaque initiative qui dépend des valeurs (adoption de l’IA, plateformes de collaboration, programmes de formation) sous-performe parce que le système d’incitation travaille contre elle.

C’est le mouvement central auquel je reviens dans mon travail : nommer l’écart entre ce qui est déclaré et ce qui est récompensé. L’écart n’est pas un échec de communication. C’est une caractéristique structurelle des organisations qui n’ont pas aligné leurs systèmes de mesure avec leurs systèmes d’aspiration.

La connexion avec Karasek

Le modèle demande-contrôle de Robert Karasek ajoute une couche qui relie le désalignement incitatif au stress. Karasek a montré que la configuration de travail la plus nocive est la combinaison fortes exigences et faible contrôle. Quand le système d’incitation crée des exigences élevées (atteindre les chiffres) et que le processus d’adoption de l’IA réduit le contrôle (utiliser cet outil inconnu d’une manière inconnue), la combinaison produit de la tension au travail — la configuration la plus associée au stress chronique, au désengagement et au turnover.

Le désalignement incitatif amplifie la tension. Le membre de l’équipe fait face à des exigences contradictoires qui ne peuvent être satisfaites simultanément : maintenir la production (exigence incitative) et apprendre le nouvel outil (exigence d’adoption). Le contrôle est faible sur les deux axes : les objectifs de production ne sont pas négociables, et l’adoption de l’outil est obligatoire. Le résultat n’est pas de la résistance au changement. C’est une réponse de stress face à une configuration impossible.

L’intervention n’est pas motivationnelle. On ne motive pas à travers une contradiction structurelle. L’intervention est structurelle : résoudre les exigences contradictoires en ajustant le système d’incitation pour accommoder l’investissement d’adoption. C’est une décision de design, pas une décision de leadership. Cela nécessite de changer le tableur, pas le discours.

L’audit

Voici à quoi ressemble un audit incitatif pour l’adoption de l’IA. Il prend un à deux jours. Il ne coûte rien d’autre que de l’honnêteté.

Étape 1 : Lister les métriques de performance réelles. Pas les métriques aspirationnelles. Celles qui apparaissent dans les évaluations de performance, qui déterminent les bonus, qui influencent les décisions de promotion. Être précis : « tickets clôturés par jour », « revenu généré par trimestre », « projets livrés dans les délais ». Inclure les métriques informelles — les choses mesurées par l’attention plutôt que par les tableurs. « Être perçu comme productif » est une métrique informelle. « Être perçu comme un bon coéquipier » est une métrique informelle. Les deux ont des conséquences réelles.

Étape 2 : Lister les comportements que l’adoption de l’IA requiert. Expérimentation avec l’outil. Tolérance de la courbe d’apprentissage. Partage de connaissances au sein de l’équipe. Signalement d’erreurs quand l’outil produit un output incorrect. Investissement de temps dans l’apprentissage qui ne produit pas de résultats immédiats.

Étape 3 : Cartographier les conflits. Pour chaque comportement d’adoption, identifier si les métriques de performance réelles le récompensent, l’ignorent ou le pénalisent. Utiliser trois catégories : aligné (la métrique récompense le comportement), neutre (la métrique n’est pas affectée par le comportement), ou désaligné (la métrique pénalise le comportement).

La cartographie montrera où le système d’incitation soutient l’adoption et où il la sape. D’après mon expérience, la plupart des organisations découvrent que 30 à 50 % de leurs métriques réelles sont désalignées avec les comportements que l’adoption de l’IA requiert.

Étape 4 : Décider. Pour chaque désalignement, l’une de trois réponses : changer la métrique (ajuster l’incitation pour l’aligner avec l’adoption), protéger le comportement (créer une exception explicite qui protège le comportement d’adoption de la métrique désalignée), ou accepter le désalignement (reconnaître que ce comportement d’adoption spécifique sera sous-produit et ajuster les attentes d’adoption en conséquence).

La quatrième réponse — ne rien faire et espérer — est la réponse par défaut dans la plupart des organisations. C’est aussi la raison pour laquelle la plupart des déploiements d’IA stagnent à l’étape de l’adoption.

Le pattern saisonnier

Je veux nommer quelque chose que j’ai observé dans les entreprises avec lesquelles Bluewaves travaille, parce que cela a un lien avec le timing et parce que cela explique un pattern qui frustre de nombreux responsables IT.

Les déploiements d’IA du T4 échouent à un taux plus élevé que ceux du T1 ou du T2. La technologie est la même. La formation est la même. Le cas d’usage est le même. La différence, c’est l’environnement incitatif.

Au T4, les objectifs annuels approchent. L’écart entre le réalisé et la cible se réduit (pression pour maintenir) ou se creuse (pression pour rattraper). Dans les deux cas, le système d’incitation est à son intensité maximale. Chaque minute passée à apprendre un nouvel outil est une minute non consacrée à combler l’écart. Chaque expérimentation qui réduit la production est un luxe que le calendrier du T4 ne peut se permettre.

Au T1, les objectifs sont remis à zéro. La pression est à son minimum annuel. Le budget de la nouvelle année est confirmé. Il existe une marge cognitive — pas beaucoup, mais un peu. Le même outil déployé en janvier, auprès de la même équipe, avec la même formation, obtient de meilleurs résultats d’adoption que le même outil déployé en octobre. La différence, c’est le calendrier incitatif.

Ce n’est pas une révélation. C’est une observation que la plupart des calendriers de déploiement ignorent parce que la date de préparation technologique est traitée comme la date de déploiement, indépendamment de l’environnement incitatif. L’outil est prêt, donc on déploie. L’équipe n’est pas prête — structurellement, dans son architecture incitative, physiologiquement — mais l’outil est prêt.

La disponibilité n’est pas un attribut technologique. C’est un attribut environnemental. L’environnement inclut le système d’incitation, et le système d’incitation a des saisons.

Le rôle du manager

Je veux nommer la position du manager spécifiquement, parce que c’est la position la plus difficile dans cette dynamique.

Le manager est pris entre le système d’incitation (qu’il fait appliquer) et l’exigence d’adoption (qu’il défend). Il doit dire à l’équipe « atteignez vos chiffres » et aussi dire à l’équipe « prenez le temps d’apprendre le nouvel outil ». Les deux instructions sortent de sa bouche. L’équipe entend les deux. L’équipe suit celle qui a des conséquences.

Le manager qui dit « je veux que vous exploriez l’outil d’IA » puis demande le vendredi « pourquoi vos chiffres ont baissé cette semaine ? » a envoyé deux messages. Le second a annulé le premier. L’annulation n’était pas intentionnelle. C’était le système d’incitation parlant à travers le manager — et le système d’incitation parle plus fort que l’encouragement.

La solution est structurelle, pas motivationnelle. Le manager a besoin que le système d’incitation soit ajusté avant de pouvoir crédiblement défendre l’adoption. « Je veux que vous exploriez l’outil d’IA, et votre objectif a été réduit de 15 % pour les deux prochaines semaines afin de créer l’espace pour cette exploration » est un message crédible. « Je veux que vous exploriez l’outil d’IA, et aussi que vous atteigniez les mêmes objectifs que le mois dernier » ne l’est pas. L’équipe connaît la différence. L’équipe connaît toujours la différence.

L’intégration

Je tiens deux choses sans les résoudre.

Premièrement : les systèmes d’incitation existent pour des raisons. Ils orientent le comportement. Ils créent de la responsabilité. Ils rendent la performance visible et mesurable. Les démanteler au nom de l’adoption de l’IA serait irresponsable et inutile.

Deuxièmement : les systèmes d’incitation ne sont pas neutres. Ils expriment ce que l’organisation valorise réellement, indépendamment de ce que la déclaration de valeurs dit. Quand le système d’incitation pénalise les comportements que l’adoption requiert, l’adoption échoue. Ce n’est pas un échec de personnel ni un échec technologique. C’est un défaut de conception dans l’architecture incitative.

Les deux choses sont vraies. Le travail se situe dans l’espace entre elles — ajuster le système d’incitation suffisamment pour accommoder l’adoption sans démanteler la responsabilité que le système procure.

C’est un travail de design, pas de politique. Il nécessite de la précision : quelles métriques, pendant quelle période, avec quelles protections. Il nécessite de la mesure : l’ajustement a-t-il produit le comportement d’adoption ? A-t-il produit des conséquences inattendues ? Il nécessite de l’itération : le premier ajustement sera imparfait. Ajuster de nouveau.

L’incitation que personne n’audite est l’incitation qui détermine si votre déploiement d’IA réussit ou échoue. Pas la technologie. Pas la formation. Pas la communication du leadership. Le tableur qui détermine ce qui est récompensé et ce qui est sanctionné.

Auditez l’incitation. L’adoption suit l’incitation. C’est toujours le cas.

La technologie est prête. La formation est conçue. Le business case est solide. Le leadership est engagé. Rien de tout cela ne compte si le système d’incitation — le mécanisme réel qui détermine ce que les gens font un mardi après-midi — travaille contre l’adoption.

L’incitation est l’infrastructure. Auditez l’infrastructure. Réparez l’infrastructure. L’adoption suivra.

C’est toujours le cas.

Écrit par
Érica
Psychologue Organisationnelle

Elle sait pourquoi les gens résistent aux outils — et comment concevoir des outils qu'ils adoreront. Quand Érica parle, les entreprises changent de cap. Pas par persuasion. Par compréhension.

← Toutes les notes