O Incentivo Que Ninguém Audita
Érica 9 de dezembro de 2025

O Incentivo Que Ninguém Audita

14 min de leitura

Toda a empresa tem uma declaração de valores. A maioria inclui palavras como inovação, colaboração ou agilidade. Muitas incluem as três. Os valores estão no website. Estão na parede da sala de reuniões. Foram tema de um workshop em 2023.

Toda a empresa também tem um sistema de incentivos. O sistema de incentivos inclui objectivos trimestrais, avaliações de desempenho, estruturas de bónus, critérios de promoção e as regras não escritas sobre o que realmente é recompensado e o que é punido. O sistema de incentivos não está na parede. Está nas folhas de cálculo, nas reuniões de calibração e nas conversas de corredor que ninguém acta.

O fosso entre a declaração de valores e o sistema de incentivos é o preditor mais fiável de falha na adopção de IA.

É isto que ninguém audita. Não porque é invisível — porque auditá-lo requer nomear uma contradição que todos conhecem e ninguém quer formalizar.

O Fosso

Uma empresa diz que valoriza inovação. A sua estrutura de bónus recompensa volume de output. Um membro da equipa que passa duas horas a experimentar com a nova ferramenta de IA em vez de processar o próximo lote de facturas inovou — e também produziu duas horas a menos de output mensurável. O sistema de incentivos nota a lacuna de output. A declaração de valores não nota nada, porque declarações de valores não têm mecanismos de medição.

A resposta racional — e uso “racional” no sentido económico, significando consistente com a estrutura de incentivos real — é não inovar. Processar as facturas. Atingir o objectivo. Manter o bónus. Usar a ferramenta de IA durante o almoço, quando muito.

Isto não é resistência à mudança. É interpretação exacta do ambiente de incentivos. O membro da equipa não está a falhar em adoptar. Está a ter sucesso em optimização — optimizando para os sinais que realmente têm consequências.

Os Três Desalinhamentos de Incentivos

Nas empresas com que trabalhei na Bluewaves, três desalinhamentos específicos de incentivos matam a adopção de IA antes de a tecnologia ter sequer oportunidade de se provar.

Desalinhamento 1: Métricas Individuais vs Ferramentas Colaborativas

As ferramentas de IA frequentemente criam valor ao permitir colaboração — partilhar conhecimento entre equipas, revelar padrões que abrangem departamentos, permitir que o insight de uma pessoa amplifique o trabalho de outra. O valor é colectivo. O valor é emergente. O valor resiste a atribuição a um único indivíduo.

Métricas individuais de desempenho não conseguem captar isto. Se a minha avaliação trimestral me avalia pelo número de tickets de clientes que fecho, e a ferramenta de IA me ajuda a fechar tickets mais depressa — isso ajuda-me. Mas se a ferramenta de IA também me ajuda a criar uma entrada na base de conhecimento que ajuda cinco colegas a fechar tickets semelhantes — o valor acumulou-se para a equipa, não para mim. As minhas métricas não melhoram. As métricas dos meus cinco colegas melhoram. Eu investi o esforço. Eles receberam o benefício.

Num sistema de incentivos construído sobre atribuição individual, valor colaborativo é uma externalidade — um benefício que acumula para o sistema mas não é captado pela medida de desempenho do indivíduo. As externalidades são, por definição, sub-produzidas. As pessoas não investem esforço em resultados para os quais não são recompensadas.

A correcção não é eliminar métricas individuais. É acrescentar métricas colaborativas que captem o valor colectivo que as ferramentas de IA produzem. Quantas entradas na base de conhecimento contribuíste? Com que frequência o teu input foi usado por outros? Quantas interacções cross-team a ferramenta facilitou? São mensuráveis. Raramente são medidas.

Desalinhamento 2: Evitamento de Erros vs Experimentação

As ferramentas de IA requerem experimentação. As primeiras dez consultas são consultas de aprendizagem — calibrar o que a ferramenta consegue e não consegue fazer, descobrir os seus pontos fortes e limitações, desenvolver uma intuição para quando a usar e quando não. A experimentação produz alguns erros. Não é uma avaria. É o processo de aprendizagem.

Se o sistema de incentivos penaliza erros — e a maioria penaliza, explícita ou implicitamente — a experimentação acarreta risco. O risco não é catastrófico. Ninguém é despedido por uma consulta de chatbot má. Mas o risco é reputacional: o colega que vê um output medíocre de IA no nosso ecrã, o gestor que nota a queda de qualidade na primeira semana de adopção da ferramenta, a avaliação trimestral onde “explorou a nova ferramenta de IA” não é uma conquista reconhecida mas “manteve padrões de qualidade” é.

A investigação de Edmondson sobre segurança psicológica é relevante aqui, mas a camada de incentivos é distinta da camada de segurança. Podemos ter uma equipa psicologicamente segura — uma onde falar é genuinamente bem-vindo — e ainda ter um sistema de incentivos que penaliza exactamente as experiências que a adopção requer. A equipa sente-se segura para experimentar. O sistema de incentivos pune experimentar. O resultado é uma equipa que sabe que é seguro experimentar mas tem razões racionais para não o fazer.

A correcção: criar uma permissão explícita de experimentação. Não um vago “encorajamos a exploração”. Uma protecção específica e mensurável: 10% do tempo de cada membro da equipa durante o período de adopção é designado para experimentação com a ferramenta, e este tempo é excluído das métricas de desempenho baseadas em output. A permissão deve ser documentada nos critérios de avaliação de desempenho, não apenas comunicada verbalmente. Encorajamento verbal sem protecção estrutural é apenas ruído.

Desalinhamento 3: Métricas de Velocidade vs Curvas de Aprendizagem

As ferramentas de IA tornam o trabalho mais rápido — eventualmente. Durante o período de adopção, tornam o trabalho mais lento. A curva de aprendizagem é real. Procurar como formular uma consulta, interpretar um output desconhecido, verificar a resposta da ferramenta contra o nosso próprio conhecimento — tudo isto leva tempo. Tempo que, num sistema de incentivos optimizado para velocidade, se regista como uma queda de desempenho.

A maioria dos sistemas de incentivos mede velocidade directa ou indirectamente: chamadas tratadas por hora, tickets fechados por dia, relatórios produzidos por semana. Durante o período de adopção, estes números caem. A queda é temporária. A queda é o custo de investimento. Mas o sistema de incentivos não distingue entre “queda de desempenho por incompetência” e “queda de desempenho por investimento de aprendizagem”. Ambas parecem iguais na folha de cálculo.

Um membro da equipa que observa esta dinâmica faz um cálculo: o custo da queda de desempenho (visível, imediato, medido) versus o benefício da fluência com a ferramenta (invisível, diferido, não medido). O cálculo quase sempre favorece abandonar a ferramenta e voltar ao processo existente.

A correcção: suspender métricas baseadas em velocidade durante um período de adopção definido, ou estabelecer uma base de desempenho separada para o período de adopção que contabilize a queda de aprendizagem esperada. “Esperamos que o vosso throughput diminua 15% durante as primeiras duas semanas. Isto está orçamentado.” A especificidade importa. Uma tranquilização vaga — “não se preocupem com os vossos números” — não é credível quando a avaliação de desempenho é daqui a oito semanas.

Porque É Que Ninguém Audita Isto

O fosso entre valores declarados e incentivos reais é conhecido. Em todas as organizações com que trabalhei, pessoas em todos os níveis conseguem descrever o fosso com precisão. O responsável de compras sabe que “inovação” é um valor e “facturas processadas por dia” é uma métrica. O team lead sabe que “colaboração” é um valor e “taxa individual de fecho de tickets” é um critério de bónus. A directora de RH sabe que o template de avaliação de desempenho recompensa output, não aprendizagem.

Ninguém audita o fosso porque auditá-lo requer nomeá-lo. E nomeá-lo cria responsabilização. Se o fosso é documentado — se alguém escreve “o nosso valor declarado é inovação e a nossa estrutura de bónus recompensa volume de output” — então alguém tem de decidir: mudar os valores ou mudar os incentivos.

Ambas as opções são desconfortáveis. Mudar os valores parece abandonar princípios. Mudar os incentivos parece perturbar um sistema que funciona (ou pelo menos opera). Então o fosso persiste, não nomeado e não resolvido, e cada iniciativa que depende dos valores (adopção de IA, plataformas de colaboração, programas de aprendizagem) tem um desempenho inferior porque o sistema de incentivos está a trabalhar contra ela.

Este é o movimento central a que regresso no meu trabalho: nomear o fosso entre o que é declarado e o que é recompensado. O fosso não é uma falha de comunicação. É uma característica estrutural de organizações que não alinharam os seus sistemas de medição com os seus sistemas de aspiração.

A Ligação com Karasek

O modelo exigência-controlo de Robert Karasek acrescenta uma camada que liga o desalinhamento de incentivos ao stress. Karasek mostrou que a configuração de trabalho mais prejudicial é exigências elevadas mais controlo baixo. Quando o sistema de incentivos cria exigências elevadas (atingir os números) e o processo de adopção de IA reduz o controlo (usar esta ferramenta desconhecida de forma desconhecida), a combinação produz tensão laboral — a configuração mais associada a stress crónico, desvinculação e turnover.

O desalinhamento de incentivos amplifica a tensão. O membro da equipa enfrenta exigências concorrentes que não podem ambas ser cumpridas: manter output (exigência de incentivo) e aprender a nova ferramenta (exigência de adopção). O controlo é baixo em ambos os eixos: os objectivos de output não são negociáveis e a adopção da ferramenta é obrigatória. O resultado não é resistência à mudança. É uma resposta de stress a uma configuração impossível.

A intervenção não é motivacional. Não se consegue motivar para ultrapassar uma contradição estrutural. A intervenção é estrutural: resolver as exigências conflituantes ajustando o sistema de incentivos para acomodar o investimento de adopção. É uma decisão de design, não uma decisão de liderança. Requer mudar a folha de cálculo, não o discurso.

A Auditoria

Aqui está como é uma auditoria de incentivos para adopção de IA. Demora um a dois dias. Não custa nada além de honestidade.

Passo 1: Listar as métricas de desempenho reais. Não as aspiracionais. As que aparecem nas avaliações de desempenho, que determinam bónus, que influenciam decisões de promoção. Ser específico: “tickets fechados por dia”, “receita gerada por trimestre”, “projectos concluídos a tempo”. Incluir métricas informais — as coisas que são medidas pela atenção em vez de folhas de cálculo. “Ser visto como produtivo” é uma métrica informal. “Ser visto como team player” é uma métrica informal. Ambas têm consequências reais.

Passo 2: Listar os comportamentos que a adopção de IA requer. Experimentação com a ferramenta. Tolerância à curva de aprendizagem. Partilha de conhecimento na equipa. Reporte de erros quando a ferramenta produz output incorrecto. Investimento de tempo em aprendizagem que não produz output imediato.

Passo 3: Mapear os conflitos. Para cada comportamento de adopção, identificar se as métricas reais de desempenho o recompensam, o ignoram ou o punem. Usar três categorias: alinhado (a métrica recompensa o comportamento), neutro (a métrica não é afectada pelo comportamento) ou desalinhado (a métrica penaliza o comportamento).

O mapa mostrará onde o sistema de incentivos apoia a adopção e onde a mina. Na minha experiência, a maioria das organizações descobre que 30-50% das suas métricas reais estão desalinhadas com os comportamentos que a adopção de IA requer.

Passo 4: Decidir. Para cada desalinhamento, uma de três respostas: mudar a métrica (ajustar o incentivo para alinhar com a adopção), proteger o comportamento (criar uma excepção explícita que proteja o comportamento de adopção da métrica desalinhada), ou aceitar o desalinhamento (reconhecer que este comportamento de adopção específico será sub-produzido e ajustar as expectativas de adopção em conformidade).

A quarta resposta — não fazer nada e esperar — é o padrão na maioria das organizações. É também a razão pela qual a maioria das implantações de IA estagna na fase de adopção.

O Padrão Sazonal

Quero nomear algo que observei nas empresas com que a Bluewaves trabalha, porque se liga ao timing e porque explica um padrão que frustra muitos líderes de TI.

As implantações de IA no Q4 falham a uma taxa superior às do Q1 ou Q2. A tecnologia é a mesma. A formação é a mesma. O caso de uso é o mesmo. A diferença é o ambiente de incentivos.

No Q4, os objectivos anuais estão a aproximar-se. A distância entre real e objectivo está ou a fechar (pressão para manter) ou a alargar (pressão para recuperar). Em ambos os casos, o sistema de incentivos está na intensidade máxima. Cada minuto gasto a aprender uma nova ferramenta é um minuto não gasto a fechar a distância. Cada experiência que reduz output é um luxo que o calendário do Q4 não pode suportar.

No Q1, os objectivos redefiniram-se. A pressão está no mínimo anual. O orçamento para o novo ano está confirmado. Há folga cognitiva — não muita, mas alguma. A mesma ferramenta implantada em Janeiro, à mesma equipa, com a mesma formação, tem melhor desempenho em métricas de adopção do que a mesma ferramenta implantada em Outubro. A diferença é o calendário de incentivos.

Não é uma revelação. É uma observação que a maioria dos cronogramas de implantação ignora porque a data de preparação tecnológica é tratada como a data de implantação, independentemente do ambiente de incentivos. A ferramenta está pronta, por isso implantamos. A equipa não está pronta — estruturalmente, na sua arquitectura de incentivos, fisiologicamente — mas a ferramenta está pronta.

Preparação não é um atributo tecnológico. É um atributo ambiental. O ambiente inclui o sistema de incentivos, e o sistema de incentivos tem estações.

O Papel do Gestor

Quero nomear a posição do gestor especificamente, porque é a posição mais difícil nesta dinâmica.

O gestor está preso entre o sistema de incentivos (que aplica) e o requisito de adopção (que defende). Tem de dizer à equipa “atinjam os vossos números” e também “tirem tempo para aprender a nova ferramenta”. Ambas as instruções saem da sua boca. A equipa ouve ambas. A equipa segue a que tem consequências.

O gestor que diz “quero que explorem a ferramenta de IA” e depois pergunta na sexta-feira “porque é que os vossos números desceram esta semana?” enviou duas mensagens. A segunda cancelou a primeira. O cancelamento não foi intencional. Foi o sistema de incentivos a falar através do gestor — e o sistema de incentivos fala mais alto do que o encorajamento.

A correcção é estrutural, não motivacional. O gestor precisa que o sistema de incentivos seja ajustado antes de poder defender a adopção com credibilidade. “Quero que explorem a ferramenta de IA, e o vosso objectivo foi reduzido em 15% nas próximas duas semanas para criar espaço para essa exploração” é uma mensagem credível. “Quero que explorem a ferramenta de IA, e também que atinjam os mesmos objectivos do mês passado” não é. A equipa sabe a diferença. A equipa sabe sempre a diferença.

A Integração

Mantenho duas coisas abertas sem as resolver.

Primeiro: os sistemas de incentivos existem por razões. Orientam comportamento. Criam responsabilização. Tornam o desempenho visível e mensurável. Desmontá-los em nome da adopção de IA seria irresponsável e desnecessário.

Segundo: os sistemas de incentivos não são neutros. Expressam o que a organização realmente valoriza, independentemente do que a declaração de valores diz. Quando o sistema de incentivos penaliza os comportamentos que a adopção requer, a adopção falha. Não é uma falha de pessoal nem uma falha de tecnologia. É uma falha de design na arquitectura de incentivos.

Ambas as coisas são verdade. O trabalho está no espaço entre elas — ajustar o sistema de incentivos o suficiente para acomodar a adopção sem desmontar a responsabilização que o sistema proporciona.

É trabalho de design, não trabalho de política. Requer especificidade: que métricas, durante que período, com que protecções. Requer medição: o ajuste produziu o comportamento de adopção? Produziu consequências não intencionadas? Requer iteração: o primeiro ajuste será imperfeito. Ajustar de novo.

O incentivo que ninguém audita é o incentivo que determina se a vossa implantação de IA tem sucesso ou falha. Não a tecnologia. Não a formação. Não a comunicação da liderança. A folha de cálculo que determina o que é recompensado e o que é punido.

Auditem o incentivo. A adopção segue o incentivo. Sempre seguiu.

A tecnologia está pronta. A formação está desenhada. O business case é sólido. A liderança está comprometida. Nada disto importa se o sistema de incentivos — o mecanismo real que determina o que as pessoas fazem numa terça-feira à tarde — está a trabalhar contra a adopção.

O incentivo é a infra-estrutura. Auditem a infra-estrutura. Corrijam a infra-estrutura. A adopção segue.

Sempre seguiu.

Escrito por
Érica
Psicóloga Organizacional

Sabe por que razão as pessoas resistem às ferramentas — e como criar ferramentas de que vão gostar. Quando Érica fala, as empresas mudam de direção. Não por persuasão. Por compreensão.

← Todas as notas