Segurança Psicológica e a Questão da IA
Érica 18 de novembro de 2025

Segurança Psicológica e a Questão da IA

14 min de leitura

Amy Edmondson descreveu pela primeira vez a segurança psicológica em 1999, estudando equipas de enfermagem em hospitais. Esperava que equipas com melhor dinâmica interpessoal cometessem menos erros de medicação. Em vez disso, encontrou o oposto: equipas com elevada segurança psicológica reportavam mais erros. Não porque cometessem mais enganos — porque estavam dispostas a revelá-los.

A conclusão redefiniu a segurança. Segurança psicológica não é a ausência de erros. É a convicção de que não se será punido por revelar erros, fazer perguntas ou admitir o que não se sabe. Equipas de alto desempenho não evitam erros. Detectam erros mais depressa porque falar é seguro.

Vinte e seis anos depois, este enquadramento colide com a adopção de IA de uma forma que Edmondson não antecipou — e que a maioria das empresas que implantam ferramentas de IA não considerou.

O Problema da Pergunta à IA

Toda a ferramenta de IA funciona respondendo a perguntas. Perguntamos, ela responde. A interface é um ciclo de pergunta-e-resposta, quer a ferramenta seja um chatbot, um motor de busca, um sistema de recomendação ou uma ferramenta de apoio à decisão. A interacção fundamental é: o humano pergunta, a máquina responde.

Agora consideremos o que perguntar revela.

Quando um responsável de compras escreve “O que significa o incoterm DDP?” no assistente de IA da empresa, a pergunta contém uma admissão: não sei o que DDP significa. Numa interacção privada — sozinho à secretária, ninguém a ver — esta admissão não custa nada. A máquina não julga. A máquina não se lembra que não sabíamos. A máquina não conta ao nosso chefe.

Mas as ferramentas de IA são cada vez mais implantadas em ambientes partilhados. O histórico de consultas é registado. O ecrã é visível para colegas. O team lead pergunta “Como estão a usar a nova ferramenta?” e a resposta revela as perguntas que fizemos — o que revela o que não sabíamos.

Num ambiente psicologicamente seguro, isto não é problema. “Não sabia o que DDP significava, por isso perguntei à ferramenta — agora sei.” A competência demonstra-se pela aprendizagem, não pela dissimulação.

Num ambiente psicologicamente inseguro — onde admitir ignorância acarreta risco de carreira, onde “não saber” é confundido com “não estar qualificado”, onde o conhecimento é moeda e gastá-la parece depleção — perguntar à ferramenta de IA torna-se perigoso. A ferramenta não é o problema. A sala é o problema. A cultura organizacional determina se a ferramenta é um recurso ou uma ameaça.

O Enquadramento de Edmondson Aplicado

Edmondson definiu quatro dimensões do comportamento de segurança psicológica:

Falar sobre preocupações. Na adopção de IA, isto traduz-se em: Pode um membro da equipa dizer “Esta ferramenta de IA deu-me uma resposta que acho que está errada” sem ser descartado como resistente à mudança? Pode assinalar um erro no sistema sem lhe dizerem que “só precisa de mais formação”?

Fazer perguntas. Pode um membro da equipa perguntar como a ferramenta funciona, quais são as suas limitações ou porque deu uma resposta particular — sem a pergunta ser interpretada como tecnofobia? Pode um funcionário júnior fazer uma pergunta que um funcionário sénior respondeu incorrectamente, sem penalização social?

Admitir erros. Pode um membro da equipa dizer “Usei a recomendação da ferramenta e estava errada” sem ser culpado por confiar na ferramenta? Pode dizer “Não usei a ferramenta porque não confiei no output” sem ser culpado por não adoptar?

Propor ideias. Pode um membro da equipa sugerir uma melhor forma de usar a ferramenta, modificar o fluxo de trabalho ou ajustar a integração — sem a sugestão ser percebida como uma crítica à pessoa que desenhou a implantação?

Na maioria das organizações, a resposta a pelo menos duas destas perguntas é não. A implantação prossegue na mesma. A equipa interage com a ferramenta de formas que minimizam a auto-exposição: fazem perguntas simples, não assinalam erros, não experimentam, não sugerem melhorias. Usam a ferramenta o suficiente para não serem marcados como não-adopters. Não a usam o suficiente para obter valor real.

Este é o patamar de adopção — a linha plana entre “implantado” e “integrado” onde a maioria das ferramentas de IA vive e morre.

A Assimetria de Visibilidade

Há uma assimetria na interacção com ferramentas de IA que amplifica o problema de segurança psicológica.

Quando um membro da equipa faz uma pergunta a um colega — “O que significa DDP?” — a interacção é bilateral. O colega sabe que não sabíamos. Mais ninguém sabe. O custo social está contido.

Quando um membro da equipa faz a mesma pergunta à ferramenta de IA, a interacção é registada. É visível para administradores do sistema. Pode ser visível em dashboards de utilização. É visível para qualquer pessoa que passe pelo ecrã. A interacção que era bilateral é agora potencialmente multilateral.

Esta assimetria de visibilidade muda o cálculo. O custo de perguntar à máquina é superior ao custo de perguntar a um colega — não porque a máquina julgue, mas porque a pergunta é mais visível. E em ambientes onde visibilidade é igual a vulnerabilidade, mais visibilidade é igual a mais risco.

Observei equipas a desenvolver contornos especificamente para evitar interacções visíveis com IA. Usar a ferramenta num dispositivo pessoal. Escrever perguntas na ferramenta e depois apagar o histórico. Pedir a um colega para perguntar à ferramenta por eles. Não são comportamentos irracionais. São respostas racionais a um ambiente onde a aprendizagem visível é penalizada.

Os contornos reduzem as métricas de adopção. A gestão interpreta a baixa adopção como evidência de que a ferramenta não é útil. A ferramenta é descontinuada ou desinvestida. A causa real — o ambiente, não a ferramenta — nunca é abordada.

O Paradoxo do Gestor

A ironia é que os gestores que defendem a adopção de IA são frequentemente os que inadvertidamente minam a segurança psicológica necessária para ela.

O gestor que diz “Esta ferramenta é intuitiva — deviam conseguir percebê-la numa tarde” estabeleceu um benchmark implícito: a competência com esta ferramenta deve ser imediata. Qualquer pessoa que tenha dificuldades não está a cumprir o benchmark. A declaração, com intenção de encorajar, é recebida como um padrão de desempenho.

O gestor que monitoriza dashboards de adopção e pergunta aos membros da equipa porque é que o seu uso é baixo estabeleceu outra dinâmica: o uso da ferramenta é observado. O não-uso será notado. A observação não é neutra — carrega o peso da atenção da gestão, que na maioria das organizações está associada a avaliação. A monitorização, com intenção de apoiar a adopção, é recebida como vigilância.

O gestor que mostra as capacidades mais impressionantes da ferramenta na demo — a consulta complexa, a análise inteligente, o output impressionante — definiu expectativas no tecto. A primeira interacção real da equipa será uma consulta simples com uma resposta simples. A distância entre a demo e a realidade cria desilusão. A ferramenta que parecia mágica na demo é meramente funcional na prática. Isto não é uma falha — a funcionalidade é o que importa. Mas a distância regista-se como uma decepção.

Em cada caso, as acções do gestor são bem-intencionadas. Em cada caso, o efeito é uma redução da segurança psicológica em torno da ferramenta. A intenção é “esta ferramenta vai ajudar-vos”. A recepção é “esta ferramenta é mais uma coisa em que vou ser avaliado”.

A Pergunta Por Trás da Pergunta

O trabalho de Daniel Kahneman sobre facilidade cognitiva e tensão cognitiva acrescenta uma camada. Kahneman mostrou que quando as pessoas encontram informação fácil de processar — familiar, claramente apresentada, consistente com expectativas — experimentam facilidade cognitiva. Sentem-se confiantes. São menos propensas a envolver-se em pensamento deliberado e crítico.

Quando as pessoas encontram informação difícil de processar — desconhecida, complexa, inconsistente com expectativas — experimentam tensão cognitiva. Sentem-se incertas. São mais propensas a envolver-se em pensamento deliberado, mas também mais propensas a sentir ansiedade, desconforto e aversão.

Uma ferramenta de IA é uma fonte de tensão cognitiva. É nova. Os seus outputs são imprevisíveis. A sua lógica é opaca. A interface pode ser familiar (uma janela de chat), mas o padrão de interacção (falar com uma máquina que compreende linguagem) é profundamente desconhecido. A tensão cognitiva é inerente à novidade.

Num ambiente psicologicamente seguro, a tensão cognitiva é tolerável. A incerteza é permitida. As perguntas são bem-vindas. A tensão resolve-se em aprendizagem.

Num ambiente psicologicamente inseguro, a tensão cognitiva é intolerável. A incerteza tem de ser escondida. As perguntas revelam fraqueza. A tensão resolve-se em evitamento.

A pergunta que o membro da equipa faz à ferramenta é a pergunta de superfície. A pergunta por baixo é: “É seguro para mim não saber isto?” A resposta à pergunta de superfície vem do modelo de IA. A resposta à pergunta subjacente vem da sala.

Medir a Segurança Psicológica para a Adopção de IA

Edmondson desenvolveu um inquérito de sete itens para medir a segurança psicológica. Para contextos de adopção de IA, sugiro adaptar cinco dos itens:

  1. “Se eu cometer um erro ao usar a ferramenta de IA, será usado contra mim.” (Pontuação invertida.)
  2. “Os membros desta equipa conseguem levantar problemas e questões difíceis sobre a ferramenta de IA.”
  3. “As pessoas nesta equipa por vezes rejeitam outros por fazerem perguntas básicas à ferramenta de IA.” (Pontuação invertida.)
  4. “É seguro correr um risco com a ferramenta de IA nesta equipa — como experimentar um novo caso de uso.”
  5. “É fácil pedir ajuda a outros membros desta equipa com a ferramenta de IA.”

Administrem este inquérito antes da implantação de IA, duas semanas depois e seis semanas depois. A trajectória diz mais sobre os resultados de adopção do que qualquer dashboard de utilização.

Se os scores diminuem após a implantação — se a introdução da ferramenta de IA reduziu a segurança psicológica — a ferramenta não é o problema. A arquitectura de implantação é. E a correcção não é mais formação. A correcção é o ambiente.

Construir Segurança Antes de Construir Capacidade

A sequência prática importa. A maioria das implantações segue: construir a ferramenta, implantar a ferramenta, formar a equipa, medir a adopção. A arquitectura de segurança psicológica está ausente desta sequência.

A sequência alternativa: avaliar a segurança psicológica da equipa, abordar as lacunas, implantar a ferramenta, apoiar a adopção, medir tanto utilização como segurança.

Antes da implantação: Conduzir o inquérito adaptado de Edmondson. Se os scores estão abaixo do limiar (Edmondson sugere uma média de equipa de 5,0 numa escala de 7 pontos como mínimo para aprendizagem eficaz da equipa), abordar as lacunas de segurança primeiro. Isto pode significar ter conversas explícitas sobre as expectativas de aprendizagem — especificamente, que a curva de aprendizagem é normal, que as perguntas são valorizadas e que o histórico de consultas da equipa não é uma ferramenta de avaliação de desempenho.

Durante a implantação: Fazer três compromissos explícitos, por escrito, comunicados à equipa e aos seus gestores. Primeiro: o histórico de consultas é privado. Nenhum gestor irá rever logs individuais de consultas. Segundo: o período de aprendizagem está definido (duas a quatro semanas) e durante este período, produtividade reduzida é esperada e protegida. Terceiro: reportar erros é recompensado. Se a ferramenta dá uma resposta errada e a assinalam, isso é uma contribuição — não uma queixa.

Após a implantação: Monitorizar tanto métricas de adopção como métricas de segurança. Se a adopção sobe e a segurança mantém-se, a implantação é saudável. Se a adopção sobe e a segurança desce, a adopção é motivada por conformidade e não se vai sustentar. Se a adopção desce e a segurança mantém-se, a ferramenta pode precisar de melhoria. Se ambas descem, a implantação está a falhar e a causa raiz é ambiental.

A Equipa Que Deu Nome à Ferramenta

Quero regressar ao sinal do nome — a observação de que quando uma equipa dá nome à sua ferramenta de IA, a adopção cruzou um limiar crítico.

Dar o nome é um indicador de segurança psicológica. Nomear a ferramenta é reclamar uma relação com ela. É dizer, publicamente, aos colegas: “Uso esta ferramenta. Conheço-a bem o suficiente para lhe dar nome. O meu uso dela faz parte da minha identidade profissional, não é um segredo.” Nomear requer a segurança de ser associado à ferramenta publicamente.

Em ambientes psicologicamente inseguros, as ferramentas não são nomeadas. São referidas genericamente — “o sistema”, “a coisa nova”, “aquela ferramenta de IA”. O anonimato da referência é um mecanismo de distância. O membro da equipa não está a rejeitar a ferramenta. Está a proteger-se de ficar demasiado associado a ela, caso a associação se torne uma responsabilidade.

Quando vejo uma equipa que dá nome à sua ferramenta, sei que o ambiente é seguro o suficiente para adopção sustentada. Quando vejo uma equipa que mantém a ferramenta à distância linguisticamente, sei que o ambiente precisa de trabalho — independentemente do que as métricas de utilização dizem.

A Complicação do Trabalho Remoto

Há uma dimensão da segurança psicológica e adopção de IA que se tornou mais relevante desde 2020: o contexto do trabalho remoto.

Num escritório físico, as dinâmicas sociais do uso de ferramentas de IA são parcialmente visíveis. Vê-se quem usa a ferramenta. Vê-se o ecrã. Ouve-se a consulta. A visibilidade é uma faca de dois gumes: em ambientes seguros, cria prova social (“ela está a usar, devia experimentar”); em ambientes inseguros, cria vigilância (“ele está a fazer perguntas básicas, deve não conhecer o domínio”).

Num ambiente de trabalho remoto, a visibilidade é mediada por ferramentas digitais. Partilha de ecrã, dashboards de actividade, mensagens no Slack — tudo cria visibilidade selectiva. O utilizador controla o que é visível e o que é escondido. Este controlo pode amplificar a segurança psicológica (“posso usar a ferramenta em privado, ninguém vê a minha curva de aprendizagem”) ou miná-la (“o dashboard de utilização mostra que fiz 47 perguntas esta semana, a gestão pode ver isso”).

O ambiente híbrido — que é a realidade da maioria das empresas europeias — cria uma terceira dinâmica. A equipa no escritório vê o uso de IA uns dos outros. A equipa remota não vê. As condições de segurança psicológica diferem entre os dois grupos, mesmo dentro da mesma equipa. Os membros no escritório desenvolvem práticas partilhadas e prova social. Os membros remotos não.

A implicação de design: para equipas híbridas e remotas, as estratégias de adopção de ferramentas de IA devem abordar explicitamente a assimetria de visibilidade. Tornar o uso da ferramenta visível por escolha, não por defeito. Partilhar sucessos da ferramenta (bons outputs, tempo poupado) por canais de equipa — voluntariamente, não obrigatoriamente. Criar oportunidades de aprendizagem entre pares onde o uso da ferramenta é explicitamente social e exploratório, não avaliativo.

O contexto do trabalho remoto tornou a segurança psicológica simultaneamente mais importante e mais difícil de cultivar. A implantação da ferramenta de IA deve contabilizar isto — não como caso especial, mas como o ambiente operacional padrão do local de trabalho europeu moderno.

A Integração

Segurança psicológica e adopção de IA não são conversas separadas. São a mesma conversa, vista de ângulos diferentes.

A indústria de IA foca-se na ferramenta: capacidades, exactidão, velocidade, integração. O campo da psicologia organizacional foca-se no ambiente: confiança, segurança, pertença, autonomia. Ambos estão certos. Nenhum é suficiente.

Uma ferramenta perfeita num ambiente inseguro não será adoptada. Uma ferramenta imperfeita num ambiente seguro será adoptada, melhorada e eventualmente nomeada. O ambiente não é um modificador do sucesso da ferramenta. É uma pré-condição.

O trabalho de Edmondson dá-nos o enquadramento. Kahneman dá-nos o mecanismo cognitivo. Karasek dá-nos a estrutura de exigência-controlo. Juntos, explicam porque é que a ferramenta de IA mais capaz do mercado pode ficar sem uso no ambiente de trabalho de uma equipa enquanto uma alternativa medíocre prospera — porque a alternativa não exige que ninguém revele o que não sabe.

A máquina não é o problema. A sala é o problema. Corrijam a sala, e a máquina funciona.

A sala é a arquitectura. A arquitectura é o conjunto de condições — confiança, segurança, controlo, prova social — que determina se uma ferramenta é adoptada ou abandonada. As condições são desenháveis, mensuráveis e melhoráveis. Não são misteriosas. Não são soft. São a infra-estrutura da adopção e, como toda a infra-estrutura, devem ser construídas antes daquilo que suportam.

Escrito por
Érica
Psicóloga Organizacional

Sabe por que razão as pessoas resistem às ferramentas — e como criar ferramentas de que vão gostar. Quando Érica fala, as empresas mudam de direção. Não por persuasão. Por compreensão.

← Todas as notas