Seguridad psicológica y la pregunta de la IA
Érica 18 de noviembre de 2025

Seguridad psicológica y la pregunta de la IA

14 min de lectura

Amy Edmondson describió por primera vez la seguridad psicológica en 1999, estudiando equipos de enfermería hospitalaria. Esperaba que los equipos con mejores dinámicas interpersonales cometieran menos errores de medicación. En su lugar, encontró lo opuesto: los equipos con alta seguridad psicológica reportaban más errores. No porque cometieran más fallos — porque estaban dispuestos a sacarlos a la luz.

El hallazgo reenmarcó la seguridad. La seguridad psicológica no es la ausencia de errores. Es la creencia de que no serás castigado por sacar a la luz errores, hacer preguntas o admitir lo que no sabes. Los equipos de alto rendimiento no evitan errores. Detectan errores más rápido porque hablar es seguro.

Veintiséis años después, este marco colisiona con la adopción de IA de una forma que Edmondson no anticipó — y que la mayoría de las empresas que despliegan herramientas de IA no han considerado.

El problema de la pregunta de IA

Toda herramienta de IA funciona respondiendo preguntas. Tú preguntas, ella responde. La interfaz es un bucle de pregunta y respuesta, sea la herramienta un chatbot, un motor de búsqueda, un sistema de recomendación o una herramienta de apoyo a la decisión. La interacción fundamental es: el humano pregunta, la máquina responde.

Ahora consideremos lo que revela preguntar.

Cuando un responsable de compras escribe “¿Qué significa el incoterm DDP?” en el asistente de IA de la empresa, la pregunta contiene una admisión: no sé qué significa DDP. En una interacción privada — solo ante el escritorio, nadie mirando — esta admisión no cuesta nada. La máquina no juzga. La máquina no recuerda que no lo sabías. La máquina no se lo dice a tu jefe.

Pero las herramientas de IA se despliegan cada vez más en entornos compartidos. El historial de consultas se registra. La pantalla es visible para los compañeros. El jefe de equipo pregunta: “¿Cómo estáis usando la nueva herramienta?” y la respuesta revela las preguntas que hiciste — lo que revela lo que no sabías.

En un entorno psicológicamente seguro, esto va bien. “No sabía qué significaba DDP, así que le pregunté a la herramienta — ahora lo sé.” La competencia se demuestra a través del aprendizaje, no a través de fingir.

En un entorno psicológicamente inseguro — donde admitir ignorancia conlleva riesgo profesional, donde “no saber” se confunde con “no estar cualificado”, donde el conocimiento es moneda y gastarlo se siente como agotamiento — preguntar a la herramienta de IA se convierte en un peligro. La herramienta no es el problema. La sala es el problema. La cultura organizativa determina si la herramienta es un recurso o una amenaza.

El marco de Edmondson aplicado

Edmondson definió cuatro dimensiones de comportamiento de seguridad psicológica:

Hablar con preocupaciones. En la adopción de IA, esto se traduce en: ¿Puede un miembro del equipo decir “Esta herramienta de IA me dio una respuesta que creo que es incorrecta” sin que lo descarten como resistente al cambio? ¿Puede señalar un error en el sistema sin que le digan que “simplemente necesita más formación”?

Hacer preguntas. ¿Puede un miembro del equipo preguntar cómo funciona la herramienta, cuáles son sus limitaciones o por qué dio una respuesta particular — sin que la pregunta se interprete como tecnofobia? ¿Puede un empleado junior hacer una pregunta que un empleado senior respondió incorrectamente, sin penalización social?

Admitir errores. ¿Puede un miembro del equipo decir “Usé la recomendación de la herramienta y era incorrecta” sin que le culpen por confiar en la herramienta? ¿Puede decir “No usé la herramienta porque no confiaba en su output” sin que le culpen por no adoptarla?

Ofrecer ideas. ¿Puede un miembro del equipo sugerir una mejor forma de usar la herramienta, modificar el flujo de trabajo o ajustar la integración — sin que la sugerencia se perciba como una crítica a la persona que diseñó el despliegue?

En la mayoría de las organizaciones, la respuesta a al menos dos de estas preguntas es no. El despliegue procede de todos modos. El equipo interactúa con la herramienta de formas que minimizan la autoexposición: hacen preguntas simples, no señalan errores, no experimentan, no sugieren mejoras. Usan la herramienta lo suficiente para evitar ser marcados como no-adoptantes. No la usan lo suficiente para derivar valor real.

Esta es la meseta de adopción — la línea plana entre “desplegada” e “integrada” donde la mayoría de las herramientas de IA viven y mueren.

La asimetría de visibilidad

Hay una asimetría en la interacción con herramientas de IA que amplifica el problema de seguridad psicológica.

Cuando un miembro del equipo hace una pregunta a un compañero — “¿Qué significa DDP?” — la interacción es bilateral. El compañero sabe que no lo sabías. Nadie más lo sabe. El coste social está contenido.

Cuando un miembro del equipo hace la misma pregunta a la herramienta de IA, la interacción se registra. Es visible para los administradores del sistema. Puede ser visible en dashboards de uso. Es visible para cualquiera que pase por delante de la pantalla. La interacción que era bilateral es ahora potencialmente multilateral.

Esta asimetría de visibilidad cambia el cálculo. El coste de preguntar a la máquina es mayor que el coste de preguntar a un compañero — no porque la máquina juzgue, sino porque la pregunta es más visible. Y en entornos donde visibilidad equivale a vulnerabilidad, mayor visibilidad equivale a mayor riesgo.

He visto equipos desarrollar soluciones alternativas específicamente para evitar interacciones visibles con la IA. Usar la herramienta en un dispositivo personal. Escribir preguntas en la herramienta y luego borrar el historial. Pedir a un compañero que pregunte a la herramienta en su nombre. No son comportamientos irracionales. Son respuestas racionales a un entorno donde el aprendizaje visible se penaliza.

Las soluciones alternativas reducen las métricas de adopción. La dirección interpreta la baja adopción como evidencia de que la herramienta no es útil. La herramienta se discontinúa o se desprioriza. La causa real — el entorno, no la herramienta — nunca se aborda.

La paradoja del mando

La ironía es que los mandos que promueven la adopción de IA son a menudo quienes inadvertidamente socavan la seguridad psicológica requerida para ella.

El mando que dice “Esta herramienta es intuitiva — deberías poder dominarla en una tarde” ha establecido un punto de referencia implícito: la competencia con esta herramienta debe ser inmediata. Quien tenga dificultades no cumple el punto de referencia. La declaración, pensada para animar, se recibe como un estándar de rendimiento.

El mando que monitoriza dashboards de adopción y pregunta a los miembros del equipo por qué su uso es bajo ha establecido otra dinámica: el uso de la herramienta se observa. El no-uso se notará. La observación no es neutral — lleva el peso de la atención gerencial, que en la mayoría de las organizaciones se asocia con evaluación. La monitorización, pensada para apoyar la adopción, se recibe como vigilancia.

El mando que muestra las capacidades más impresionantes de la herramienta en la demo — la consulta compleja, el análisis inteligente, el output impresionante — ha fijado expectativas en el techo. La primera interacción real del equipo será una consulta simple con una respuesta simple. La brecha entre la demo y la realidad crea decepción. La herramienta que parecía mágica en la demo es meramente funcional en la práctica. No es un fallo — la funcionalidad es lo que importa. Pero la brecha se registra como desilusión.

En cada caso, las acciones del mando son bienintencionadas. En cada caso, el efecto es una reducción de la seguridad psicológica alrededor de la herramienta. La intención es “esta herramienta os ayudará”. La recepción es “esta herramienta es otra cosa por la que me evaluarán”.

La pregunta detrás de la pregunta

El trabajo de Daniel Kahneman sobre facilidad cognitiva y tensión cognitiva añade una capa. Kahneman demostró que cuando las personas encuentran información fácil de procesar — familiar, claramente presentada, consistente con las expectativas — experimentan facilidad cognitiva. Se sienten confiadas. Es menos probable que participen en pensamiento deliberado y crítico.

Cuando las personas encuentran información difícil de procesar — desconocida, compleja, inconsistente con las expectativas — experimentan tensión cognitiva. Se sienten inseguras. Es más probable que participen en pensamiento deliberado, pero también es más probable que se sientan ansiosas, incómodas y evasivas.

Una herramienta de IA es una fuente de tensión cognitiva. Es nueva. Sus outputs son impredecibles. Su lógica es opaca. La interfaz puede ser familiar (una ventana de chat), pero el patrón de interacción (hablar con una máquina que entiende lenguaje) es profundamente desconocido. La tensión cognitiva es inherente a la novedad.

En un entorno psicológicamente seguro, la tensión cognitiva es tolerable. La incertidumbre se permite. Las preguntas son bienvenidas. La tensión se resuelve en aprendizaje.

En un entorno psicológicamente inseguro, la tensión cognitiva es intolerable. La incertidumbre debe ocultarse. Las preguntas revelan debilidad. La tensión se resuelve en evasión.

La pregunta que el miembro del equipo hace a la herramienta es la pregunta de superficie. La pregunta debajo es: “¿Es seguro para mí no saber esto?” La respuesta a la pregunta de superficie viene del modelo de IA. La respuesta a la pregunta subyacente viene de la sala.

Medir la seguridad psicológica para la adopción de IA

Edmondson desarrolló una encuesta de siete ítems para medir la seguridad psicológica. Para contextos de adopción de IA, sugiero adaptar cinco de los ítems:

  1. “Si cometo un error usando la herramienta de IA, se usará en mi contra.” (Puntuación inversa.)
  2. “Los miembros de este equipo pueden sacar problemas y temas difíciles sobre la herramienta de IA.”
  3. “Las personas de este equipo a veces rechazan a otros por hacer preguntas básicas a la herramienta de IA.” (Puntuación inversa.)
  4. “Es seguro correr un riesgo con la herramienta de IA en este equipo — como probar un nuevo caso de uso.”
  5. “Es fácil pedir ayuda a otros miembros de este equipo con la herramienta de IA.”

Administrar esta encuesta antes del despliegue de IA, dos semanas después y seis semanas después. La trayectoria te dice más sobre los resultados de adopción que cualquier dashboard de uso.

Si las puntuaciones descienden tras el despliegue — si la introducción de la herramienta de IA redujo la seguridad psicológica — la herramienta no es el problema. La arquitectura del despliegue sí. Y la solución no es más formación. La solución es el entorno.

Construir seguridad antes de construir capacidad

La secuencia práctica importa. La mayoría de despliegues siguen: construir la herramienta, desplegar la herramienta, formar al equipo, medir la adopción. La arquitectura de seguridad psicológica está ausente de esta secuencia.

La secuencia alternativa: evaluar la seguridad psicológica del equipo, abordar las brechas, desplegar la herramienta, apoyar la adopción, medir tanto uso como seguridad.

Antes del despliegue: Realizar la encuesta adaptada de Edmondson. Si las puntuaciones están por debajo del umbral (Edmondson sugiere una media de equipo de 5,0 en una escala de 7 puntos como mínimo para aprendizaje efectivo de equipo), abordar las brechas de seguridad primero. Esto puede significar tener conversaciones explícitas sobre las expectativas de aprendizaje — específicamente, que la curva de aprendizaje es normal, que las preguntas se valoran, y que el historial de consultas del equipo no es una herramienta de evaluación de rendimiento.

Durante el despliegue: Hacer tres compromisos explícitos, por escrito, comunicados al equipo y a sus mandos. Primero: el historial de consultas es privado. Ningún mando revisará los logs de consultas individuales. Segundo: el periodo de aprendizaje está definido (dos a cuatro semanas) y durante este periodo, la productividad reducida se espera y se protege. Tercero: reportar errores se recompensa. Si la herramienta da una respuesta incorrecta y lo señalas, eso es una contribución — no una queja.

Después del despliegue: Monitorizar tanto métricas de adopción como métricas de seguridad. Si la adopción sube y la seguridad se mantiene, el despliegue es sano. Si la adopción sube y la seguridad baja, la adopción está impulsada por el cumplimiento y no se sostendrá. Si la adopción baja y la seguridad se mantiene, la herramienta puede necesitar mejoras. Si ambas bajan, el despliegue está fallando y la causa raíz es ambiental.

El equipo que le puso nombre a la herramienta

Quiero volver a la señal del nombre — la observación de que cuando un equipo le da un nombre a su herramienta de IA, la adopción ha cruzado un umbral crítico.

Ponerle nombre es un indicador de seguridad psicológica. Nombrar la herramienta es reclamar una relación con ella. Es decir, públicamente, a los compañeros: “Uso esta herramienta. La conozco lo suficiente para ponerle nombre. Mi uso de ella es parte de mi identidad profesional, no un secreto.” Nombrar requiere la seguridad de asociarse con la herramienta públicamente.

En entornos psicológicamente inseguros, las herramientas no se nombran. Se refieren genéricamente — “el sistema”, “lo nuevo”, “esa herramienta de IA”. El anonimato de la referencia es un mecanismo de distancia. El miembro del equipo no está rechazando la herramienta. Se está protegiendo de estar demasiado asociado con ella, por si la asociación se convierte en un pasivo.

Cuando veo un equipo que nombra su herramienta, sé que el entorno es lo bastante seguro para una adopción sostenida. Cuando veo un equipo que mantiene la herramienta a distancia lingüística, sé que el entorno necesita trabajo — independientemente de lo que digan las métricas de uso.

La complicación del trabajo remoto

Hay una dimensión de la seguridad psicológica y la adopción de IA que se ha vuelto más relevante desde 2020: el contexto del trabajo remoto.

En una oficina física, las dinámicas sociales del uso de herramientas de IA son parcialmente visibles. Puedes ver quién usa la herramienta. Puedes ver la pantalla. Puedes oír la consulta. La visibilidad es una espada de doble filo: en entornos seguros, crea prueba social (“ella la usa, yo debería probarla”); en entornos inseguros, crea vigilancia (“él hace preguntas básicas, debe no conocer el dominio”).

En un entorno de trabajo remoto, la visibilidad está mediada por herramientas digitales. Compartir pantalla, dashboards de actividad, mensajes de Slack — todos crean visibilidad selectiva. El usuario controla qué es visible y qué está oculto. Este control puede amplificar la seguridad psicológica (“puedo usar la herramienta en privado, nadie ve mi curva de aprendizaje”) o socavarla (“el dashboard de uso muestra que he hecho 47 preguntas esta semana, la dirección puede verlo”).

El entorno híbrido — que es la realidad para la mayoría de las empresas de la UE — crea una tercera dinámica. El equipo en la oficina ve el uso de IA de los demás. El equipo remoto no. Las condiciones de seguridad psicológica difieren entre los dos grupos, incluso dentro del mismo equipo. Los miembros en la oficina desarrollan prácticas compartidas y prueba social. Los miembros remotos no.

La implicación de diseño: para equipos híbridos y remotos, las estrategias de adopción de herramientas de IA deben abordar explícitamente la asimetría de visibilidad. Hacer visible el uso de la herramienta por elección, no por defecto. Compartir éxitos de la herramienta (buenos outputs, tiempo ahorrado) a través de canales de equipo — voluntariamente, no obligatoriamente. Crear oportunidades de aprendizaje entre iguales donde el uso de la herramienta sea explícitamente social y exploratorio, no evaluativo.

El contexto del trabajo remoto ha hecho la seguridad psicológica tanto más importante como más difícil de cultivar. El despliegue de la herramienta de IA debe tenerlo en cuenta — no como un caso especial, sino como el entorno operativo estándar del lugar de trabajo europeo moderno.

La integración

La seguridad psicológica y la adopción de IA no son conversaciones separadas. Son la misma conversación, vista desde ángulos diferentes.

La industria de la IA se centra en la herramienta: capacidades, precisión, velocidad, integración. El campo de la psicología organizacional se centra en el entorno: confianza, seguridad, pertenencia, autonomía. Ambos tienen razón. Ninguno es suficiente.

Una herramienta perfecta en un entorno inseguro no se adoptará. Una herramienta imperfecta en un entorno seguro se adoptará, se mejorará y eventualmente recibirá un nombre. El entorno no es un modificador del éxito de la herramienta. Es una precondición.

El trabajo de Edmondson nos da el marco. Kahneman nos da el mecanismo cognitivo. Karasek nos da la estructura demanda-control. Juntos, explican por qué la herramienta de IA más capaz del mercado puede quedarse sin usar en el escritorio de un equipo mientras una solución alternativa mediocre prospera — porque la solución alternativa no requiere que nadie revele lo que no sabe.

La máquina no es el problema. La sala es el problema. Arregla la sala, y la máquina funciona.

La sala es la arquitectura. La arquitectura es el conjunto de condiciones — confianza, seguridad, control, prueba social — que determinan si una herramienta se adopta o se abandona. Las condiciones son diseñables, medibles y mejorables. No son misteriosas. No son blandas. Son la infraestructura de la adopción, y como toda infraestructura, deben construirse antes de lo que sostienen.

Escrito por
Érica
Psicóloga Organizacional

Sabe por qué la gente rechaza las herramientas — y cómo diseñar herramientas que amarán. Cuando Érica habla, las empresas cambian de rumbo. No por persuasión. Por comprensión.

← Todas las notas