El incentivo que nadie audita
Érica 9 de diciembre de 2025

El incentivo que nadie audita

14 min de lectura

Toda empresa tiene una declaración de valores. La mayoría incluye palabras como innovación, colaboración o agilidad. Muchas incluyen las tres. Los valores están en la web. Están en la pared de la sala de reuniones. Fueron objeto de un taller en 2023.

Toda empresa también tiene un sistema de incentivos. El sistema de incentivos incluye objetivos trimestrales, evaluaciones de rendimiento, estructuras de bonus, criterios de promoción, y las reglas no escritas sobre lo que realmente se recompensa y lo que se castiga. El sistema de incentivos no está en la pared. Está en las hojas de cálculo, en las reuniones de calibración y en las conversaciones de pasillo que nadie levanta acta.

La brecha entre la declaración de valores y el sistema de incentivos es el predictor más fiable de fracaso en la adopción de IA.

Es lo que nadie audita. No porque sea invisible — porque auditarlo requiere nombrar una contradicción que todos conocen y nadie quiere formalizar.

La brecha

Una empresa dice que valora la innovación. Su estructura de bonus recompensa el volumen de output. Un miembro del equipo que dedica dos horas a experimentar con la nueva herramienta de IA en vez de procesar el siguiente lote de facturas ha innovado — y también ha producido dos horas menos de output medible. El sistema de incentivos nota la brecha de output. La declaración de valores no nota nada, porque las declaraciones de valores no tienen mecanismos de medición.

La respuesta racional — y uso “racional” en el sentido económico, es decir, consistente con la estructura de incentivos real — es no innovar. Procesar las facturas. Cumplir el objetivo. Mantener el bonus. Usar la herramienta de IA en el almuerzo, si acaso.

No es resistencia al cambio. Es interpretación precisa del entorno de incentivos. El miembro del equipo no está fallando en adoptar. Está teniendo éxito en optimizar — optimizando para las señales que realmente tienen consecuencias.

Los tres desalineamientos de incentivos

En las empresas con las que he trabajado en Bluewaves, tres desalineamientos de incentivos específicos matan la adopción de IA antes de que la tecnología tenga siquiera la oportunidad de demostrar su valor.

Desalineamiento 1: Métricas individuales vs herramientas colaborativas

Las herramientas de IA frecuentemente crean valor habilitando la colaboración — compartir conocimiento entre equipos, sacar a la superficie patrones que abarcan departamentos, permitir que la aportación de una persona amplifique el trabajo de otra. El valor es colectivo. El valor es emergente. El valor se resiste a la atribución a un solo individuo.

Las métricas de rendimiento individual no pueden capturar esto. Si mi evaluación trimestral me valora por el número de tickets de cliente que cierro, y la herramienta de IA me ayuda a cerrar tickets más rápido — eso me ayuda. Pero si la herramienta de IA también me ayuda a crear una entrada en la base de conocimiento que ayuda a cinco compañeros a cerrar tickets similares — el valor revirtió en el equipo, no en mí. Mis métricas no mejoran. Las de mis cinco compañeros sí. Yo invertí el esfuerzo. Ellos recibieron el beneficio.

En un sistema de incentivos construido sobre atribución individual, el valor colaborativo es una externalidad — un beneficio que revierte en el sistema pero no se captura en la medida de rendimiento del individuo. Las externalidades, por definición, se subproducen. Las personas no invierten esfuerzo en resultados por los que no se les recompensa.

La corrección no es eliminar métricas individuales. Es añadir métricas colaborativas que capturen el valor colectivo que producen las herramientas de IA. ¿Cuántas entradas de base de conocimiento contribuiste? ¿Con qué frecuencia fue utilizada tu aportación por otros? ¿Cuántas interacciones entre equipos facilitó la herramienta? Son medibles. Raramente se miden.

Desalineamiento 2: Evitación de errores vs experimentación

Las herramientas de IA requieren experimentación. Las primeras diez consultas son consultas de aprendizaje — calibrando qué puede y no puede hacer la herramienta, descubriendo sus fortalezas y limitaciones, desarrollando una intuición sobre cuándo usarla y cuándo no. La experimentación produce algunos errores. No es un mal funcionamiento. Es el proceso de aprendizaje.

Si el sistema de incentivos penaliza los errores — y la mayoría lo hace, explícita o implícitamente — la experimentación conlleva riesgo. El riesgo no es catastrófico. Nadie es despedido por una mala consulta a un chatbot. Pero el riesgo es reputacional: el compañero que ve un output mediocre de IA en tu pantalla, el mando que nota la bajada de calidad en tu primera semana de adopción de la herramienta, la evaluación trimestral donde “exploré la nueva herramienta de IA” no es un logro reconocido pero “mantuve los estándares de calidad” sí lo es.

La investigación de Edmondson sobre seguridad psicológica es relevante aquí, pero la capa de incentivos es distinta de la capa de seguridad. Puedes tener un equipo psicológicamente seguro — uno donde hablar se acoge genuinamente — y aun así tener un sistema de incentivos que penaliza los mismos experimentos que la adopción requiere. El equipo se siente seguro para probar. El sistema de incentivos castiga probar. El resultado es un equipo que sabe que es seguro experimentar pero tiene razones racionales para no hacerlo.

La corrección: crear una asignación de experimentación explícita. No un vago “animamos a explorar”. Una protección específica y medible: el 10 % del tiempo de cada miembro del equipo durante el periodo de adopción se designa para experimentación con la herramienta, y este tiempo se excluye de las métricas de rendimiento basadas en output. La asignación debe documentarse en los criterios de evaluación de rendimiento, no solo comunicarse verbalmente. El ánimo verbal sin protección estructural es solo ruido.

Desalineamiento 3: Métricas de velocidad vs curvas de aprendizaje

Las herramientas de IA hacen el trabajo más rápido — eventualmente. Durante el periodo de adopción, lo hacen más lento. La curva de aprendizaje es real. Buscar cómo formular una consulta, interpretar un output desconocido, verificar la respuesta de la herramienta contra tu propio conocimiento — todo esto lleva tiempo. Tiempo que, en un sistema de incentivos optimizado para velocidad, se registra como una caída de rendimiento.

La mayoría de los sistemas de incentivos miden velocidad directa o indirectamente: llamadas gestionadas por hora, tickets cerrados al día, informes producidos por semana. Durante el periodo de adopción, estos números bajan. La bajada es temporal. La bajada es el coste de la inversión. Pero el sistema de incentivos no distingue entre “bajada de rendimiento por incompetencia” y “bajada de rendimiento por inversión en aprendizaje”. Ambas se ven igual en la hoja de cálculo.

Un miembro del equipo que observa esta dinámica hace un cálculo: el coste de la bajada de rendimiento (visible, inmediato, medido) versus el beneficio de la fluidez con la herramienta (invisible, diferido, no medido). El cálculo casi siempre favorece abandonar la herramienta y volver al proceso existente.

La corrección: suspender las métricas basadas en velocidad durante un periodo de adopción definido, o establecer una línea base de rendimiento separada para el periodo de adopción que tenga en cuenta la bajada de aprendizaje esperada. “Esperamos que tu productividad disminuya un 15 % durante las dos primeras semanas. Esto está presupuestado.” La especificidad importa. Una tranquilización vaga — “no os preocupéis por los números” — no es creíble cuando la evaluación de rendimiento es dentro de ocho semanas.

Por qué nadie audita esto

La brecha entre valores declarados e incentivos reales es conocida. En cada organización con la que he trabajado, las personas a todos los niveles pueden describir la brecha con precisión. El responsable de compras sabe que “innovación” es un valor y “facturas procesadas por día” es una métrica. El jefe de equipo sabe que “colaboración” es un valor y “tasa de cierre individual de tickets” es un criterio de bonus. La directora de RRHH sabe que la plantilla de evaluación de rendimiento recompensa el output, no el aprendizaje.

Nadie audita la brecha porque auditarla requiere nombrarla. Y nombrarla crea responsabilidad. Si la brecha se documenta — si alguien escribe “nuestro valor declarado es innovación y nuestra estructura de bonus recompensa volumen de output” — entonces alguien debe decidir: cambiar los valores o cambiar los incentivos.

Ambas opciones son incómodas. Cambiar los valores se siente como abandonar principios. Cambiar los incentivos se siente como alterar un sistema que funciona (o al menos opera). Así que la brecha persiste, sin nombre y sin resolver, y toda iniciativa que dependa de los valores (adopción de IA, plataformas de colaboración, programas de aprendizaje) rinde por debajo porque el sistema de incentivos trabaja en su contra.

Este es el movimiento central al que vuelvo en mi trabajo: nombrar la brecha entre lo que se declara y lo que se recompensa. La brecha no es un fallo de comunicación. Es una característica estructural de organizaciones que no han alineado sus sistemas de medición con sus sistemas de aspiración.

La conexión con Karasek

El modelo demanda-control de Robert Karasek añade una capa que conecta el desalineamiento de incentivos con el estrés. Karasek demostró que la configuración laboral más dañina es altas demandas más bajo control. Cuando el sistema de incentivos crea altas demandas (cumple tus números) y el proceso de adopción de IA reduce el control (usa esta herramienta desconocida de forma desconocida), la combinación produce tensión laboral — la configuración más asociada con estrés crónico, desengagement y rotación.

El desalineamiento de incentivos amplifica la tensión. El miembro del equipo se enfrenta a demandas competitivas que no pueden cumplirse ambas: mantener el output (demanda de incentivos) y aprender la nueva herramienta (demanda de adopción). El control es bajo en ambos ejes: los objetivos de output son innegociables, y la adopción de la herramienta es obligatoria. El resultado no es resistencia al cambio. Es una respuesta de estrés a una configuración imposible.

La intervención no es motivacional. No puedes motivar tu camino a través de una contradicción estructural. La intervención es estructural: resolver las demandas conflictivas ajustando el sistema de incentivos para acomodar la inversión en adopción. Es una decisión de diseño, no de liderazgo. Requiere cambiar la hoja de cálculo, no el discurso.

La auditoría

Así es una auditoría de incentivos para adopción de IA. Lleva uno o dos días. No cuesta nada salvo honestidad.

Paso 1: Listar las métricas de rendimiento reales. No las aspiracionales. Las que aparecen en evaluaciones de rendimiento, que determinan bonuses, que influyen en decisiones de promoción. Ser específico: “tickets cerrados al día”, “ingresos generados por trimestre”, “proyectos completados a tiempo”. Incluir métricas informales — las cosas que se miden por atención en lugar de hojas de cálculo. “Ser visto como productivo” es una métrica informal. “Ser visto como jugador de equipo” es una métrica informal. Ambas tienen consecuencias reales.

Paso 2: Listar los comportamientos que requiere la adopción de IA. Experimentación con la herramienta. Tolerancia a la curva de aprendizaje. Compartir conocimiento con el equipo. Reportar errores cuando la herramienta produce output incorrecto. Inversión de tiempo en aprendizaje que no produce output inmediato.

Paso 3: Mapear los conflictos. Para cada comportamiento de adopción, identificar si las métricas de rendimiento reales lo recompensan, lo ignoran o lo castigan. Usar tres categorías: alineado (la métrica recompensa el comportamiento), neutral (la métrica no se ve afectada por el comportamiento), o desalineado (la métrica penaliza el comportamiento).

El mapa mostrará dónde el sistema de incentivos apoya la adopción y dónde la socava. En mi experiencia, la mayoría de las organizaciones encuentran que el 30–50 % de sus métricas reales están desalineadas con los comportamientos que requiere la adopción de IA.

Paso 4: Decidir. Para cada desalineamiento, una de tres respuestas: cambiar la métrica (ajustar el incentivo para alinearlo con la adopción), proteger el comportamiento (crear una excepción explícita que proteja el comportamiento de adopción de la métrica desalineada), o aceptar el desalineamiento (reconocer que este comportamiento de adopción específico se subproducirá y ajustar las expectativas de adopción en consecuencia).

La cuarta respuesta — no hacer nada y esperar — es la que la mayoría de organizaciones eligen por defecto. También es la razón por la que la mayoría de los despliegues de IA se estancan en la fase de adopción.

El patrón estacional

Quiero nombrar algo que he observado en las empresas con las que trabaja Bluewaves, porque conecta con el timing y porque explica un patrón que frustra a muchos responsables de IT.

Los despliegues de IA en Q4 fracasan a una tasa más alta que los de Q1 o Q2. La tecnología es la misma. La formación es la misma. El caso de uso es el mismo. La diferencia es el entorno de incentivos.

En Q4, los objetivos anuales se acercan. La brecha entre lo real y el objetivo o se está cerrando (presión para mantener) o se está ampliando (presión para recuperar). En cualquier caso, el sistema de incentivos está en intensidad máxima. Cada minuto dedicado a aprender una nueva herramienta es un minuto no dedicado a cerrar la brecha. Cada experimento que reduce el output es un lujo que el calendario del Q4 no se puede permitir.

En Q1, los objetivos se han reseteado. La presión está en su mínimo anual. El presupuesto del nuevo año está confirmado. Hay margen cognitivo — no mucho, pero algo. La misma herramienta desplegada en enero, para el mismo equipo, con la misma formación, rinde mejor en métricas de adopción que la misma herramienta desplegada en octubre. La diferencia es el calendario de incentivos.

No es una revelación. Es una observación que la mayoría de los cronogramas de despliegue ignoran porque la fecha de preparación de la tecnología se trata como la fecha de despliegue, independientemente del entorno de incentivos. La herramienta está lista, así que desplegamos. El equipo no está listo — estructuralmente, en su arquitectura de incentivos, fisiológicamente — pero la herramienta está lista.

La preparación no es un atributo de la tecnología. Es un atributo del entorno. El entorno incluye el sistema de incentivos, y el sistema de incentivos tiene estaciones.

El papel del mando

Quiero nombrar la posición del mando específicamente, porque es la posición más difícil en esta dinámica.

El mando está atrapado entre el sistema de incentivos (que aplica) y el requisito de adopción (que promueve). Debe decir al equipo “cumplid vuestros números” y también decir al equipo “dedicad tiempo a aprender la nueva herramienta”. Ambas instrucciones salen de su boca. El equipo oye ambas. El equipo sigue la que tiene consecuencias.

El mando que dice “Quiero que exploréis la herramienta de IA” y luego pregunta el viernes “¿por qué han bajado vuestros números esta semana?” ha enviado dos mensajes. El segundo canceló el primero. La cancelación no fue intencionada. Fue el sistema de incentivos hablando a través del mando — y el sistema de incentivos habla más alto que el ánimo.

La corrección es estructural, no motivacional. El mando necesita que el sistema de incentivos se ajuste antes de poder promover la adopción con credibilidad. “Quiero que exploréis la herramienta de IA, y vuestro objetivo se ha reducido un 15 % durante las próximas dos semanas para crear espacio para esa exploración” es un mensaje creíble. “Quiero que exploréis la herramienta de IA, y también que cumplís los mismos objetivos que el mes pasado” no lo es. El equipo nota la diferencia. El equipo siempre nota la diferencia.

La integración

Mantengo dos cosas sin resolverlas.

Primera: los sistemas de incentivos existen por razones. Impulsan comportamiento. Crean responsabilidad. Hacen el rendimiento visible y medible. Desmontarlos en nombre de la adopción de IA sería irresponsable e innecesario.

Segunda: los sistemas de incentivos no son neutrales. Expresan lo que la organización realmente valora, independientemente de lo que diga la declaración de valores. Cuando el sistema de incentivos penaliza los comportamientos que requiere la adopción, la adopción fracasa. No es un fallo de personal ni un fallo tecnológico. Es un fallo de diseño en la arquitectura de incentivos.

Ambas cosas son ciertas. El trabajo está en el espacio entre ellas — ajustar el sistema de incentivos lo suficiente para acomodar la adopción sin desmontar la responsabilidad que el sistema proporciona.

Es trabajo de diseño, no de política. Requiere especificidad: qué métricas, durante qué periodo, con qué protecciones. Requiere medición: ¿produjo el ajuste el comportamiento de adopción? ¿Produjo consecuencias no intencionadas? Requiere iteración: el primer ajuste será imperfecto. Ajusta de nuevo.

El incentivo que nadie audita es el incentivo que determina si tu despliegue de IA tiene éxito o fracasa. No la tecnología. No la formación. No la comunicación del liderazgo. La hoja de cálculo que determina qué se recompensa y qué se castiga.

Audita el incentivo. La adopción sigue al incentivo. Siempre lo ha hecho.

La tecnología está lista. La formación está diseñada. El caso de negocio es sólido. El liderazgo está comprometido. Nada de esto importa si el sistema de incentivos — el mecanismo real que determina lo que las personas hacen un martes por la tarde — trabaja contra la adopción.

El incentivo es la infraestructura. Audita la infraestructura. Arregla la infraestructura. La adopción sigue.

Siempre lo ha hecho.

Escrito por
Érica
Psicóloga Organizacional

Sabe por qué la gente rechaza las herramientas — y cómo diseñar herramientas que amarán. Cuando Érica habla, las empresas cambian de rumbo. No por persuasión. Por comprensión.

← Todas las notas