De prikkel die niemand auditt
Érica 9 december 2025

De prikkel die niemand auditt

12 min leestijd

Elk bedrijf heeft een waardeverklaring. De meeste bevatten woorden als innovatie, samenwerking of wendbaarheid. Veel bevatten alle drie. De waarden staan op de website. Ze hangen aan de muur in de vergaderruimte. Ze waren het onderwerp van een workshop in 2023.

Elk bedrijf heeft ook een prikkelsysteem. Het prikkelsysteem omvat kwartaaldoelen, functioneringsgesprekken, bonusstructuren, promotiecriteria en de ongeschreven regels over wat werkelijk beloond en bestraft wordt. Het prikkelsysteem hangt niet aan de muur. Het zit in de spreadsheets, de kalibratiegesprekken en de wandelgangengesprekken waarvan niemand notulen maakt.

De kloof tussen de waardeverklaring en het prikkelsysteem is de meest betrouwbare voorspeller van AI-adoptiefalen.

Dit is het ding dat niemand auditt. Niet omdat het onzichtbaar is — omdat het auditten ervan vereist dat je een tegenstrijdigheid benoemt die iedereen kent en niemand wil formaliseren.

De kloof

Een bedrijf zegt dat het innovatie waardeert. De bonusstructuur beloont outputvolume. Een teamlid dat twee uur besteedt aan het experimenteren met de nieuwe AI-tool in plaats van de volgende partij facturen te verwerken, heeft geinnoveerd — en heeft ook twee uur minder meetbare output geproduceerd. Het prikkelsysteem ziet de outputkloof. De waardeverklaring ziet niets, omdat waardeverklaringen geen meetmechanismen hebben.

De rationele respons — en ik gebruik “rationeel” in de economische zin, bedoelend consistent met de werkelijke prikkelstructuur — is om niet te innoveren. Verwerk de facturen. Haal het target. Behoud de bonus. Gebruik de AI-tool tijdens de lunch, als je het al doet.

Dit is geen weerstand tegen verandering. Dit is nauwkeurige interpretatie van de prikkelomgeving. Het teamlid faalt niet in het adopteren. Ze slagen in het optimaliseren — optimaliseren voor de signalen die werkelijk consequenties dragen.

De drie prikkelverkeerde-alignments

Bij de bedrijven waarmee ik heb gewerkt bij Bluewaves, doden drie specifieke prikkelverkeerde-alignments AI-adoptie voordat de technologie zelfs maar de kans krijgt zichzelf te bewijzen.

Verkeerde alignment 1: Individuele metrics vs collaboratieve tools

AI-tools creeren vaak waarde door samenwerking mogelijk te maken — kennis delen tussen teams, patronen oppervlakken die afdelingen overspannen, het inzicht van een persoon het werk van een ander laten versterken. De waarde is collectief. De waarde is emergent. De waarde weerstaat toeschrijving aan een enkel individu.

Individuele prestatiemetrics kunnen dit niet vastleggen. Als mijn kwartaalbeoordeling me evalueert op het aantal klanttickets dat ik sluit, en de AI-tool me helpt tickets sneller te sluiten — helpt dat mij. Maar als de AI-tool me ook helpt een kennisbankinvoer te creeren die vijf collega’s helpt vergelijkbare tickets te sluiten — is de waarde naar het team gegaan, niet naar mij. Mijn metrics verbeteren niet. De metrics van mijn vijf collega’s verbeteren. Ik investeerde de inspanning. Zij ontvingen het voordeel.

In een prikkelsysteem gebouwd op individuele toeschrijving is collectieve waarde een externaliteit — een voordeel dat toekomt aan het systeem maar niet wordt vastgelegd door de prestatiemaat van het individu. Externaliteiten worden per definitie ondergeproduceerd. Mensen investeren geen inspanning in uitkomsten waarvoor ze niet beloond worden.

De fix is niet het elimineren van individuele metrics. Het is het toevoegen van collaboratieve metrics die de collectieve waarde vastleggen die AI-tools produceren. Hoeveel kennisbankinvoeren heb je bijgedragen? Hoe vaak is jouw input door anderen gebruikt? Hoeveel cross-teaminteracties faciliteerde de tool? Dit is meetbaar. Het wordt zelden gemeten.

Verkeerde alignment 2: Foutvermijding vs experimenteren

AI-tools vereisen experimenteren. De eerste tien queries zijn leerqueries — kalibreren wat de tool wel en niet kan, de sterktes en beperkingen ontdekken, een intuitie ontwikkelen voor wanneer het te gebruiken en wanneer niet. Experimenteren produceert sommige fouten. Dit is geen storing. Het is het leerproces.

Als het prikkelsysteem fouten bestraft — en de meeste doen dat, expliciet of impliciet — draagt experimenteren risico. Het risico is niet catastrofaal. Niemand wordt ontslagen voor een slechte chatbot-query. Maar het risico is reputationeel: de collega die een matige AI-output op je scherm ziet, de manager die de kwaliteitsdip opmerkt in je eerste week van tooladoptie, de kwartaalbeoordeling waar “de nieuwe AI-tool verkend” geen erkende prestatie is maar “kwaliteitsstandaarden gehandhaafd” wel.

Edmondsons onderzoek naar psychologische veiligheid is hier relevant, maar de prikkellaag is onderscheiden van de veiligheidslaag. Je kunt een psychologisch veilig team hebben — een waar je mond opendoen oprecht welkom is — en toch een prikkelsysteem dat precies de experimenten bestraft die adoptie vereist. Het team voelt zich veilig om te proberen. Het prikkelsysteem bestraft het proberen. Het resultaat is een team dat weet dat het veilig is om te experimenteren maar rationele redenen heeft om het niet te doen.

De fix: creeer een expliciete experimenteerruimte. Niet een vaag “we moedigen verkenning aan.” Een specifieke, meetbare bescherming: 10% van de tijd van elk teamlid tijdens de adoptieperiode is aangewezen voor toolexperimentatie, en deze tijd is uitgesloten van output-gebaseerde prestatiemetrics. De ruimte moet gedocumenteerd zijn in de functioneringsgesprekscriteria, niet alleen verbaal gecommuniceerd. Verbale aanmoediging zonder structurele bescherming is gewoon ruis.

Verkeerde alignment 3: Snelheidsmetrics vs leercurves

AI-tools maken werk sneller — uiteindelijk. Tijdens de adoptieperiode maken ze werk langzamer. De leercurve is echt. Opzoeken hoe je een query moet formuleren, een onbekende output interpreteren, het antwoord van de tool verifieren tegen je eigen kennis — dit alles kost tijd. Tijd die, in een op snelheid geoptimaliseerd prikkelsysteem, registreert als een prestatiediep.

De meeste prikkelsystemen meten snelheid direct of indirect: gesprekken afgehandeld per uur, tickets gesloten per dag, rapporten geproduceerd per week. Tijdens de adoptieperiode dalen deze cijfers. De daling is tijdelijk. De daling is de kost van investering. Maar het prikkelsysteem maakt geen onderscheid tussen “prestatiedaling door incompetentie” en “prestatiedaling door leerinvestering.” Beide zien er hetzelfde uit in de spreadsheet.

Een teamlid dat deze dynamiek observeert, maakt een berekening: de kost van de prestatiedaling (zichtbaar, onmiddellijk, gemeten) versus het voordeel van toolvloeiendheid (onzichtbaar, uitgesteld, ongemeten). De berekening valt bijna altijd uit ten gunste van het opgeven van de tool en terugkeren naar het bestaande proces.

De fix: schort snelheidsmetrics op tijdens een gedefinieerde adoptieperiode, of stel een aparte prestatiebasis vast voor de adoptieperiode die rekening houdt met de verwachte leerdaling. “We verwachten dat je doorvoer met 15% daalt gedurende de eerste twee weken. Dit is gebudgetteerd.” De specificiteit doet ertoe. Een vage geruststelling — “maak je geen zorgen om je cijfers” — is niet geloofwaardig wanneer het functioneringsgesprek over acht weken is.

Waarom niemand dit auditt

De kloof tussen stated values en werkelijke prikkels is bekend. In elke organisatie waarmee ik heb gewerkt, kunnen mensen op elk niveau de kloof met precisie beschrijven. De inkoopmedewerker weet dat “innovatie” een waarde is en “facturen verwerkt per dag” een metric. De teamleider weet dat “samenwerking” een waarde is en “individuele ticketsluitingspercentage” een bonuscriterium. De HR-directeur weet dat het functioneringsgespreksjabloon output beloont, niet leren.

Niemand auditt de kloof omdat het auditten ervan vereist dat je het benoemt. En het benoemen creert verantwoordelijkheid. Als de kloof is gedocumenteerd — als iemand opschrijft “onze stated value is innovatie en onze bonusstructuur beloont outputvolume” — dan moet iemand beslissen: verander de waarden of verander de prikkels.

Beide opties zijn ongemakkelijk. De waarden veranderen voelt als het opgeven van principes. De prikkels veranderen voelt als het verstoren van een systeem dat werkt (of in ieder geval functioneert). Dus blijft de kloof bestaan, onbenoemd en onopgelost, en elke initiatief dat afhangt van de waarden (AI-adoptie, samenwerkingsplatformen, leerprogramma’s) presteert onder omdat het prikkelsysteem ertegen werkt.

Dit is de kernbeweging waar ik in mijn werk steeds op terugkom: benoem de kloof tussen wat er gezegd wordt en wat er beloond wordt. De kloof is geen communicatiefalen. Het is een structureel kenmerk van organisaties die hun meetsystemen niet hebben gealignd met hun aspiratiesystemen.

De Karasek-verbinding

Robert Karaseks demand-control model voegt een laag toe die prikkelverkeerde-alignment verbindt met stress. Karasek toonde aan dat de meest schadelijke werkconfiguratie hoge eisen plus lage controle is. Wanneer het prikkelsysteem hoge eisen creert (haal je cijfers) en het AI-adoptieproces controle vermindert (gebruik deze onbekende tool op een onbekende manier), produceert de combinatie werkstress — de configuratie die het sterkst geassocieerd is met chronische stress, onbetrokkenheid en verloop.

De prikkelverkeerde-alignment versterkt de stress. Het teamlid staat voor tegenstrijdige eisen die niet allebei vervuld kunnen worden: output handhaven (prikkeleis) en de nieuwe tool leren (adoptie-eis). De controle is laag op beide assen: de outputdoelen zijn niet-onderhandelbaar, en de tooladoptie is verplicht. Het resultaat is geen weerstand tegen verandering. Het is een stressrespons op een onmogelijke configuratie.

De interventie is niet motivationeel. Je kunt je weg niet motiveren door een structurele tegenstrijdigheid. De interventie is structureel: los de tegenstrijdige eisen op door het prikkelsysteem aan te passen om de adoptie-investering te accommoderen. Dit is een ontwerpbeslissing, geen leiderschapsbeslissing. Het vereist het veranderen van de spreadsheet, niet van de toespraak.

De audit

Hier is hoe een prikkelaudit voor AI-adoptie eruitziet. Het kost een tot twee dagen. Het kost niets behalve eerlijkheid.

Stap 1: Maak een lijst van de werkelijke prestatiemetrics. Niet de aspirationele. Degene die in functioneringsgesprekken verschijnen, die bonussen bepalen, die promotiebeslissingen beinvloeden. Wees specifiek: “tickets gesloten per dag,” “omzet gegenereerd per kwartaal,” “projecten op tijd afgerond.” Neem informele metrics op — de dingen die gemeten worden door aandacht in plaats van spreadsheets. “Gezien worden als productief” is een informele metric. “Gezien worden als teamspeler” is een informele metric. Beide dragen echte consequenties.

Stap 2: Maak een lijst van de gedragingen die AI-adoptie vereist. Experimenteren met de tool. Tolerantie voor de leercurve. Kennisdeling binnen het team. Foutrapportage wanneer de tool onjuiste output produceert. Investering van tijd in leren dat geen onmiddellijke output oplevert.

Stap 3: Breng de conflicten in kaart. Identificeer voor elk adoptiegedrag of de werkelijke prestatiemetrics het belonen, negeren of bestraffen. Gebruik drie categorieen: gealignd (de metric beloont het gedrag), neutraal (de metric wordt niet beinvloed door het gedrag), of verkeerd gealignd (de metric bestraft het gedrag).

De kaart toont waar het prikkelsysteem adoptie ondersteunt en waar het die ondermijnt. In mijn ervaring constateren de meeste organisaties dat 30-50% van hun werkelijke metrics verkeerd gealignd is met de gedragingen die AI-adoptie vereist.

Stap 4: Beslis. Kies voor elke verkeerde alignment een van drie reacties: verander de metric (pas de prikkel aan om te alignen met adoptie), bescherm het gedrag (creeer een expliciete uitzondering die het adoptiegedrag beschermt tegen de verkeerd gealignde metric), of accepteer de verkeerde alignment (erken dat dit specifieke adoptiegedrag ondergeproduceerd zal worden en pas adoptieverwachtingen dienovereenkomstig aan).

De vierde reactie — niets doen en hopen — is de standaard bij de meeste organisaties. Het is ook de reden waarom de meeste AI-implementaties vastlopen in de adoptiefase.

Het seizoenspatroon

Ik wil iets benoemen dat ik heb geobserveerd bij de bedrijven waarmee Bluewaves werkt, omdat het verbindt met timing en omdat het een patroon verklaart dat veel IT-leiders frustreert.

Q4 AI-implementaties falen vaker dan Q1- of Q2-implementaties. De technologie is hetzelfde. De training is hetzelfde. De use case is hetzelfde. Het verschil is de prikkelomgeving.

In Q4 naderen de jaardoelen. De kloof tussen werkelijk en target sluit zich (druk om te handhaven) of wordt groter (druk om in te halen). Hoe dan ook, het prikkelsysteem is op piekintensiteit. Elke minuut besteed aan het leren van een nieuwe tool is een minuut niet besteed aan het dichten van de kloof. Elk experiment dat output vermindert is een luxe die de Q4-kalender niet kan betalen.

In Q1 zijn de doelen gereset. De druk is op het jaarlijkse minimum. Het budget voor het nieuwe jaar is bevestigd. Er is cognitieve ruimte — niet veel, maar enige. Dezelfde tool die in januari wordt geimplementeerd, bij hetzelfde team, met dezelfde training, presteert beter in adoptiemetrics dan dezelfde tool die in oktober wordt geimplementeerd. Het verschil is de prikkelkalender.

Dit is geen openbaring. Het is een observatie die de meeste implementatietijdlijnen negeren omdat de technologiegereedheidsdatum wordt behandeld als de implementatiedatum, ongeacht de prikkelomgeving. De tool is klaar, dus we implementeren. Het team is niet klaar — structureel, in zijn prikkelarchitectuur, fysiologisch — maar de tool is klaar.

Gereedheid is niet een technologie-eigenschap. Het is een omgevingseigenschap. De omgeving omvat het prikkelsysteem, en het prikkelsysteem kent seizoenen.

De rol van de manager

Ik wil de positie van de manager specifiek benoemen, omdat het de moeilijkste positie is in deze dynamiek.

De manager zit gevangen tussen het prikkelsysteem (dat ze handhaven) en de adoptievereiste (die ze verdedigen). Ze moeten tegen het team zeggen “haal je cijfers” en ook “neem de tijd om de nieuwe tool te leren.” Beide instructies komen uit hun mond. Het team hoort beide. Het team volgt degene die consequenties heeft.

De manager die zegt “Ik wil dat je de AI-tool verkent” en dan op vrijdag vraagt “waarom waren je cijfers deze week lager?” heeft twee boodschappen gestuurd. De tweede annuleerde de eerste. De annulering was niet opzettelijk. Het was het prikkelsysteem dat door de manager sprak — en het prikkelsysteem spreekt harder dan aanmoediging.

De fix is structureel, niet motivationeel. De manager heeft nodig dat het prikkelsysteem wordt aangepast voordat ze geloofwaardig adoptie kan verdedigen. “Ik wil dat je de AI-tool verkent, en je target is met 15% verlaagd voor de komende twee weken om daarvoor ruimte te creeren” is een geloofwaardige boodschap. “Ik wil dat je de AI-tool verkent, en haal ook dezelfde targets als vorige maand” is dat niet. Het team kent het verschil. Het team kent altijd het verschil.

De integratie

Ik houd twee dingen vast zonder ze op te lossen.

Ten eerste: prikkelsystemen bestaan om redenen. Ze sturen gedrag. Ze creeren verantwoordelijkheid. Ze maken prestaties zichtbaar en meetbaar. Ze ontmantelen in naam van AI-adoptie zou onverantwoordelijk en onnodig zijn.

Ten tweede: prikkelsystemen zijn niet neutraal. Ze drukken uit wat de organisatie werkelijk waardeert, ongeacht wat de waardeverklaring zegt. Wanneer het prikkelsysteem de gedragingen bestraft die adoptie vereist, faalt adoptie. Dit is geen personeelsfalen of technologiefalen. Het is een ontwerpfout in de prikkelarchitectuur.

Beide dingen zijn waar. Het werk zit in de ruimte ertussen — het prikkelsysteem voldoende aanpassen om adoptie te accommoderen zonder de verantwoordelijkheid te ontmantelen die het systeem biedt.

Dit is ontwerpwerk, geen beleidswerk. Het vereist specificiteit: welke metrics, gedurende welke periode, met welke beschermingen. Het vereist meting: leverde de aanpassing het adoptiegedrag op? Leverde het onbedoelde consequenties op? Het vereist iteratie: de eerste aanpassing zal onvolmaakt zijn. Pas opnieuw aan.

De prikkel die niemand auditt is de prikkel die bepaalt of je AI-implementatie slaagt of faalt. Niet de technologie. Niet de training. Niet de leiderschapscommunicatie. De spreadsheet die bepaalt wat beloond en bestraft wordt.

Audit de prikkel. De adoptie volgt de prikkel. Dat heeft het altijd gedaan.

De technologie is klaar. De training is ontworpen. De businesscase is solide. Het leiderschap is toegewijd. Niets hiervan doet ertoe als het prikkelsysteem — het werkelijke mechanisme dat bepaalt wat mensen op een dinsdagmiddag doen — tegen adoptie werkt.

De prikkel is de infrastructuur. Audit de infrastructuur. Fix de infrastructuur. De adoptie volgt.

Dat heeft het altijd gedaan.

Geschreven door
Érica
Organisatiepsycholoog

Zij weet waarom mensen tools weigeren — en hoe je tools ontwerpt waar ze van houden. Als Érica spreekt, veranderen bedrijven van koers. Niet door overtuiging. Door begrip.

← Alle notities