Psychologische veiligheid en de AI-vraag
Érica 18 november 2025

Psychologische veiligheid en de AI-vraag

13 min leestijd

Amy Edmondson beschreef psychologische veiligheid voor het eerst in 1999, bij het bestuderen van verpleegkundige teams in ziekenhuizen. Ze verwachtte dat teams met betere interpersoonlijke dynamiek minder medicatiefouten zouden maken. In plaats daarvan vond ze het tegenovergestelde: teams met hoge psychologische veiligheid rapporteerden meer fouten. Niet omdat ze meer fouten maakten — omdat ze bereid waren ze aan het licht te brengen.

De bevinding herkaderde veiligheid. Psychologische veiligheid is niet de afwezigheid van fouten. Het is het geloof dat je niet gestraft wordt voor het aan het licht brengen van fouten, het stellen van vragen, of het toegeven van wat je niet weet. Goed presterende teams vermijden geen fouten. Ze vangen fouten sneller op omdat het veilig is om je mond open te doen.

Zesentwintig jaar later botst dit framework met AI-adoptie op een manier die Edmondson niet anticipeerde — en die de meeste bedrijven die AI-tools implementeren niet hebben overwogen.

Het AI-vraagprobleem

Elke AI-tool werkt door vragen te beantwoorden. Je vraagt, het antwoordt. De interface is een vraag-en-antwoord loop, of de tool nu een chatbot is, een zoekmachine, een aanbevelingssysteem of een beslissingsondersteunende tool. De fundamentele interactie is: de mens vraagt, de machine antwoordt.

Overweeg nu wat vragen stellen onthult.

Wanneer een inkoopmedewerker “Wat betekent incoterm DDP?” typt in de AI-assistent van het bedrijf, bevat de vraag een bekentenis: ik weet niet wat DDP betekent. In een privé-interactie — alleen aan een bureau, niemand die meekijkt — kost deze bekentenis niets. De machine oordeelt niet. De machine onthoudt niet dat je het niet wist. De machine vertelt het niet aan je manager.

Maar AI-tools worden steeds vaker ingezet in gedeelde omgevingen. De querygeschiedenis wordt gelogd. Het scherm is zichtbaar voor collega’s. De teamleider vraagt: “Hoe gebruik je de nieuwe tool?” en het antwoord onthult de vragen die je stelde — wat onthult wat je niet wist.

In een psychologisch veilige omgeving is dit prima. “Ik wist niet wat DDP betekende, dus ik vroeg het de tool — nu weet ik het.” Competentie wordt gedemonstreerd door leren, niet door te doen alsof.

In een psychologisch onveilige omgeving — waar het toegeven van onwetendheid carrièrerisico met zich meebrengt, waar “niet weten” gelijkgesteld wordt met “niet gekwalificeerd zijn,” waar kennis valuta is en het uitgeven ervan voelt als verlies — wordt het gebruik van de AI-tool een risico. De tool is niet het probleem. De ruimte is het probleem. De organisatiecultuur bepaalt of de tool een hulpbron is of een bedreiging.

Het framework van Edmondson toegepast

Edmondson definieerde vier dimensies van psychologisch veilig gedrag:

Je uitspreken met zorgen. Bij AI-adoptie vertaalt dit zich naar: Kan een teamlid zeggen “Deze AI-tool gaf me een antwoord dat volgens mij fout is” zonder afgewezen te worden als resistent tegen verandering? Kunnen ze een fout in het systeem signaleren zonder te horen dat ze “gewoon meer training nodig hebben”?

Vragen stellen. Kan een teamlid vragen hoe de tool werkt, wat de beperkingen zijn, of waarom het een bepaald antwoord gaf — zonder dat de vraag geinterpreteerd wordt als technofobie? Kan een junior medewerker een vraag stellen die een senior medewerker fout beantwoordde, zonder sociale straf?

Fouten toegeven. Kan een teamlid zeggen “Ik gebruikte de aanbeveling van de tool en die was fout” zonder de schuld te krijgen voor het vertrouwen van de tool? Kunnen ze zeggen “Ik gebruikte de tool niet omdat ik de output niet vertrouwde” zonder de schuld te krijgen voor het niet adopteren?

Ideeeen aandragen. Kan een teamlid een betere manier voorstellen om de tool te gebruiken, de workflow aan te passen, of de integratie bij te stellen — zonder dat het voorstel wordt gezien als kritiek op de persoon die de implementatie ontwierp?

Bij de meeste organisaties is het antwoord op ten minste twee van deze vragen nee. De implementatie gaat toch door. Het team interacteert met de tool op manieren die zelfblootstelling minimaliseren: ze stellen simpele vragen, ze signaleren geen fouten, ze experimenteren niet, ze stellen geen verbeteringen voor. Ze gebruiken de tool genoeg om niet gemarkeerd te worden als niet-adopters. Ze gebruiken het niet genoeg om echte waarde te ontlenen.

Dit is het adoptieplateau — de vlakke lijn tussen “geimplementeerd” en “ingebed” waar de meeste AI-tools leven en sterven.

De zichtbaarheidsasymmetrie

Er is een asymmetrie in AI-toolinteractie die het psychologische-veiligheidsprobleem versterkt.

Wanneer een teamlid een collega een vraag stelt — “Wat betekent DDP?” — is de interactie bilateraal. De collega weet dat je het niet wist. Niemand anders. De sociale kosten zijn beperkt.

Wanneer een teamlid dezelfde vraag aan de AI-tool stelt, wordt de interactie gelogd. Het is zichtbaar voor systeembeheerders. Het kan zichtbaar zijn in gebruiksdashboards. Het is zichtbaar voor iedereen die langs het scherm loopt. De interactie die bilateraal was, is nu potentieel multilateraal.

Deze zichtbaarheidsasymmetrie verandert de berekening. De kosten van de machine vragen zijn hoger dan de kosten van een collega vragen — niet omdat de machine oordeelt, maar omdat het vragen zichtbaarder is. En in omgevingen waar zichtbaarheid gelijk staat aan kwetsbaarheid, staat verhoogde zichtbaarheid gelijk aan verhoogd risico.

Ik heb teams workarounds zien ontwikkelen specifiek om zichtbare AI-interacties te vermijden. De tool op een persoonlijk apparaat gebruiken. Vragen in de tool typen en dan de geschiedenis wissen. Een collega vragen om de tool namens hen te raadplegen. Dit zijn geen irrationele gedragingen. Het zijn rationele reacties op een omgeving waar zichtbaar leren bestraft wordt.

De workarounds verlagen de adoptiemetrics. Management interpreteert lage adoptie als bewijs dat de tool niet nuttig is. De tool wordt stopgezet of gedeprioriteerd. De werkelijke oorzaak — de omgeving, niet de tool — wordt nooit aangepakt.

De paradox van de manager

De ironie is dat managers die AI-adoptie verdedigen, vaak degenen zijn die onbedoeld de psychologische veiligheid ondermijnen die ervoor nodig is.

De manager die zegt “Deze tool is intuitief — je zou het in een middag moeten kunnen uitvogelen” heeft een impliciete norm vastgesteld: competentie met deze tool zou onmiddellijk moeten zijn. Iedereen die worstelt voldoet niet aan de norm. De uitspraak, bedoeld als bemoedigend, wordt ontvangen als prestatiemaatstaf.

De manager die adoptiedashboards monitort en teamleden vraagt waarom hun gebruik laag is, heeft een andere dynamiek gecreeerd: toolgebruik wordt geobserveerd. Niet-gebruik zal opgemerkt worden. De observatie is niet neutraal — het draagt het gewicht van managementaandacht, wat bij de meeste organisaties geassocieerd wordt met evaluatie. De monitoring, bedoeld om adoptie te ondersteunen, wordt ontvangen als surveillance.

De manager die de meest indrukwekkende capaciteiten van de tool laat zien in de demo — de complexe query, de slimme analyse, de indrukwekkende output — heeft verwachtingen op het plafond gezet. De eerste echte interactie van het team zal een simpele query zijn met een simpel antwoord. De kloof tussen de demo en de werkelijkheid creert teleurstelling. De tool die magisch leek in de demo is slechts functioneel in de praktijk. Dit is geen falen — functionaliteit is wat ertoe doet. Maar de kloof registreert als een domper.

In elk geval zijn de acties van de manager goedbedoeld. In elk geval is het effect een vermindering van psychologische veiligheid rondom de tool. De intentie is “deze tool gaat je helpen.” De ontvangst is “deze tool is nog iets waarop ik beoordeeld word.”

De vraag achter de vraag

Daniel Kahnemans werk over cognitief gemak en cognitieve inspanning voegt een laag toe. Kahneman toonde aan dat wanneer mensen informatie tegenkomen die makkelijk te verwerken is — bekend, helder gepresenteerd, consistent met verwachtingen — ze cognitief gemak ervaren. Ze voelen zich zelfverzekerd. Ze zijn minder geneigd tot bewust, kritisch denken.

Wanneer mensen informatie tegenkomen die moeilijk te verwerken is — onbekend, complex, inconsistent met verwachtingen — ervaren ze cognitieve inspanning. Ze voelen zich onzeker. Ze zijn meer geneigd tot bewust denken, maar ze zijn ook meer geneigd tot angst, ongemak en vermijding.

Een AI-tool is een bron van cognitieve inspanning. Het is nieuw. De output is onvoorspelbaar. De logica is ondoorzichtig. De interface is misschien bekend (een chatvenster), maar het interactiepatroon (spreken met een machine die taal begrijpt) is diep onbekend. De cognitieve inspanning is inherent aan de nieuwheid.

In een psychologisch veilige omgeving is cognitieve inspanning draaglijk. Onzekerheid is toegestaan. Vragen zijn welkom. De inspanning lost zich op in leren.

In een psychologisch onveilige omgeving is cognitieve inspanning ondraaglijk. Onzekerheid moet verborgen worden. Vragen onthullen zwakte. De inspanning lost zich op in vermijding.

De vraag die het teamlid aan de tool stelt, is de oppervlaktevraag. De vraag eronder is: “Is het veilig voor mij om dit niet te weten?” Het antwoord op de oppervlaktevraag komt van het AI-model. Het antwoord op de onderliggende vraag komt van de ruimte.

Psychologische veiligheid meten voor AI-adoptie

Edmondson ontwikkelde een enquete van zeven items om psychologische veiligheid te meten. Voor AI-adoptiecontexten stel ik voor vijf van de items aan te passen:

  1. “Als ik een fout maak met de AI-tool, wordt dat tegen me gebruikt.” (Omgekeerd gescoord.)
  2. “Leden van dit team kunnen problemen en lastige kwesties over de AI-tool ter sprake brengen.”
  3. “Mensen in dit team wijzen anderen soms af voor het stellen van basale vragen aan de AI-tool.” (Omgekeerd gescoord.)
  4. “Het is veilig om een risico te nemen met de AI-tool in dit team — zoals het proberen van een nieuwe use case.”
  5. “Het is makkelijk om andere teamleden om hulp te vragen met de AI-tool.”

Neem deze enquete af voor de AI-implementatie, twee weken erna, en zes weken erna. Het verloop vertelt je meer over adoptie-uitkomsten dan welk gebruiksdashboard ook.

Als de scores dalen na implementatie — als de introductie van de AI-tool de psychologische veiligheid verminderde — is de tool niet het probleem. De implementatiearchitectuur is dat. En de oplossing is niet meer training. De oplossing is de omgeving.

Veiligheid bouwen voor capaciteit bouwen

De praktische volgorde doet ertoe. De meeste implementaties volgen: bouw de tool, implementeer de tool, train het team, meet adoptie. De psychologische-veiligheidsarchitectuur ontbreekt in deze volgorde.

De alternatieve volgorde: beoordeel de psychologische veiligheid van het team, pak de lacunes aan, implementeer de tool, ondersteun de adoptie, meet zowel gebruik als veiligheid.

Voor implementatie: Voer de aangepaste Edmondson-enquete uit. Als scores onder de drempel liggen (Edmondson suggereert een teamgemiddelde van 5,0 op een 7-puntsschaal als minimum voor effectief teamleren), pak dan eerst de veiligheidslacunes aan. Dit kan betekenen expliciete gesprekken voeren over de leerverwachtingen — specifiek dat de leercurve normaal is, dat vragen gewaardeerd worden, en dat de querygeschiedenis van het team geen prestatie-evaluatie-instrument is.

Tijdens implementatie: Maak drie expliciete toezeggingen, op schrift, gecommuniceerd aan het team en hun managers. Ten eerste: querygeschiedenis is prive. Geen manager zal individuele querylogboeken inzien. Ten tweede: de leerperiode is gedefinieerd (twee tot vier weken) en gedurende deze periode wordt verminderde productiviteit verwacht en beschermd. Ten derde: het melden van fouten wordt beloond. Als de tool een fout antwoord geeft en je signaleert het, is dat een bijdrage — geen klacht.

Na implementatie: Monitor zowel adoptiemetrics als veiligheidsmetrics. Als adoptie stijgt en veiligheid standhoudt, is de implementatie gezond. Als adoptie stijgt en veiligheid daalt, is adoptie compliance-gedreven en zal niet standhouden. Als adoptie daalt en veiligheid standhoudt, moet de tool mogelijk verbeterd worden. Als beide dalen, faalt de implementatie en is de hoofdoorzaak de omgeving.

Het team dat de tool een naam gaf

Ik wil terugkomen op het naamsignaal — de observatie dat wanneer een team hun AI-tool een naam geeft, adoptie een kritische drempel heeft overschreden.

Het benoemen is een indicator van psychologische veiligheid. De tool een naam geven is een relatie claimen ermee. Het is publiekelijk zeggen tegen collega’s: “Ik gebruik deze tool. Ik ken het goed genoeg om het een naam te geven. Mijn gebruik ervan is onderdeel van mijn professionele identiteit, geen geheim.” Benoemen vereist de veiligheid om publiekelijk geassocieerd te worden met de tool.

In psychologisch onveilige omgevingen worden tools niet benoemd. Ze worden generiek aangeduid — “het systeem,” “dat nieuwe ding,” “die AI-tool.” De anonimiteit van de verwijzing is een afstandsmechanisme. Het teamlid wijst de tool niet af. Ze beschermen zichzelf tegen te nauw geassocieerd worden met de tool, voor het geval de associatie een aansprakelijkheid wordt.

Wanneer ik een team zie dat zijn tool een naam geeft, weet ik dat de omgeving veilig genoeg is voor duurzame adoptie. Wanneer ik een team zie dat de tool linguistisch op afstand houdt, weet ik dat de omgeving werk nodig heeft — ongeacht wat de gebruiksmetrics zeggen.

De thuiswerkcomplicatie

Er is een dimensie van psychologische veiligheid en AI-adoptie die sinds 2020 relevanter is geworden: de thuiswerkcontext.

Op een fysiek kantoor zijn de sociale dynamieken van AI-toolgebruik deels zichtbaar. Je kunt zien wie de tool gebruikt. Je kunt het scherm zien. Je kunt de query horen. De zichtbaarheid is een tweesnijdend zwaard: in veilige omgevingen creert het social proof (“zij gebruikt het, ik zou het ook moeten proberen”); in onveilige omgevingen creert het surveillance (“hij stelt basisvragen, hij kent het domein blijkbaar niet”).

In een thuiswerkomgeving wordt de zichtbaarheid gemedieerd door digitale tools. Schermdeling, activiteitsdashboards, Slack-berichten — allemaal creeren ze selectieve zichtbaarheid. De gebruiker beheerst wat zichtbaar is en wat verborgen. Deze controle kan psychologische veiligheid versterken (“ik kan de tool prive gebruiken, niemand ziet mijn leercurve”) of ondermijnen (“het gebruiksdashboard toont dat ik deze week 47 vragen heb gesteld, management kan dat zien”).

De hybride omgeving — wat de werkelijkheid is voor de meeste EU-bedrijven — creert een derde dynamiek. Het team op kantoor ziet elkaars AI-gebruik. Het thuiswerkende team niet. De psychologische-veiligheidsomstandigheden verschillen tussen de twee groepen, zelfs binnen hetzelfde team. De kantoormedewerkers ontwikkelen gedeelde praktijken en social proof. De thuiswerkers niet.

De ontwerpimplicatie: voor hybride en thuiswerkende teams moeten AI-tooladoptiestrategieen expliciet de zichtbaarheidsasymmetrie adresseren. Maak toolgebruik zichtbaar op basis van keuze, niet standaard. Deel toolsuccessen (goede output, tijdsbesparing) via teamkanalen — vrijwillig, niet verplicht. Creeer peer-leermogelijkheden waar toolgebruik expliciet sociaal en verkennend is, niet evaluatief.

De thuiswerkcontext heeft psychologische veiligheid zowel belangrijker als moeilijker te cultiveren gemaakt. De AI-toolimplementatie moet hiermee rekening houden — niet als speciaal geval, maar als de standaard operationele omgeving van de moderne Europese werkplek.

De integratie

Psychologische veiligheid en AI-adoptie zijn geen aparte gesprekken. Het is hetzelfde gesprek, vanuit verschillende hoeken bekeken.

De AI-industrie richt zich op de tool: capaciteiten, nauwkeurigheid, snelheid, integratie. De organisatiepsychologie richt zich op de omgeving: vertrouwen, veiligheid, verbondenheid, autonomie. Beide hebben gelijk. Geen van beide is voldoende.

Een perfecte tool in een onveilige omgeving zal niet geadopteerd worden. Een onvolmaakte tool in een veilige omgeving zal geadopteerd, verbeterd en uiteindelijk benoemd worden. De omgeving is niet een aanpassing van het succes van de tool. Het is een voorwaarde.

Edmondsons werk geeft ons het framework. Kahneman geeft ons het cognitieve mechanisme. Karasek geeft ons de vraag-controle structuur. Samen verklaren ze waarom de meest capabele AI-tool op de markt ongebruikt kan staan op het bureaublad van een team terwijl een middelmatige workaround floreert — omdat de workaround niet vereist dat iemand onthult wat ze niet weten.

De machine is niet het probleem. De ruimte is het probleem. Los de ruimte op, en de machine werkt.

De ruimte is de architectuur. De architectuur is de set voorwaarden — vertrouwen, veiligheid, controle, social proof — die bepalen of een tool wordt geadopteerd of verlaten. De voorwaarden zijn ontwerbaar, meetbaar en verbeterbaar. Ze zijn niet mysterieus. Ze zijn niet soft. Ze zijn de infrastructuur van adoptie, en zoals alle infrastructuur moeten ze gebouwd worden voordat het ding dat ze ondersteunen erboven komt.

Geschreven door
Érica
Organisatiepsycholoog

Zij weet waarom mensen tools weigeren — en hoe je tools ontwerpt waar ze van houden. Als Érica spreekt, veranderen bedrijven van koers. Niet door overtuiging. Door begrip.

← Alle notities