Builder Notes
Werknotities uit het vak — geen opinievormingstheater.
De aftelling naar augustus
Vijf maanden tot de hoog-risico bepalingen van de AI-verordening van de EU volledig van kracht worden. Geen samenvatting van de verordening — een specifieke uitsplitsing van wat er op 2 augustus 2026 op orde moet zijn.
Meertalige modellen zijn geen multiculturele modellen
De nieuwste AI-modellen spreken 95 talen. Ze begrijpen ongeveer nul culturen. De kloof tussen taalvaardigheid en culturele competentie is de kloof die bepaalt of je AI-tool werkt of slechts vertaalt.
Het alignmentprobleem is menselijk
Brian Christian schreef over het alignen van AI met menselijke waarden. Het moeilijkere probleem is dat mensen hun eigen waarden niet helder genoeg kunnen articuleren voor een machine om te volgen.
De fout van EUR 500.000
Een Hamburgs bedrijf kreeg een boete van een half miljoen euro voor geautomatiseerde besluitvorming zonder betekenisvol menselijk toezicht. Wat 'human in the loop' technisch betekent — niet juridisch.
Het Arabische kalligrafieprobleem
Arabisch is niet 'rechts-naar-links Latijn.' Het is een fundamenteel ander typografisch systeem — en de kloof tussen wat AI-interfaces renderen en wat Arabische lezers verwachten is een maatstaf voor culturele ongeletterdheid.
Systeem 1 ontmoet de chatbot
Daniel Kahnemans tweesystemenframework toegepast op het moment dat iemand een AI-tool opent. Het eerste oordeel valt in twee seconden. De meeste onboarding faalt voordat het begint.
De regelgevingssandbox die niemand gebruikt
Elke EU-lidstaat moet een AI-regelgevingssandbox lanceren voor augustus 2026. De meeste mkb-bedrijven hebben er nog nooit van gehoord. Dat is een structureel voordeel dat wacht om geclaimd te worden.
De standaard is niet neutraal
Elke standaard is een beslissing. Elke beslissing weerspiegelt een cultuur. Wanneer een AI-tool met standaarden wordt uitgeleverd, wordt een wereldbeeld meegeleverd — de vraag is of dat wereldbeeld gekozen of geërfd is.
Wrijvingsloos is niet betekenisvol
We ontwierpen de onboarding om wrijvingsloos te zijn. Mensen voltooiden het in elf minuten en kwamen nooit terug. Het probleem was niet de wrijving — het was de afwezigheid ervan.
De modelkaart die niemand leest
Elk groot AI-model wordt geleverd met een modelkaart — het eerlijkste document over wat het model wel en niet kan. Vrijwel niemand leest ze.
High-context AI in een low-context interface
Edward Hall verdeelde culturen in high-context en low-context. Elke chatbot is een low-context interface. In Japan levert die botsing wantrouwen op.
De prikkel die niemand auditt
Elk bedrijf heeft stated values. Elk bedrijf heeft een prikkelsysteem. Die twee dingen zijn bijna nooit gealignd — en de kloof is de beste voorspeller van AI-adoptiefalen.
Twintig procent
De kop zegt dat 20% van de EU-ondernemingen AI heeft geadopteerd. De microdata vertelt een ander verhaal — en de kloof tussen de kop en de data is waar het werkelijke probleem zit.
Hofstede mat zes dimensies. AI meet er nul.
Geert Hofstede besteedde veertig jaar aan het meten van culturele verschillen. Elk AI-hulpmiddel op de markt meet nul van die verschillen.
Psychologische veiligheid en de AI-vraag
Amy Edmondsons framework ontmoet de chatbot. Wanneer het stellen van vragen aan de machine onthult wat je niet weet, wordt de ruimte het probleem — niet de machine.
De checklist gaat je niet redden
Bedrijven houden van checklists voor culturele aanpassing. Vertaal de UI. Pas het datumformaat aan. Lokaliseer de valuta. De checklist is compleet. Het product is nog steeds cultureel incompetent.
Jouw data is niet hun platform
Elk bedrijf dat AI-capaciteit opbouwt op een gehuurd platform bouwt op grond die het niet bezit. Datasoevereiniteit is geen filosofisch standpunt — het is een architectuurbeslissing.
Cortisol maakt jouw roadmap niets uit
Je AI-implementatie-roadmap gaat uit van een team dat op volle cognitieve capaciteit opereert. Robert Sapolsky heeft slecht nieuws over die aanname.
Drie veronderstellingen, drie miljard mensen
Het Latijnse alfabet veronderstelt horizontaal lezen, links-naar-rechts, met spaties tussen woorden. Drie veronderstellingen. Drie miljard mensen voor wie geen ervan geldt.
De tool die je team niet zal gebruiken
Je kocht de tool. Je trainde het team. Niemand gebruikt het. Dit is geen technologiefalen — het is een vertrouwensfalen.
Echte kunstenaars leveren
Steve Jobs zei het in 1983. Tweeenveertig jaar later blijft het de belangrijkste zin in productontwikkeling — en de zin die de meeste AI-projecten negeren.