Intensifieringsfällan
Érica 24 mars 2026

Intensifieringsfällan

13 min lästid

Löftet var enkelt. AI tar hand om rutinarbetet. Du tar hand om det kreativa arbetet. Maskinen tar bort de repetitiva uppgifterna från din tallrik, och du använder den frigjorda tiden till att tänka, planera, göra det arbete som bara människor kan göra. Alla vinner. Produktivitetsvinsterna är verkliga och arbetsdagen blir lättare.

Det var löftet. Här är vad som faktiskt hände.

I februari 2026 publicerade Aruna Ranganathan och Xingqi Maggie Ye resultaten av en åtta månader lång etnografisk studie i Harvard Business Review. Ye, doktorand vid UC Berkeleys Haas School of Business, hade integrerat sig i ett amerikanskt teknikföretag med cirka tvåhundra anställda. Hon observerade dem två gånger i veckan, följde deras kommunikationskanaler och genomförde mer än fyrtio djupintervjuer inom engineering, produkt, design, forskning och drift. Studien omfattade april till december.

Resultatet var inte det som produktivitetsberättelsen förutspått. Anställda som använde AI-verktyg arbetade inte mindre. De arbetade mer. Snabbare. De tog på sig ett bredare spektrum av uppgifter. De sträckte ut arbetet till timmar som brukade vara tomma — lunchpauser, kvällar, de tio minuterna innan ett möte. Verktyget som skulle skapa utrymme förbrukade det.

Ranganathan och Ye identifierade tre former av intensifiering. Den första var omfångsexpansion: människor började ta på sig arbete som tidigare hade tillhört någon annan eller som inte alls hade försökts. Definitionen av “mitt jobb” vidgades. Den andra var gränsupplösning: eftersom AI gör det enkelt att starta och fortsätta uppgifter, sipprade arbete in i stunder som tidigare fungerade som pauser. En prompt under lunchen. En sökning innan sänggåendet. De naturliga stopppunkterna i arbetsdagen upplöstes. Den tredje var parallellbearbetning: arbetare höll flera trådar igång samtidigt, körde AI-processer i bakgrunden medan de deltog i möten, granskade kod eller skrev dokument.

Inget av detta var påtvingat. Ingen sa åt dessa anställda att arbeta mer. Intensifieringen var frivillig — eller verkade vara det. Verktyget fick att göra mer att kännas möjligt, tillgängligt och belönande i stunden. Så människor gjorde mer. Och att göra mer blev den nya grundnivån.

Jevons paradox för arbete

Det här mönstret har ett namn, även om det kommer från ett annat sekel och handlar om en annan resurs. 1865 observerade den engelske ekonomen William Stanley Jevons att James Watts förbättringar av ångmaskinen — som dramatiskt ökade effektiviteten i kolanvändning — inte ledde till en minskning av kolförbrukningen. De ledde till en ökning. Maskinen var effektivare per arbetsenhet, så det blev ekonomiskt att använda den för mer arbete. Den totala kolförbrukningen steg, inte sjönk.

Jevons paradox — upptäckten att effektivitetsvinster i resursanvändning leder till ökad total förbrukning av den resursen — handlade om kol. Men mekanismen handlar om incitament, och incitament bryr sig inte om vilken resurs de fäster sig vid.

AI är Watts maskin för kognitivt arbete. Den gör varje enhet kunskapsarbete effektivare. Ett utkast som tog två timmar tar fyrtio minuter. En dataanalys som krävde en specialist kan nu approximeras av en generalist med rätt prompt. En rapport som inte hade skrivits — för att kostnaden översteg det upplevda värdet — skrivs nu, för att kostnaden sjönk under tröskeln.

Effektiviteten per uppgift är verklig. Ranganathan och Ye bestrider den inte. Paradoxen är att effektivitet per uppgift, aggregerad över en organisation som mäter produktionsvolym, producerar intensifiering, inte avlastning. Den totala mängden kognitivt arbete ökar. Arbetsdagen blir tätare, inte kortare. Löpbandet accelererar.

Det här är inte ett teknikfel. Tekniken gjorde exakt det den var designad för. Det här är ett fel i incitamentsdesign. De organisatoriska systemen som omger tekniken belönar produktionsvolym. När ett verktyg gör det möjligt att producera mer, absorberar systemet ökningen. Den frigjorda tiden ges inte tillbaka till arbetaren. Den återinvesteras i mer arbete — automatiskt, strukturellt, utan att någon fattar ett medvetet beslut att intensifiera.

Måttet belönar intensifiering

Charles Goodhart, en brittisk ekonom, formulerade 1975 en princip som har blivit en av de mest citerade observationerna inom organisationsdesign: “När ett mått blir ett mål, upphör det att vara ett bra mått.” Goodhart skrev om penningpolitik, men principen gäller överallt där mätvärden styr beteende.

De flesta organisationer mäter produktivitet som output per tidsenhet. Avslutade uppgifter. Lösta ärenden. Producerade dokument. Skrivna kodrader. Skickade mejl. Måttet är volym.

När AI träder in i detta system ökar volymen. Måttet förbättras. Dashboards blir gröna. Kvartalsrapporter firar produktivitetsvinsterna. Och ingen frågar om människorna som producerar arbetar hårdare, tänker mer eller vilar mindre — för måttet spårar inte kognitiv belastning. Det spårar volym. Och volymen gick upp.

Upwork Research Institute, i samarbete med Workplace Intelligence, undersökte 2 500 arbetare globalt 2024 — inklusive 1 250 C-suite-chefer. Huvudresultatet: 77 procent av anställda som använder AI sa att verktygen hade ökat deras arbetsbelastning. Inte minskat. Ökat. Källorna till den extra belastningen var specifika: 39 procent rapporterade att de lade mer tid på att granska eller moderera AI-genererat innehåll. 23 procent rapporterade att de investerade mer tid i att lära sig använda verktygen. 21 procent rapporterade att de blev ombedda att göra mer arbete som direkt resultat av AI.

Cheferna var under tiden entusiastiska. 96 procent uttryckte höga förväntningar på att AI skulle förbättra produktiviteten. Klyftan mellan chefernas förväntningar och de anställdas erfarenhet är inte ett kommunikationsproblem. Det är ett mätproblem. Cheferna tittar på volymmåttet. Måttet gick upp. De anställda lever inuti volymmåttet. Volymen gick upp för att de gör mer arbete.

Goodharts lag förutsäger detta exakt. Organisationen satte produktionsvolym som mål. Måttet förbättrades. Och måttet upphörde att vara ett bra mått på det som det skulle representera — som inte var volym, utan värde per enhet mänsklig ansträngning.

Vad AI lämnar kvar

Det finns en subtilare dimension av intensifieringen som volymmåtten helt missar.

När AI tar hand om rutinuppgifterna — det första utkastet, dataextraktionen, mallen, sammanfattningen — är det som återstår för människan inte rutin. Det är den svåra delen. Bedömningsbesluten. Tvetydigheten. De beslut som kräver kontext, nyanser och domänkunskap som modellen inte har.

Det här är den kognitiva återstoden av AI-förstärkt arbete. De enkla uppgifterna är automatiserade. De svåra uppgifterna kvarstår. Och de svåra uppgifterna är svårare nu — inte för att de har förändrats, utan för att de enkla uppgifterna gav kognitiv vila. Rutinarbetet var en paus. Inte en spännande paus, inte en avkopplande paus i medveten mening, men en period av lägre kognitiv belastning som lät hjärnan återhämta sig mellan episoder av krävande tänkande.

Daniel Kahnemans distinktion mellan System 1 (snabbt, automatiskt, lite ansträngning) och System 2 (långsamt, medvetet, stor ansträngning) är användbar här. Rutinuppgifter lever i System 1. Bedömningsuppgifter lever i System 2. System 2 är metaboliskt dyrt — det förbrukar glukos, det producerar trötthet, det har en begränsad daglig budget. En arbetsdag som blandar System 1- och System 2-uppgifter är hållbar. En arbetsdag som övervägande är System 2 — för att System 1-uppgifterna har automatiserats — är inte hållbar i samma längd.

Workdays forskning, utförd med Hanover Research och publicerad i januari 2026, fann att 37 procent av den tid anställda sparade med AI gick förlorad till omarbete — att rätta fel, verifiera resultat, skriva om innehåll som inte uppfyllde kvalitets- eller kontextkrav. 77 procent av anställda granskade AI-genererat arbete lika noggrant, eller noggrannare, än arbete utfört av människor. Bara 14 procent rapporterade konsekvent nettopositiva resultat av AI-användning.

Omarbetet är System 2-arbete. Att utvärdera AI-output kräver bedömning, jämförelse, verifiering — allt krävande, allt metaboliskt dyrt, allt tagande från samma begränsade kognitiva budget som den “frigjorda” tiden skulle fylla på. Den anställda sparade fyrtio minuter på utkastet och lade tjugofem minuter på att verifiera resultatet. Nettobesparingen är femton minuter. Men den kognitiva profilen för de tjugofem minuterna är mer krävande än de fyrtio minuterna de ersatte, för att granska någon annans arbete efter oförutsägbara fel kräver mer uthållig uppmärksamhet än att producera arbete enligt ett mönster man redan känner.

Volymmåttet ser femton sparade minuter. Den anställdas prefrontala cortex ser tjugofem minuter av högkrävande verifiering tillagda till en dag som redan var mättad.

Krav-kontroll-kollisionen

Robert Karaseks krav-kontroll-modell, utvecklad 1979 och förfinad under fyra decennier av arbetslivsforskning, beskriver arbetsrelaterad stress som samspelet mellan två variabler: kraven på arbetaren och den kontroll arbetaren har över hur kraven ska mötas.

Höga krav i kombination med hög kontroll producerar aktivt arbete — utmanande, hållbart och associerat med lärande och professionell utveckling. Höga krav i kombination med låg kontroll producerar högt stressarbete — den konfiguration som starkast associeras med utbrändhet, hjärt-kärlsjukdom och kronisk stress.

AI-förstärkt arbete, som Ranganathan och Ye dokumenterade det, är alltmer krävande. Omfånget är bredare. Tempot är snabbare. Gränserna har upplösts. Den kognitiva belastningen per timme är högre för att rutinuppgifterna är borta och bedömningsuppgifterna kvarstår.

Kontrolldimensionen är där fällan slår igen. I de flesta organisationer kontrollerar den enskilde arbetaren inte volymmålen. De sätter inte outputförväntningarna. De bestämmer inte hur AI-tidsbesparingarna allokeras. Tidsbesparingarna absorberas automatiskt av systemet — av nästa ärende i kön, nästa projekt som blir genomförbart, nästa rapport som någon begär för att “AI:n kan göra det snabbt.”

Höga krav. Låg kontroll. Karaseks modell förutsäger stress. Förutsägelsen är inte teoretisk. PwC:s 29:e Global CEO Survey, publicerad i januari 2026 och omfattande 4 454 VD:ar i 95 länder, fann att 56 procent rapporterade ingen betydande finansiell nytta av sina AI-investeringar. Bara 12 procent rapporterade förbättringar i både kostnader och intäkter. Investeringen producerar intensifiering på arbetarnivå utan att generera avkastning på organisationsnivå. Löpbandet går snabbare men byggnaden har inte flyttat sig.

Incitamentet som ingen omdesignade

Här är meningen jag vill hålla fast vid: problemet är inte AI:n. Problemet är incitamentsstrukturen som omger AI:n.

När en organisation inför ett AI-verktyg och mäter dess påverkan genom produktionsvolym, har organisationen byggt en intensifieringsmaskin. Inte avsiktligt. Inte illvilligt. Strukturellt. Verktyget ökar effektiviteten per uppgift. Måttet belönar volym. Volymen ökar. De anställda absorberar ökningen. Cykeln fortsätter.

Vägen ut ur fällan är inte att ta bort verktyget. Verktyget fungerar. Effektiviteten per uppgift är äkta. Vägen ut är att omdesigna incitamentet.

Det kräver att man mäter något annat. Inte produktionsvolym. Outputvärde per enhet kognitiv ansträngning. Det är svårare att mäta än volym — vilket är exakt varför organisationer faller tillbaka på volym. Volym är lätt att räkna. Kognitiv ansträngning är det inte. Men Goodharts lag är tydlig: det enkla måttet, väl gjort till mål, upphör att mäta det som spelar roll.

Hur skulle det se ut att mäta annorlunda?

Det skulle innebära att spåra inte hur många rapporter teamet producerade, utan vilka rapporter som ledde till beslut. Inte hur många ärenden som löstes, utan vilka lösningar som höll — vilka som inte kom tillbaka som återöppnade ärenden inom trettio dagar. Inte hur många dokument som skrevs, utan vilka dokument som lästes, citerades och användes. Måttet skiftar från produktion till påverkan.

Det skulle också innebära att spåra kognitiv belastning direkt. Inte som ett friskvårdsinitiativ — som en operativ variabel. Workdays forskning fann att nästan nio av tio företag hade uppdaterat färre än hälften av sina roller för att spegla AI-kapacitet. Bara 37 procent av tunga AI-användare hade fått utökad kompetensutveckling. Organisationerna inför verktyg utan att omdesigna de jobb som verktygen förändrar. Rollens kravprofil har skiftat — mer bedömning, mindre rutin — men rollbeskrivningen, prestationsmåtten och den förväntade produktionsvolymen har inte förändrats.

Rollen är ny. Incitamentet är gammalt. Klyftan mellan dem är intensifieringsfällan.

Löpbandsmetaforen

Jag kommer ständigt tillbaka till bilden av ett löpband — inte för att den är smart, utan för att den är precis.

Ett löpband ökar din hastighet utan att ändra din position. Du springer snabbare. Din puls stiger. Dina muskler arbetar hårdare. Du svettas. Och i slutet är du exakt på samma plats som du startade.

AI-förstärkt arbete, under den nuvarande incitamentsstrukturen, är ett löpband. Hastigheten per uppgift ökar. Volymen ökar. Den kognitiva ansträngningen ökar. Och resultaten — mätta på organisationsnivå — förbättras inte proportionerligt. PwC:s data är otvetydig: 56 procent av VD:arna rapporterar ingen finansiell nytta. Löpbandet snurrar. Byggnaden rör sig inte.

Löpbandet är inte trasigt. Det fungerar exakt som det designades. Problemet är att ingen frågade om ett löpband var rätt maskin för målet. Om målet är att komma framåt — att skapa mer värde, inte mer volym — behövs en annan maskin. En maskin som belönar påverkan, inte genomströmning. En maskin som mäter kvaliteten på beslut, inte kvantiteten av output.

Löpbandet mäter steg. Destinationen kräver riktning.

Vad organisationer kan göra

Jag är vaksam inför preskriptiva listor. De reducerar komplexa problem till åtgärdspunkter, och åtgärdspunkter utan kontext är Goodharts lag som väntar på att slå till — listan blir målet, målet upphör att vara användbart. Men det finns strukturella interventioner som förändrar incitamentslandskapet istället för att bara lägga till uppgifter.

Omdefiniera vad AI-tidsbesparingarna är till för. Om AI sparar ett team åtta timmar i veckan måste de åtta timmarna explicit allokeras — och allokeringen får inte per automatik bli “mer av samma arbete.” Alternativen inkluderar: tid för djupt tänkande (oschemalagda, oövervakade block för komplex problemlösning), kompetensutveckling (lärande som inte är direkt produktivt men bygger framtida kapacitet), återhämtning (kognitiv vila som minskar den kumulativa belastningen och förhindrar utbrändheten som Karaseks modell förutsäger). Allokeringen är ett designbeslut. Om organisationen inte fattar det, fattar systemet det åt den — och systemet faller per automatik tillbaka på mer volym.

Separera volymmåttet från prestationsmåttet. Volym är ett aktivitetsmått. Det säger vad som hände. Det säger inte vad det var värt. Prestationsmått bör spåra resultat: fattade beslut, lösta problem, upprätthållen kvalitet, undvikna fel. Dessa är svårare att räkna. Den svårigheten är poängen. Enkla mätvärden producerar Goodharts lag. Svåra mätvärden producerar information.

Omdesigna roller för att spegla AI-förstärkt arbete. Om AI hanterar rutinen är rollen nu en bedömningsroll. Bedömningsroller kräver andra kompetenser, annan utbildning, andra kognitiva profiler och andra vilomönster. En roll som var 60 procent rutin och 40 procent bedömning är nu 20 procent rutin och 80 procent bedömning. Prestationsförväntningarna, utbildningen och arbetsbelastningsmålen måste spegla den förskjutningen. Det gör de nästan aldrig.

Gör kognitiv belastning synlig. Inte som ett friskvårdsinitiativ på HR-portalen. Som en operativ dashboard bredvid volymmåtten. När ledare kan se att volymen gått upp och den kognitiva belastningen gått upp, förändras samtalet. Intensifieringen blir synlig. Och synliga problem är lättare att hantera än osynliga.

Integrationen

Här är spänningen jag vill hålla utan att kollapsa den.

AI-verktyg är genuint effektiva. De minskar tid och ansträngning för specifika uppgifter. Förbättringen per uppgift är mätbar och verklig. Ranganathan och Ye fann inte att AI misslyckas med sin avsedda funktion. De fann att den lyckas — och framgången, i sammanhanget av volymbaserade incitament, producerar en paradox som skadar de människor som utför arbetet.

Verktyget är inte fällan. Incitamentet är fällan. Verktyget är ett löpband. Om det för dig framåt eller håller dig springande på stället beror helt på systemet det sitter i.

Organisationer som inför AI utan att omdesigna sina incitamentsstrukturer kommer att få intensifiering. Inte för att AI:n är bristfällig, utan för att organisationsdesignen är optimerad för ett mätvärde som AI gör enkelt att blåsa upp. Måttet stiger. Människorna inuti måttet blir tröttare. Resultaten, på den nivå som spelar roll — finansiell avkastning, hållbar prestation, medarbetarnas välmående — förbättras inte.

Organisationer som omdesignar incitamentet — som mäter påverkan istället för volym, som allokerar sparad tid medvetet, som erkänner det kognitiva skiftet från rutinarbete till bedömningsarbete — kommer att få något annat. Inte nödvändigtvis mer output. Möjligen mindre output, volymmässigt. Men bättre beslut. Färre fel. Hållbart tempo. Och verktyg som människor använder för att verktygen gör deras arbete bättre, inte för att verktygen gör deras arbete mer.

Intensifieringsfällan är inte ett teknikproblem. Det är ett incitamentsdesignproblem utklätt till teknikproblem. Tekniken gjorde det den blev ombedd att göra. Frågan är vad organisationen bad den göra — och om någon tänkte på att fråga människorna som utför arbetet om “mer, snabbare” var rätt svar.

Löpbandet snurrar. Frågan är inte om du ska kliva av. Frågan är om du ska ändra destinationen.

Skriven av
Érica
Organisationspsykolog

Hon vet varför människor motstår verktyg — och hur man designar verktyg de kommer att älska. När Érica talar byter företag riktning. Inte av övertygelse. Av förståelse.

← Alla anteckningar