New York Times testade AI på skattedeklarationer. Det gick inte bra.
För ett par veckor sedan publicerade New York Times en studie som borde intressera alla som jobbar med siffror och regelverk. De testade fyra av de mest använda AI-verktygen på åtta fiktiva skattedeklarationer. Samtliga misslyckades. Felen låg i genomsnitt på mer än 18 000 kronor per deklaration.
Rubriken var “Don’t trust AI to file your taxes.” Och det stämmer, i dagsläget.
Men den som läser studien som ett kvitto på att ingenting kommer förändras läser den fel.
Branschen har förändrats förut.
Det som tog en heltidstjänst på 90-talet, manuell bokföring, pärmar med kvitton, månadsavstämningar för hand, tar idag en bråkdel av tiden. Bokföringsprogram automatiserade det repetitiva. Bankintegrationerna tog bort en hel kategori av manuellt arbete. Varje gång branschen digitaliserats har någon varnat för att jobben försvinner. Jobben förändrades istället.
Det som hände var att det enkla försvann och det svåra blev viktigare. Konsulten som tidigare ägnade halva dagen åt att mata in siffror fick mer tid till att faktiskt förstå vad siffrorna betyder.
AI är nästa steg i samma rörelse. Inte ett trendbrott, utan en fortsättning.
AI vet inte vad som är rätt. Den vet vad som brukar stämma.
Det är en viktig skillnad, och den förklarar varför NYT:s studie ser ut som den gör.
En språkmodell har lärt sig mönster från enorma mängder text och räknar ut vad som är det mest sannolika svaret. I de flesta sammanhang är det tillräckligt bra. Men inom skatterätt, penningtvätt och finansiell reglering är ungefär rätt inte ett acceptabelt svar. Det ser trovärdigt ut, och det är precis det som gör det farligt.
En kund som frågar en chatbot om en transaktion är misstänkt och får ett “förmodligen inte” slutar ofta att undersöka vidare. Det är inte att AI svarar fel som är det farliga. Det är att svaret låter tillräckligt säkert för att man ska sluta tänka själv.
Det är också därför regelverksutbildning inte blir mindre viktig när AI blir bättre. Den blir viktigare. Den som förstår regelverket på djupet ser direkt när ett svar är fel. Den som förlitar sig på att verktyget har rätt, gör det inte.
Det svåra är inte att räkna. Det är att förstå.
Tänk på vad en erfaren redovisningskonsult faktiskt gör på en dag. En del är mekaniskt, kontoavstämning, momsdeklarationer, lönekörninar. Men det är inte det kunderna egentligen betalar för.
De betalar för att någon fångar upp att den där transaktionen ser konstig ut. Att en klient är på väg att göra ett skattetekniskt misstag. Att regelverket förändrades i januari och påverkar just den här branschen på ett sätt som inte är uppenbart. Det är bedömning, inte beräkning.
Det kan man inte ersätta med ett sökverktyg, hur smart det än är. Det kräver erfarenhet, kontext och ett faktiskt ansvar gentemot klienten.
Kommer AI ta även den rollen?
Förmodligen, på sikt. Det är ingen vild spekulation. Kvittohantering, kontoavstämning, löpande bokföring, det är i grunden mönsterigenkänning på strukturerad data. Precis det AI är bra på. Flera av de stora bokföringsprogrammen bygger redan in det här, och det går fortare än de flesta tror.
Men steget från att automatisera det repetitiva till att ersätta det som kräver omdöme är större än det verkar. En AI kan läsa av ett kontoutdrag. Den kan inte avgöra om en kunds affärsmodell håller på att glida in i gråzonen för penningtvätt. Den kan sammanfatta ett regelverk. Den kan inte ta ansvar för ett råd.
Det är en distinktion som håller länge, men inte för alltid. Det är ärligare att säga det rakt ut än att låtsas som att branschen är immun.
Det som blir kvar när det repetitiva är automatiserat är det som alltid varit mest värdefullt: förmågan att sätta siffror i ett sammanhang, att förstå regelverket tillräckligt väl för att veta när det inte räcker, och att vara den person klienten faktiskt litar på.
Det är inte ett argument för att känna sig trygg med att ingenting förändras. Det är ett argument för att investera i precis det som AI inte kan köpa sig till.