Do you want to switch the language?

AI-agenter i arbetet mot finansiell brottslighet: möjlighet eller risk?

AI agents in the fight against financial crime: yay or nay? Here is what Joe Biddle, UK Market Director at Trapets, considers.

Gabriela Taranu

Content Manager Publicerad 23 maj 2025
Man in a green sweater working on a laptop at a wooden desk with office supplies.

När AI gör sitt intåg i allt fler yrkesområden pågår en livlig diskussion om vilken roll AI-agenter kan spela i arbetet mot finansiell brottslighet. 

Men hur mycket kan vi egentligen lita på att AI förbättrar regelefterlevnaden? Den frågan tog Joe Biddle, UK Market Director på Trapets, upp under ICA Future of FinCrime & Compliance Summit 2025 i London. 

Med erfarenhet från samtliga brittiska kreditupplysningsföretag och fokus på reglerade finansmarknader diskuterade Joe de praktiska konsekvenserna av att införa AI-agenter i regelefterlevnadsarbetet

Budskapet var tydligt: en strategisk användning av AI kräver tydliga ramar, djup förståelse och ständig kontroll. 

Deltagarna på sessionen, från globala efterlevnadschefer till analytiker inom operationella risker, fick höra mer än bara löften om vad AI kan åstadkomma. 

Diskussionen omfattade även dess begränsningar, risker och det ansvar som finansiella aktörer har när de inför avancerad teknik i sina processer för att motverka penningtvätt.  

Här finns några viktiga insikter från Joes session. 

1. Effektivitetens illusion: mer är inte alltid bättre 

AI-system marknadsförs ofta som lösningar som snabbt kan analysera stora datamängder och identifiera mönster och avvikelser som traditionella metoder kan missa. 

Även om detta stämmer i många fall, varnade Joe för en viktig aspekt: denna ”förmåga” har sina begränsningar. AI-verktyg som huvudsakligen tränats på historiska data tenderar att återspegla föråldrade bedrägerimodeller. 

De kan till en början ge goda resultat, men blir snabbt föråldrade om de inte uppdateras löpande. Känslan av effektivitet kan leda till en ökning av falsklarm, vilket riskerar att överbelasta redan pressade efterlevnadsteam. 

Detta är inte bara en teoretisk risk. Som Joe förklarade: finansiella institutioner som inte hanterar flödet av falsklarm på ett effektivt sätt kan uppleva flaskhalsar, fördröjda varningar och förbisedda verkliga risker. 

“AI ska stötta efterlevnad – inte överösa den,” sade han. 

2. “Black box”-problemet: när transparens blir avgörande 

Ett annat tema i Joes session var bristen på transparens som ofta förknippas med AI-baserade verktyg. Dessa system är effektiva, men de ”förstår” inte själva de problem de är tänkta att lösa. 

“AI vet inte vilket problem den försöker lösa; den upptäcker mönster baserat på förinställda regler. Det är upp till de finansiella institutionerna att förstå och kunna förklara varför ett beslut har fattats,” förklarade Joe. 

Han föreslog därför en valideringsprocess i två steg, där varje AI-beslut ska vara möjligt att granska, förklara och dokumentera. AI-verktyg måste vara transparenta, inte bara för compliance-teamen, utan även för revisorer och tillsynsmyndigheter. 

3. Styrning är ett måste för att motverka partiskhet 

Joe betonade vikten av inkluderande styrning under träning och implementation av AI. Det går inte att helt eliminera partiskhet, men det kan minimeras genom samarbete mellan funktioner som regelefterlevnad, juridik, ESG och ledning. 

Ett tvärfunktionellt angreppssätt säkerställer att AI-systemet utvecklas med ett balanserat perspektiv och blir tillämpligt i olika marknader och produktområden. Det är ett steg mot rättvisa och integritet i verksamheten. 

“Partiskhet i AI-beslut måste hållas på ett minimum. Vi kommer aldrig att kunna ta bort allt, eftersom modeller tränas av människor – och vi bär alla på någon form av partiskhet.” 

4. Mänsklig kontroll: den främsta försvarslinjen 

Trots möjligheterna med automatisering betonade Joe en viktig sanning: AI kan inte ersätta mänsklig kompetens. 

AI-agenter, hur avancerade de än är, missar ofta nyanserna i nya hot – särskilt sådana som inte följer tidigare mönster. Mänskliga analytiker med erfarenhet och kontextuell förståelse är fortfarande det mest effektiva skyddet mot finansiell brottslighet. 

“Mänsklig kontroll får inte försvagas. Vi kommer alltid att behöva kunna tolka AI-beslut, utmana dem och justera modellerna vid behov.” 

Joe uppmanade institutioner att säkerställa AI-kompetens inom sina efterlevnadsteam. Medarbetarna måste förstå hur AI fungerar, kunna ifrågasätta besluten och veta när systemen behöver korrigeras. 

Avslutande reflektioner: strategi före hype 

Finansiella aktörer behöver en genomtänkt strategi när de inför AI. Det kräver kontinuerlig testning, aktiv övervakning och mänskligt engagemang i varje steg. 

Som Joe sammanfattade: “AI är inte ditt försvar, det är din partner. Men som med alla partnerskap – det kräver uppmärksamhet.”