Nieuwe Europese AI-wet helpt door complexiteit van AI-adoptie te navigeren

AI Act geeft financiële sector kans vertrouwen te bevorderen

  • Blog
  • 13 aug 2024
Anthony Kruizinga

Anthony Kruizinga

Partner, Risk & Regulation lead, PwC Netherlands

Op 1 augustus 2024 werd de Europese wet over kunstmatige intelligentie (de 'EU AI Act') van kracht. AI-technologieën kunnen financiële instellingen helpen om de concurrentiekracht en de duurzaamheid van hun bedrijfsmodellen te behouden. Tegelijkertijd moet de financiële sector voorzichtig te werk gaan om mogelijke risico's te beperken die het vertrouwen in het financiële systeem kunnen ondermijnen of schadelijk kunnen zijn voor klanten. De nieuwe EU AI Act kan helpen bij deze afweging. Ondanks de uitdagingen bij de naleving kan de AI Act een cruciale rol spelen bij het bevorderen van zowel innovatie als vertrouwen in de financiële sector, hand in hand, aldus PwC-expert Anthony Kruizinga.

De AI-afweging: innovatie versus voorzichtigheid 

Ook in de financiële sector is de discussie rondom AI en vooral generatieve AI steeds prominenter. Logisch, want de mogelijkheden zijn immens. Het gebruik van AI in de financiële dienstverlening kan de klantrelatie revolutionair veranderen, operationele processen stroomlijnen en voorspellende analyses en daarmee risicomanagement verbeteren. 

Machinelearning-algoritmes kunnen bijvoorbeeld frauduleuze patronen realtime detecteren, waardoor je financiële verliezen aanzienlijk kunt verminderen en het vertrouwen van klanten in de beveiliging van hun accounts kunt vergroten. De verwerking van ‘natuurlijke taal’ maakt het mogelijk dat intelligente chatbots en virtuele assistenten gepersonaliseerde ondersteuning en financieel advies bieden, waarbij ze anticiperen op de behoeften en voorkeuren van klanten. En met behulp van voorspellende modellen kun je grote datasets analyseren om risico’s bij leningen, beleggingsstrategieën en beslissingen over portefeuillebeheer beter en eerder in kaart te brengen. 

Financiële instellingen hebben op die manier de mogelijkheid om hun producten en diensten aan te passen aan de veranderende eisen van klanten en onvoorziene financiële risico's eerder te signaleren. En dat is noodzakelijk: niet innoveren en het niet-benutten van deze technologische ontwikkelingen kunnen leiden tot een aanzienlijke vermindering van de concurrentiepositie en de levensvatbaarheid van het bedrijfsmodel.

Zet AI verantwoord en ethisch in om klantvertrouwen te behouden 

Maar de integratie van AI brengt ook een grote verantwoordelijkheid met zich mee. Klanten vertrouwen erop dat financiële instellingen hun bezittingen en persoonlijke gegevens beschermen. Als banken AI benutten om hun efficiëntie te verbeteren en gepersonaliseerde diensten aan te bieden, moeten ze AI verantwoord en ethisch inzetten. Dit leidt tot een cruciale afweging: moeten financiële instellingen volledig gebruikmaken van de mogelijkheden van AI-systemen, of moeten ze voorzichtig blijven vanwege mogelijke fouten, hallucinaties, vooringenomenheid (zogeheten bias), kwetsbaarheid voor hacking en een gebrek aan transparantie in deeplearningmodellen? Kortom, welke maatregelen moeten financiële instellingen nemen om ervoor te zorgen dat hun AI-systemen betrouwbaar zijn en dat ze AI verantwoord en ethisch gebruiken? Ik geloof dat de AI Act kan helpen dit schijnbare dilemma op te lossen. 

AI Act geeft financiële sector kans vertrouwen te bevorderen

De EU AI Act: navigeren door het vertrouwenslandschap 

Gezien de risico's die gepaard gaan met de adoptie van AI, zijn strategische maatregelen essentieel. Het voldoen aan de nieuwe EU AI Act biedt een goede oplossing voor dit dilemma. De AI Act zorgt ervoor dat AI-systemen fundamentele rechten, veiligheid en ethische principes respecteren, waardoor de betrouwbaarheid toeneemt. 

De EU AI Act heeft als doel de creatie van hoogwaardige AI-systemen te bevorderen met uniforme standaarden, terwijl EU-burgers worden beschermd. De wet pakt risico's aan die worden gecreëerd door AI-toepassingen, verbiedt AI-praktijken die onaanvaardbare risico's met zich meebrengen, identificeert toepassingen met een hoog risico en stelt duidelijke eisen aan AI-systemen die in dergelijke toepassingen worden gebruikt. De wet stelt verplichtingen vast voor degenen die AI implementeren en aanbieders van AI-toepassingen met een hoog risico, vereist een conformiteitsbeoordeling voordat AI-systemen in gebruik worden genomen, stelt handhavingsmechanismen vast en creëert een governancestructuur op Europees en nationaal niveau. 

De EU AI Act heeft verschillende belangrijke gevolgen voor de financiële sector: 

  • Toegenomen transparantie en verantwoordelijkheid: de AI Act verplicht transparantie in AI-operaties, waarbij banken moeten uitleggen hoe besluitvormingsprocessen met AI werken. Deze transparantie bevordert het vertrouwen, omdat klanten kunnen begrijpen hoe hun gegevens worden gebruikt en beschermd. 
  • Risicobeperking: door bepaalde AI-toepassingen als een hoog risico te classificeren, zorgt de wet ervoor dat je strenge maatregelen neemt om potentiële schade te beperken. Dit is cruciaal voor financiële diensten die te maken hebben met gevoelige persoonlijke en financiële gegevens. 
  • Innovatie binnen ethische grenzen: de wet biedt richtlijnen voor de ontwikkeling van ethische AI, waardoor je onzekerheden worden verminderd en innovatie binnen vastgestelde grenzen stimuleert. Dit versnelt de adoptie van nieuwe technologieën en zorgt ervoor dat je ethische overwegingen naleeft. 
  • Operationele efficiëntie: door nalevingsprocessen te stroomlijnen en ze te integreren in de ontwikkeling van AI, kunnen banken de tijd en middelen die ze besteden aan ‘trial-and-error’- fasen verminderen. Daardoor kunnen ze de implementatie van AI-innovaties versnellen. Dit kan leiden tot een snellere uitrol voor op AI gebaseerde producten en diensten, waardoor een concurrentievoordeel ontstaat.

Belangrijker is nog dat, door zich te houden aan de EU AI Act, financiële instellingen kunnen aantonen dat ze zich inzetten voor een verantwoord en ethisch gebruik van AI. Deze naleving beperkt niet alleen risico's, maar vergroot ook het vertrouwen van klanten. Zij zien AI-innovaties dan eerder als middelen om de beveiliging en personalisatie te verbeteren en niet als bedreigingen voor de privacy en betrouwbaarheid. Klanten die begrijpen hoe hun gegevens worden gebruikt en welke waarborgen er zijn om deze te beschermen, zijn eerder geneigd om op AI-gebaseerde diensten te vertrouwen en deze te gebruiken. Dit kan de klantloyaliteit vergroten en leiden tot een grotere adoptie van op AI-gebaseerde aanbiedingen van financiële diensten en producten. 

EU AI Act: een uitdaging, maar ook een middel om vertrouwen te vergroten 

De naleving van de EU AI Act is zeker een uitdaging, maar het is dus ook een middel om het vertrouwen in de financiële sector te vergroten. De AI Act biedt een soort 'vangrails', waarbinnen op een veilige manier met AI kan worden geëxperimenteerd en geïnnoveerd. Zoals verkeerslichten, -borden en -regels een veiliger omgeving creëren voor autorijden. Door dit regelgevend kader te omarmen, kunnen financiële instellingen vol vertrouwen door de complexiteit van de adoptie van AI navigeren. Waarbij ze ervoor zorgen dat het vertrouwen van hun klanten niet alleen behouden blijft, maar ook wordt versterkt in dit nieuwe tijdperk van technologische vooruitgang.

Meer weten over de gevolgen van de EU AI Act?

Neem contact met ons op.

Over de auteur

Anthony Kruizinga

Anthony Kruizinga, leidt de Risk & Regulatory consulting-praktijk in Nederland en maakt deel uit van het EMEA Financial Services-team. Hij leidt tevens PwC's adviesactiviteiten rond het Single Supervisory Mechanism (SSM) van de ECB in Europa. Hierbij richt hij zich op: risicobeheer, risicobereidheidskaders, kapitaalbeheer, stresstests, liquiditeit, SREP, risicomodellering en TRIM. Anthony is ingenieur en heeft Business Management & Administration gestudeerd aan de Eindhoven University.

Volg ons