Op 1 augustus 2024 werd de Europese wet over kunstmatige intelligentie (de 'EU AI Act') van kracht. AI-technologieën kunnen financiële instellingen helpen om de concurrentiekracht en de duurzaamheid van hun bedrijfsmodellen te behouden. Tegelijkertijd moet de financiële sector voorzichtig te werk gaan om mogelijke risico's te beperken die het vertrouwen in het financiële systeem kunnen ondermijnen of schadelijk kunnen zijn voor klanten. De nieuwe EU AI Act kan helpen bij deze afweging. Ondanks de uitdagingen bij de naleving kan de AI Act een cruciale rol spelen bij het bevorderen van zowel innovatie als vertrouwen in de financiële sector, hand in hand, aldus PwC-expert Anthony Kruizinga.
Ook in de financiële sector is de discussie rondom AI en vooral generatieve AI steeds prominenter. Logisch, want de mogelijkheden zijn immens. Het gebruik van AI in de financiële dienstverlening kan de klantrelatie revolutionair veranderen, operationele processen stroomlijnen en voorspellende analyses en daarmee risicomanagement verbeteren.
Machinelearning-algoritmes kunnen bijvoorbeeld frauduleuze patronen realtime detecteren, waardoor je financiële verliezen aanzienlijk kunt verminderen en het vertrouwen van klanten in de beveiliging van hun accounts kunt vergroten. De verwerking van ‘natuurlijke taal’ maakt het mogelijk dat intelligente chatbots en virtuele assistenten gepersonaliseerde ondersteuning en financieel advies bieden, waarbij ze anticiperen op de behoeften en voorkeuren van klanten. En met behulp van voorspellende modellen kun je grote datasets analyseren om risico’s bij leningen, beleggingsstrategieën en beslissingen over portefeuillebeheer beter en eerder in kaart te brengen.
Financiële instellingen hebben op die manier de mogelijkheid om hun producten en diensten aan te passen aan de veranderende eisen van klanten en onvoorziene financiële risico's eerder te signaleren. En dat is noodzakelijk: niet innoveren en het niet-benutten van deze technologische ontwikkelingen kunnen leiden tot een aanzienlijke vermindering van de concurrentiepositie en de levensvatbaarheid van het bedrijfsmodel.
Maar de integratie van AI brengt ook een grote verantwoordelijkheid met zich mee. Klanten vertrouwen erop dat financiële instellingen hun bezittingen en persoonlijke gegevens beschermen. Als banken AI benutten om hun efficiëntie te verbeteren en gepersonaliseerde diensten aan te bieden, moeten ze AI verantwoord en ethisch inzetten. Dit leidt tot een cruciale afweging: moeten financiële instellingen volledig gebruikmaken van de mogelijkheden van AI-systemen, of moeten ze voorzichtig blijven vanwege mogelijke fouten, hallucinaties, vooringenomenheid (zogeheten bias), kwetsbaarheid voor hacking en een gebrek aan transparantie in deeplearningmodellen? Kortom, welke maatregelen moeten financiële instellingen nemen om ervoor te zorgen dat hun AI-systemen betrouwbaar zijn en dat ze AI verantwoord en ethisch gebruiken? Ik geloof dat de AI Act kan helpen dit schijnbare dilemma op te lossen.
Gezien de risico's die gepaard gaan met de adoptie van AI, zijn strategische maatregelen essentieel. Het voldoen aan de nieuwe EU AI Act biedt een goede oplossing voor dit dilemma. De AI Act zorgt ervoor dat AI-systemen fundamentele rechten, veiligheid en ethische principes respecteren, waardoor de betrouwbaarheid toeneemt.
De EU AI Act heeft als doel de creatie van hoogwaardige AI-systemen te bevorderen met uniforme standaarden, terwijl EU-burgers worden beschermd. De wet pakt risico's aan die worden gecreëerd door AI-toepassingen, verbiedt AI-praktijken die onaanvaardbare risico's met zich meebrengen, identificeert toepassingen met een hoog risico en stelt duidelijke eisen aan AI-systemen die in dergelijke toepassingen worden gebruikt. De wet stelt verplichtingen vast voor degenen die AI implementeren en aanbieders van AI-toepassingen met een hoog risico, vereist een conformiteitsbeoordeling voordat AI-systemen in gebruik worden genomen, stelt handhavingsmechanismen vast en creëert een governancestructuur op Europees en nationaal niveau.
Belangrijker is nog dat, door zich te houden aan de EU AI Act, financiële instellingen kunnen aantonen dat ze zich inzetten voor een verantwoord en ethisch gebruik van AI. Deze naleving beperkt niet alleen risico's, maar vergroot ook het vertrouwen van klanten. Zij zien AI-innovaties dan eerder als middelen om de beveiliging en personalisatie te verbeteren en niet als bedreigingen voor de privacy en betrouwbaarheid. Klanten die begrijpen hoe hun gegevens worden gebruikt en welke waarborgen er zijn om deze te beschermen, zijn eerder geneigd om op AI-gebaseerde diensten te vertrouwen en deze te gebruiken. Dit kan de klantloyaliteit vergroten en leiden tot een grotere adoptie van op AI-gebaseerde aanbiedingen van financiële diensten en producten.
De naleving van de EU AI Act is zeker een uitdaging, maar het is dus ook een middel om het vertrouwen in de financiële sector te vergroten. De AI Act biedt een soort 'vangrails', waarbinnen op een veilige manier met AI kan worden geëxperimenteerd en geïnnoveerd. Zoals verkeerslichten, -borden en -regels een veiliger omgeving creëren voor autorijden. Door dit regelgevend kader te omarmen, kunnen financiële instellingen vol vertrouwen door de complexiteit van de adoptie van AI navigeren. Waarbij ze ervoor zorgen dat het vertrouwen van hun klanten niet alleen behouden blijft, maar ook wordt versterkt in dit nieuwe tijdperk van technologische vooruitgang.
Anthony Kruizinga