Artificial Intelligence (AI) is een cruciale technologie voor digitale transformatie in zowel private als publieke organisaties. De verwachting is dat AI tegen 2030 een integraal onderdeel zal zijn van alle processen en producten in de gehele Europese waardeketen.
Naast de economische voordelen van AI is vertrouwen in de prestaties, beveiliging, betrouwbaarheid en rechtvaardigheid essentieel bij het bepalen van de adoptie ervan. Gebruikers, klanten en besluitvormers hebben zekerheid en vertrouwen nodig, wat alleen kan worden bereikt door een degelijke handhaving op basis van best practices en geaccepteerde normen.
Om aan deze behoefte te voldoen heeft de Europese Unie geharmoniseerde regelgeving ontwikkeld en geïntroduceerd voor AI-systemen. Bekend als de ‘EU AI Act’ is deze uitgebreide regelgeving van toepassing op zowel private als publieke organisaties, ongeacht of ze AI-systemen leveren of implementeren. De EU AI Act heeft als doel de creatie van hoogwaardige AI-systemen te bevorderen door middel van uniforme standaarden, terwijl EU-burgers worden beschermd.
Playback of this video is not currently available
De EU AI Act benadrukt het belang van holistisch AI-bestuur, dat verzekert dat de ontwikkeling en het gebruik van AI-systemen gedurende hun hele levenscyclus transparant en van hoge kwaliteit zijn. Organisaties moeten proactief aan de wettelijke verplichtingen van de EU AI Act voldoen en de potentiële risico's beperken. Het niet naleven kan leiden tot boetes onder de EU AI Act, evenals straffen onder de General Data Protection Regulation (GDPR) en sectorspecifieke regelgeving. Bovendien kunnen organisaties aansprakelijkheidsclaims krijgen als ze een defect AI-systeem gebruiken.
De EU AI Act rangschikt AI-systemen in vier categorieën op basis van hun potentiële risico's: onaanvaardbaar risico, hoog risico, beperkt risico en minimaal risico. Elke categorie heeft verschillende vereisten en verplichtingen die aan AI-systemen worden opgelegd.
De EU AI Act wordt naar verwachting binnenkort formeel aangenomen, waarbij de eerste set van vereisten voor AI-systemen met onaanvaardbaar risico zes maanden na de goedkeuring van kracht wordt. De andere vereisten zullen tot 2026 geleidelijk worden ingevoerd.
Het implementeren van de EU AI Act brengt voor veel organisaties uitdagingen met zich mee, maar biedt ook mogelijkheden om de kwaliteit van toegepaste AI te verbeteren. Om meer te weten te komen over de praktische implementatie van de complexe vereisten van de EU AI Act, kunt u de onderstaande whitepaper lezen.
De EU AI Act zal van invloed zijn op organisaties die actief zijn binnen de Europese Unie. Ze zullen hun AI-systemen moeten aanpassen om aan de nieuwe regelgeving te voldoen. Dit kan gevolgen hebben voor de bedrijfsvoering, markttoegang, transparantie en concurrentiepositie. Maar de wet biedt ook kansen voor bijvoorbeeld innovatie, consumentenvertrouwen en afstemming op de zich ontwikkelende wereldwijde AI-normen.
Om aan de eisen van de EU AI Act te voldoen, moeten organisaties de volgende stappen volgen:
Bepaal de classificatie van uw AI-systeem: beoordeel het risiconiveau van het AI-systeem volgens het classificatieraamwerk van de verordening. Bepaal of het in de categorie onaanvaardbaar risico, hoog risico, beperkt risico of minimaal risico valt.
Voer een risicobeoordeling uit: als uw AI-systeem is geclassificeerd als hoog risico, voer dan een grondige risicobeoordeling uit. Identificeer potentiële risico's van uw AI-systeem, zoals veiligheidsproblemen, privacyproblemen of vooroordelen.
Zorg ervoor dat u voldoet aan de technische vereisten: bekijk de technische vereisten die in de EU AI Act zijn gespecificeerd voor de risicocategorie van het AI-systeem. Dit kunnen kenmerken zijn als robuustheid, nauwkeurigheid en cyberbeveiligingsmaatregelen.
Documentatie voorbereiden: bereid gedetailleerde documentatie voor over de aanwezige AI-systemen. Deze moet informatie bevatten over de mogelijkheden, beperkingen en eventuele vooroordelen.
Menselijk toezicht implementeren: als uw AI-systeem is geclassificeerd als hoog risico, stel dan mechanismen in voor menselijk toezicht.
Conformiteitsbeoordelingen uitvoeren: voer voor AI-systemen met een hoog risico conformiteitsbeoordelingen uit om aan te tonen dat ze voldoen aan de EU AI Act.
Interne processen en beleidsregels bijwerken: herzie en actualiseer uw interne processen, beleid en procedures om ze in overeenstemming te brengen met de vereisten van de EU AI Act.
Blijf op de hoogte en pas aan: blijf op de hoogte van updates of wijzigingen van de EU AI Act en gerelateerde richtlijnen.
Een team van multidisciplinaire experts kan u ondersteunen bij uw processen om te voldoen aan de EU AI Act:
PwC biedt hulp bij het verkennen van de EU AI Act. Wij beschikken over deskundigheid op het gebied van regelgeving en kunnen helpen bij de interpretatie van de voorschriften, het bepalen van de classificatie van uw AI-systeem en het identificeren van specifieke vereisten.
PwC helpt bij het uitvoeren van risicobeoordelingen, het ontwikkelen van strategieën om risico's te beperken en het waarborgen van technische naleving van de vereisten van de EU AI Act.
PwC ondersteunt bij het uitvoeren van conformiteitsbeoordelingen voor AI-systemen met een hoog risico en helpt bij de voorbereiding van het beoordelingsproces.
PwC helpt bij het herzien en bijwerken van interne processen, beleidslijnen en procedures om deze in overeenstemming te brengen met de vereisten van de EU AI Act. Denk daarbij ook aan gegevensbeheer en ethische overwegingen.
PwC biedt opleidings- en trainingsprogramma's om de kennis en vaardigheden van uw team op het gebied van AI-regelgeving en -naleving te vergroten.
PwC biedt doorlopende ondersteuning om de prestaties van AI-systemen te bewaken, nieuwe risico's aan te pakken en aanpassingen te maken na eventuele updates of wijzigingen in de EU AI Act.