De ontwikkelingen rond kunstmatige intelligentie (artificiële intelligentie, AI) gaan razendsnel. Nog geen twee jaar geleden had een groot deel van de wereldbevolking nog nooit gehoord van de ‘large language’-modellen ChatGPT en Bard. Inmiddels worden deze twee redelijk bekende AI-tools – ook wel generatieve AI genoemd omdat ze zelf tekst genereren – zowel voor zakelijke als privé toepassingen volop gebruikt.
‘Stel een paar simpele vragen aan die large language models en er rollen hele verhalen uit, dat is ongeëvenaard’, zegt Gerwin Naber, bij PwC belast met cybersecurityvraagstukken. ‘Een andere toepassing is gericht op het coderen van software. Ontwikkelaars kunnen hiermee veelal beter en zeker sneller coderen. Op dit moment komen wel een paar dingen samen. Er is enorm veel rekencapaciteit van computers aanwezig, er zijn enorm veel data beschikbaar en de techniek achter modellering is stukken verfijnder dan voorheen.’
‘AI is niet nieuw. Voorheen was de toepassing ervan voorbehouden aan specialisten die ergens in complexe omgevingen veel tijd staken in datamodellering’, duidt Mona de Boer de AI-ontwikkelingen. Zij promoveerde eerder dit jaar op het AI-vraagstuk ‘Trustworthy AI and accountability: yes, but how?’. ‘Die complexiteit is er af. Je kunt nu via je browser een AI-tool gebruiken zonder enige voorkennis. Die laagdrempeligheid is in korte tijd enorm toegenomen. Kijk wat je met ChatGPT kunt en hoe chatbots zich de afgelopen tijd ten goede hebben ontwikkeld. Ondanks de risico’s sta ik versteld van hoe goed die modellen het doen. Dat heeft zeker geholpen de adoptie in ongelooflijk korte tijd te versnellen naar vele miljoenen gebruikers.’
De twee leggen uit dat ‘large language’-modellen als het ware heel goede voorspellers zijn van het volgende woord. De Boer: ‘Een computer kan goed iets reproduceren; een spiegel zijn van wat er in ons hoofd is. Toepassingen als ChatGPT, maar ook Bard van Google hebben het ‘hele internet’ als hun databron, maar het internet is wat wij mensen erop hebben gezet. Die toepassingen zijn eigenlijk een hele geavanceerde spiegel van wie we zelf zijn.’
De boodschap van de twee PwC-experts is duidelijk: blijf ook zelf nadenken. ‘Ik wil het niet bagatelliseren', verduidelijkt Naber. ‘We moeten voorover leunen, nadenken wat voor impact AI heeft. Waar kan het wel voor gebruikt worden? Het is iets dat ons kan helpen, maar ontslaat ons niet van de verantwoordelijkheid om ons eigen verstand te blijven gebruiken.’ Mona de Boer vult hem aan: ‘Ik denk dat het een natuurlijke reactie is op alles wat nieuw is in de samenleving. Doordat de gemiddelde burger ook dagelijks met AI in aanraking komt, is de discussie meer gaan leven, dus ook die over de risico’s.’
In de optiek van De Boer is nagenoeg elke organisatie – ongeacht sector of omvang – bezig om data tot informatie te verwerken en daarop te handelen. ‘Dat proces kost best veel tijd en die tijd kan zinvoller worden besteed. Kijk maar naar hoeveel tijd customer-service-afdelingen kwijt zijn aan het afhandelen van veel voorkomende klantvragen, de maakindustrie aan het uitvoeren van standaard kwaliteitscontroles op producten, om maar niet te spreken van de uitdagingen in de zorg als het gaat om zowel het verlenen van zorg als de administratieve afhandeling daarvan. Door de inzet van AI kunnen processen radicaal worden versneld en beter en consistenter worden uitgevoerd. Zie AI niet als een tool om te implementeren. Het is een technologie die ons helpt fundamenteel anders naar onze werkzaamheden te kijken. Bij organisaties komt dan tijd vrij om iets te doen met die inzichten en daar ligt de aantrekkingskracht. Ik zie banen dan ook in hoog tempo veranderen.’
Gerwin Naber vertelt dat hij niet alle wijsheid in pacht heeft. ‘Mijn eerste reactie is dat het laagdrempeliger wordt en dus makkelijker te gebruiken voor het maken van phishing e-mails en fake websites. Als in de toekomst ‘large language’-modellen ook nog eens op kwantumcomputers draaien, doorbreekt dat ‘in the blink of an eye’ encryptiesleutels. Heb geen illusie dat preventie de oplossing is. Waar zitten mijn ‘kroonjuwelen’ en hoe ga ik ze beschermen? Ga er maar van uit dat je gehackt wordt. Dus: monitor, detecteer. Als er iets gebeurt: reageren en herstellen. Om zeker te weten dat die hele cyclus werkt, moet je als organisatie bedreigingen gaan simuleren om de eigen reactiesnelheid te kunnen testen.’
‘We gaan efficiënter werken. Ik zie AI in veel beroepen een assistent worden, een copiloot’, zegt De Boer. ‘De samenwerking met die copiloot gaat een stevige stempel drukken op hoe we leren, hoe we werken, hoe we vrije tijd besteden. We zullen ook veel meer de fysieke copiloot gaan zien. In de zorg zie je bijvoorbeeld ontwikkelingen rondom fysieke robots die de dagelijkse mentale check-in met ouderen doen.’
Ook Naber ziet AI een steun zijn voor de dagelijkse (werk)praktijk: ‘Door de inzet van AI is de computer dermate slim geworden dat deze de storende stroom datasignalen als e-mails, notulen, beeld, sociale media et cetera gaat helpen te verwerken. Mijn boodschap aan het bedrijfsleven is: verdiep je in deze ontwikkeling en onderzoek wat AI voor je kan betekenen.’
Sinds zeven jaar brengt PwC alles rond AI samen in wat het de ‘Responsible AI toolkit’ noemt. ‘Het is een internationale verzameling van kennis over ontwikkelingen op het gebied van AI-regelgeving, maar ook standpunten van toezichthouders, consumentenorganisaties, het bedrijfsleven en overheden. Eigenlijk van iedereen die een rol speelt in het AI-ecosysteem’, legt PwC-partner en AI-specialist Mona de Boer uit. ‘Maar in de toolkit zit meer. Het is voorzien van geactualiseerde leading practices voor specifieke organisatiecontexten. Sectoren kunnen zo van elkaar leren. Maar er zitten ook concrete tools in. Bijvoorbeeld tools die een data scientist in de dagelijkse realiteit helpen om ethische afwegingen te maken bij het ontwikkelen van een AI-model. Zo helpen we onze klanten AI op een verantwoorde manier in te zetten.’
‘De betekenis van responsible AI is door de Europese Commissie netjes verwoord in de concept AI-Act’, vervolgt De Boer. ‘Voor mij betekent het dat kunstmatige intelligentie aan de wet voldoet, consistent is in zijn performance en ethisch. Dat laatste is de moeilijkste van de drie. Ethisch gaat over wat door klanten, patiënten en burgers geaccepteerd wordt binnen de grenzen van regelgeving. Met andere woorden: AI-toepassingen waarbij je risico’s op een negatieve impact op het welzijn van natuurlijke personen reduceert tot een acceptabel niveau. Helemaal risicovrije AI-toepassing bestaat niet. Het gaat om een geaccepteerde balans tussen de voordelen die AI-toepassing brengt voor mensen en de risico’s die daar in verhouding tot staan, en hoe je daar als organisatie transparant over bent.’
Dit artikel verscheen eerder op nrc.nl