Skip to Content

Sander van der Meijs is director digitale strategie bij KPMG. Hij is enthousiast, maar ziet ook risico’s. “De toegankelijkheid van de chatbot en de hoge snelheid van de AI-toepassingen maken ChatGPT heel aantrekkelijk. Bijvoorbeeld om nog snel teksten samen te vatten, gespreksverslagen te maken en daarmee effectiever en efficiënter te kunnen werken. Maar er zijn ook risico’s die bij het gebruik van dergelijke generatieve AI om de hoek komt kijken.”

Wat is ChatGPT?
ChatGPT is een chatbot die antwoord kan geven op vragen van de gebruiker, maar ook op commando teksten kan schrijven.
In april meldde onderzoeksbureau GfK dat ChatGPT in ons land al bijna anderhalf miljoen mensen had bereikt. Met name onder scholieren en studenten geniet de chatbot grote populariteit.

Betrouwbaarheid

De belangrijkste risico’s hebben vooral met betrouwbaarheid te maken. ”Want hoe weet je of de informatie die wordt getoond ook klopt?”, vraagt Van der Meijs zich af. “Generatieve AI maakt super geloofwaardige teksten, afbeeldingen of zelfs filmpjes. Maar of die uitkomsten ook écht het juiste antwoord zijn op je vraag is niet altijd zeker. Dus zorg dat je kritisch blijft en altijd iemand de uitkomsten laat interpreteren en checken ('human in the loop'),” zo waarschuwt hij.

"Hoe weet je of de informatie die wordt getoond ook klopt?" 

Lekken?

Die betrouwbaarheid speelt ook een rol bij het per ongeluk lekken van geheime (bedrijfs)informatie of het delen van privacygevoelige informatie. “Als je ChatGPT of een andere publieke AI-toepassing gebruikt, bijvoorbeeld om spellingsfouten uit een tekst te halen of een brief iets te herformuleren, is een foutje met het delen van persoonsgegevens of andere gevoelige (bedrijfs)informatie zo gemaakt. Voor je het weet heb je persoonsgegevens of andere gevoelige informatie gedeeld. Voorkom daarom dat je de wet overtreedt door je heel bewust te zijn van de informatie die je deelt met ChatGPT.”

Van wie is de informatie?

Een laatste belangrijk risico dat Van der Meijs aanstipt, heeft betrekking op het intellectueel eigendom. Met andere woorden: van wie is de informatie die de generatieve AI in jouw opdracht heeft genereerd? Van der Meijs: “Hoe generatieve AI een tekst of afbeelding maakt, blijft altijd onduidelijk. Je weet dus meestal niet op welke bronnen die informatie is gebaseerd. De kans dat het om beschermde bronnen gaat, is groot. Maar dat betekent omgekeerd ook dat je in veel gevallen geen aanspraak kan maken op je auteursrecht als jij gebruik hebt gemaakt van generatieve AI. Het is goed om je daar bewust van te zijn.”

"Je weet meestal niet op welke bronnen de informatie is gebaseerd. Het is goed om je daar bewust van te zijn"

Denk na!

De boodschap van Van der Meijs is helder: de snelle opkomst van generatieve AI dwingt verzekeraars, net als alle andere bedrijven, om na te denken. Wat kan deze nieuwe technologie voor onze organisatie én voor de medewerkers betekenen?
Op verzoek van het Verbond heeft KPMG de belangrijkste stappen op een rij gezet:

Zorg voor inzicht

Breng in kaart waar (gratis) generatieve AI op dit moment binnen de organisatie al gebruikt wordt en waarvoor. Waar zie je mooie toepassingen? En waar loop je nu al risico’s? En ook wat de roadmaps zijn van de tech partners.

Vertaal inzicht in duidelijk beleid en een AI-strategie

Denk na over wat AI voor de organisatie betekent. Waar liggen kansen? Waar risico’s? Bepaal dan pas welke kant je op wilt. Goed om dit alles vast te leggen in een duidelijke AI-strategie met aandacht voor wat de organisatie ermee wil bereiken, wat daarvoor nodig is én het beleid en kaders voor verantwoord gebruik van (generatieve) AI, zoals ChatGPT, op de werkvloer.

Betrek de organisatie

De verwachting is dat AI grote impact zal hebben op kenniswerk, waardoor ook medewerkers kansen én risico’s zullen zien. Laat de medewerkers kennismaken met generatieve AI en het opgestelde beleid. Leg uit welke keuzes je hebt gemaakt en waarom. Train medewerkers in wat wel en niet kan met AI binnen de organisatie. Zij moeten het gaan omarmen. En houd het enthousiasme van de ChatGPT-hype vast door ze mee te laten denken, bijvoorbeeld in de vorm van een hackathon.

Tips voor op te stellen beleid
Gebruik geen gevoelige informatie in verzoeken aan generatieve AI
Neem onder geen beding gevoelige, vertrouwelijke, bedrijfseigen informatie, klantgegevens of namen of andere persoonlijke of vertrouwelijke informatie op in vragen aan AI-toepassingen zoals ChatGPT.

Geloof niet alles wat ChatGPT zegt en gebruik je gezonde verstand
Generatieve AI hebben de neiging om soms onjuiste informatie te verstrekken of dingen te ‘verzinnen’. Verifieer altijd de antwoorden die je ontvangt van deze toepassingen met behulp van betrouwbare bronnen. Blijf kritisch denken en gebruik je gezonde verstand.

Gebruik ChatGPT niet voor cruciale beslissingen
Op dit moment is het niet mogelijk om de output door AI-toepassingen zoals ChatGPT volledig te verklaren. Schat de uitkomsten op hun waarde, en neem geen beslissingen op basis van ChatGPT alleen.

Kansen

Van der Meijs benadrukt tot slot dat AI-beleid niet alleen moet gaan over risico’s, maar vooral ook over kansen. “Belangrijke uitdaging bij het uitwerken van een AI-strategie is dat alles in beweging is. Kijk dus goed naar de verschillende invalshoeken: use cases en business value, de roadmap van technologie partners, de wettelijke en ethische kaders vanuit de samenleving en wat er binnen de eigen organisatie moet gebeuren om AI-toepassingen goed te laten landen. Zodat je als verzekeraar op een verantwoorde manier écht waarde kunt halen uit de toepassing van AI.”

Meer weten over effectief gebruik van AI in jouw specifieke situatie? Neem dan contact op met Sander van der Meijs.