Skip to Content

Muller is lid van de EU High Level Expert Group voor AI en was de keynote speaker tijdens de ronde tafelbijeenkomst die het Verbond vorige week organiseerde. Ze sprak voor een zeer gemêleerd gezelschap - dat onder meer bestond uit verzekeraars, juristen en wetenschappers – en benadrukte dat artificial intelligence (AI) zowel een positieve als negatieve impact kan hebben op verzekerbaarheid en solidariteit. “AI is een tool. Het overkomt ons niet. Het is aan ons om te bepalen óf we het inzetten. En als je er mee aan de slag gaat, stel dan vanaf het allereerste begin vragen. Maak er geen toverstaf van. Het is goed en slim dat het Verbond nú wil nadenken. Dat voorkomt hopelijk overhaaste en ondoordachte wetgeving.”

Ethisch kader

De ronde tafelbijeenkomst was specifiek bedoeld om meningen op te halen en zodoende tot een ethisch kader voor AI te komen. “We staan voor de keuze om big data en AI te gebruiken om risico’s beter beheersbaar te maken en zodoende de inclusiviteit van de sector te versterken. Of om het te gebruiken om risico’s nog wat scherper te selecteren en te beprijzen, waardoor we de solidariteit echter uithollen. Een ethisch kader kan ons helpen de juiste keuze(s) te maken”, aldus Verbondsdirecteur Harold Herbert.
Hij was een van de deelnemers aan de ronde tafel en was vooral nieuwsgierig. “We hoeven er vandaag niet uit te komen. Ik wil liefst zoveel mogelijk meningen ophalen. Hoe voorkomen we een verkeerd gebruik van data? En, om het nog wat lastiger te maken, wat is verkeerd en wat is goed? Dat zijn de grote vragen waar wij een antwoord op zoeken.”
Het Verbond wil graag dit voorjaar de eerste contouren voor een ethisch kader op tafel hebben liggen. Uiteindelijk doel is om te komen tot een kader voor de leden, zodat duidelijk is hoe verzekeraars op een verantwoorde manier kunnen innoveren.

"Wat is verkeerd en wat is goed?"

Politieke reactie

Dat een dergelijk kader geen overbodige luxe is, bleek wel uit de reactie van Tweede Kamerlid Roald van der Linde (VVD): “De kredietcrisis heeft tot een enorme teruggang in vertrouwen geleid. In instituties, banken, pensioenfondsen en verzekeraars. Alles wordt op één hoop gegooid. Het wantrouwen is immens en dan komen jullie nu met AI? Dat gaat niet vanzelf goed.”
Hij benadrukte dat verzekeraars “altijd” moeten uitleggen waarom de premie omhooggaat of een risico niet wordt geaccepteerd. “Op deep learning zit geen metertje en laten we wel wezen, het gaat niet om die 99 procent waarbij het goed gaat, maar om die ene procent waar het misgaat. En als jullie het zelf niet goed regelen, is de kans groot dat de politiek zich er mee gaat bemoeien.”
Zijn devies was om dat voor te zijn en een paar “harde haken” neer te zetten. Hoe en wanneer gebruik je als verzekeraar data? Wat mag je wel en niet verzamelen en wat doe je er uiteindelijk mee? “Verzekeraars weten veel, ook van twintig jaar geleden, maar zet er een grens op. En leg uit wat je doet. Op zijn Hollands gezegd: ga maar met de billen bloot.”

Nieuwsgierig naar het complete verhaal van Catelijne Muller? Lees onze longread die eerder dit jaar is verschenen.