Het interview vindt noodgedwongen telefonisch plaats. Muller heeft het druk. Het is passen en meten om alle afspraken na te komen. “AI blijft een hot item”, zegt ze lachend.
In het najaar van 2019 spraken we elkaar voor de eerste keer. Muller was toen, als lid van de EU High Level Expert Group voor AI, betrokken bij de opzet van het Ethisch kader datagedreven besluitvorming dat het Verbond in de zomer van 2020 introduceerde. Het kader bevat open normen en dat betekent dat de leden van het Verbond er zelf invulling aan mogen geven, maar ze moeten wel rekening houden met de zeven vereisten die uit de koker van de Expert Group komen: 1. Menselijke autonomie en controle, 2. Technische robuustheid en veiligheid, 3. Privacy en data governance, 4. Transparantie, 5. Diversiteit, non-discriminatie en rechtvaardigheid, 6. Milieu en Maatschappelijk welzijn en 7. Verantwoording.
Naast het Ethisch kader gaat Muller in dit gesprek ook in op de voorstellen van de Europese Commissie voor een Europese AI-wet (zie kader) en reageert ze op de kreet ‘Amerika innoveert, China kopieert en Europa reguleert’. “Amerika volgt ons vanzelf. Er zijn nu al staten die op sommige punten met hun regelgeving verder gaan dan wij.”
Europa broedt op een AI-verordening. Alle bedrijven en overheden die AI gebruiken, waarmee Europese burgers te maken krijgen, komen onder die verordening te vallen, maar dat zal niet voor begin 2025 zijn.
De Europese Commissie heeft op 21 april 2021 haar voorstel gepresenteerd. Vervolgens zijn het Europees Parlement en de Raad (die bestaat uit vertegenwoordigers van de verschillende nationale regeringen) aan de slag gegaan met de behandeling van dat voorstel. Beide instituties werken nu aan een aangepaste versie. Als zij hun standpunt hebben bepaald, zullen zij samen en in aanwezigheid van de Europese Commissie, met de onderhandelingen starten voor een definitieve compromistekst. Deze tekst zal uiteindelijk ook in het officiële publicatieblad van de EU verschijnen. Naar verwachting wordt dan twee jaar later de nieuwe AI-wetgeving van kracht.
“Jazeker, het blijft van het allergrootste belang dat de mens in command is. Zeker omdat het soms een beetje tegenvalt wat AI kan. Er is veel hype omheen. En het kan veel, maar AI maakt ook heel vreemde fouten die mensen nooit zouden maken.”
“Of overschat het juiste woord is, betwijfel ik, maar er is onvoldoende begrip van hoe het werkt. Daardoor zijn er ook vaak verkeerde verwachtingen. Patronen zoeken in data is iets heel anders dan begrijpen wat de data inhouden. Ik geef wel eens het voorbeeld van een foto van een kat. AI ziet geen foto, maar pixels. Het systeem heeft geleerd dat al die pixels een kat zijn, maar weet niet dat een kat een dier is en kan lopen, eten, slapen, etc.”
“Dat kan ik niet beantwoorden. Niemand is het eens over de definitie. En nu Europa wil reguleren, zal er wel een definitie móeten komen, maar de discussie is nog niet beslecht. A is een verzameling van technologieën is, met allerlei verschijningsvormen en met ingewikkelde termen die steeds weer veranderen. AI is in ieder geval niet één ding, maar omvat meerdere systemen die met een zekere autonomie onze omgeving beïnvloeden. Het is met name belangrijk om te kijken naar de impact van de systemen.”
“Inmiddels heel veel. Ik ben een paar jaar geleden met AI begonnen, nadat het mijn interesse had gewekt. Vervolgens heb ik op Europees niveau een advies geschreven dat is gaan vliegen. Uiteindelijk wil ik, net als veel anderen, dat AI in goede banen wordt geleid. Als we de impact niet goed managen, krijgen de goede kanten van AI ook geen kans. AI heeft dus vooral met goed risicomanagement te maken.”
"AI heeft vooral met goed risicomanagement te maken"
“Dat zijn er nogal wat. Ik groepeer ze meestal in vier soorten. Allereerst de technische risico’s, waardoor AI niet werkt zoals het zou moeten. Daarnaast zijn er juridische risico’s. Mensen denken vaak aan privacy, maar er zijn er natuurlijk veel meer. Bijvoorbeeld op het terrein van arbeidswetgeving kun je denken aan de vraag of een algoritme iemand mag ontslaan. De derde categorie betreft de ethische risico’s. Daar praten we in Europa al jaren over en er zijn inmiddels ook richtlijnen voor. Wat willen we met een technologie die veel cognitieve taken overneemt? Hoe ver mag dat gaan? En de laatste categorie wordt gevormd door de sociale risico’s. Als systemen niet goed werken, kan dat tot discriminatie leiden en uiteindelijk tot sociaal-maatschappelijke uitsluiting. Denk aan de kansen op de arbeidsmarkt die door AI kleiner worden. Of aan verschillende premies voor mensen met verschillende achtergronden. ”
“Op dit moment ben ik voorzitter van ALLAI, een organisatie die ik met drie andere expertleden uit die EU-groep heb opgericht. Wij realiseerden ons namelijk meteen dat het werk na twee jaar adviezen schrijven niet klaar zou zijn en de discussie moet worden voortgezet. Ons standpunt is dat AI technisch, ethisch, juridisch, sociaal en maatschappelijk verantwoord moeten zijn. We praten daarom veel met Europese beleidsmakers, doen het nodige aan educatie en we proberen de awareness te verhogen. Daarnaast ben ik nog steeds AI-rapporteur voor het Europees Economisch en Sociaal Comité. Ik noem dat adviesorgaan altijd de Europese SER.”
"Het is belangrijk dat we in de EU vastleggen wat we wel en wat niet willen"
“Laat ik vooropstellen dat het goed is dat de Europese Commissie wetgeving voorstelt. Europa heeft voor een nadrukkelijke bescherming van de fundamentele rechten van burgers gekozen. Als basis vind ik dat heel goed. Het is belangrijk dat we vastleggen wat we wel en wat niet in de EU willen, maar al met al is het wel een enorm ingewikkeld document geworden. Om de voorstellen te kunnen doorgronden, is veel juridische kennis nodig. Het is geen hoog-over wetgeving. Sterker nog, het gaat behoorlijk diep in op details en dat maakt het heel ingewikkeld.”
“Ik weet dat er nu voorstellen worden gedaan om ziektekosten- en levensverzekeringen als hoog risico in te schalen en ik snap dat verzekeraars dat niet leuk vinden, maar ik denk dat het verbod op social scoring wel eens crucialer kan zijn. Vaak wordt bij social scoring aan Chinese praktijken gedacht, waarbij de complete bevolking een score krijgt voor gedrag, maar de commissie probeert hier een grens te trekken tussen wat een acceptabele beoordeling is, bijvoorbeeld voor het bepalen van premie of het voorspellen van verzekeringsfraude, en wat onacceptabel ‘scoren’ van iemands betrouwbaarheid is. Want laten we eerlijk zijn, we scoren wat af met zijn allen. Ook verzekeraars. Zij moeten risico’s beoordelen en daar een premie aanhangen. Hoe groot is de kans dat iemand schade ondervindt, of schade rijdt? En als je de premiehoogte moet bepalen, wat weeg je dan wel en wat niet mee? Mag het rijgedrag van een pittige bestuurder meewegen als dat wordt gemonitord en beoordeeld door AI? En als iemand zegt niet te roken, mag je social media en zoekgedag dan meenemen om te kijken of er een risico is dat iemand toch een roker is? Dergelijke grenzen probeert de commissie met social scoring te trekken en daar zou ik me als verzekeraar ook op focussen.”
“Alleen AI-gedreven credit scoring voor essentiële private diensten is op dit moment hoog risico. En bepaalde verzekeringen kunnen inderdaad worden gezien als een essentiële private dienst. Levens- en zorgverzekeringen worden nu voorgesteld als expliciete toevoeging aan de hoog-risico lijst, maar dat is voorlopig nog een voorstel. En zelfs als de hele sector op de hoog-risico lijst komt, wil dat nog niet zeggen dat verzekeraars helemaal geen AI mogen gebruiken. Ze moeten alleen aan bepaalde eisen voldoen en eerlijk gezegd vind ik dat niet zo gek. Veel verzekeringen zijn essentieel voor mensen en AI kan discriminerende, oneerlijke of gewoon foute uitkomsten hebben. Zeker na de Toeslagenaffaire kan ik me niet voorstellen dat de verzekeringsbranche mensen ten onrechte wil uitsluiten.”
“Met regelgeving creëer je ook een level playing field. De concurrent moet aan dezelfde regels voldoen als jij en kan er dus geen potje van maken. Daar heeft de hele sector baat bij. Bovendien denk ik dat veel verzekeraars allang aan die eisen voor hoog risico AI voldoen.”
"Met regelgeving creëer je ook een level playing field. Daar heeft de hele sector baat bij"
“Niet echt, want hoewel Europa de eerste stap zet, volgt Amerika al snel. Vergis je niet, er zijn goede contacten tussen de Europese en Amerikaanse beleidsmakers. Er zijn zelfs staten in Amerika die op sommige punten al verder gaan dan wat Europa nu voorstelt. Het welbekende Brussels effect (alles dat uit Brussel komt, vindt ook zijn weerslag in de rest van de wereld) is nu al gaande.”
“Ja, de kans bestaat dat eenzelfde soort AI-regelgeving binnenkort in Amerika wordt besproken. En vergeet ook niet dat Europa AI reguleert voor de hele wereld. Als een bedrijf de Europese markt op wil, dan moet het aan onze regels voldoen. Ook als het een Chinees of Amerikaans bedrijf is.”
“Integendeel. Ik denk dat deze regelgeving eerder een stepping stone is voor innovatie. Als bedrijven tegen mij mopperen over regelgeving vraag ik altijd: wat ben je dan nu aan het innoveren dat straks niet meer kan? Ik krijg daar nooit een antwoord op.”
“Het Ethisch kader wordt als succesverhaal gezien in Europa. Het is leuk als mensen zeggen: moet je eens kijken wat de verzekeringssector in Nederland heeft gedaan? In de voorstellen van de Europese Commissie, die nu bij het Europees Parlement en de Europese Raad liggen, worden ook allerlei vereisten uit het Ethisch Kader wettelijk vastgelegd. De Nederlandse sector heeft dus eigenlijk alvast een aanloopje genomen.”
"De Nederlandse verzekeraars hebben alvast een aanloopje genomen"
“Misschien is voorsprong inderdaad een beter woord. Ik weet niet zeker of er meer sectoren of landen zijn die een Ethisch Kader hebben. De automotive sector is er wel mee bezig, maar dan vooral op het gebied van de veiligheid. Nederlandse verzekeraars zijn hier tamelijk uniek in. Zelfs als de hele sector op de hoog risico-lijst zou komen, dan zijn ze daar al op voorbereid via hun eigen Ethisch kader.”
“Ze zijn vooral in combinatie belangrijk. Zonder transparantie kun je ook geen verantwoording afleggen. Maar de menselijke autonomie staat niet voor niets op nummer 1. Als ik echt moet kiezen, zet ik dat ook bovenaan.”
“Dat verzekeraars er mee aan de slag zijn, vind ik goed nieuws. Maar wat echt belangrijk is, is dat er multidisciplinaire teams komen. Je zult eerst intern met elkaar de discussie moeten aangaan waarom het Ethisch kader belangrijk is. Daarna kun je kijken wat het systeem moet doen en aan welke vereisten je wilt voldoen. Ik hoor nu dat er telkens één element van het proces wordt opgepakt, terwijl juist alle elementen gezamenlijk zo belangrijk zijn.”
"Je kunt AI niet bij één medewerker neerleggen"
“Dat weet ik niet zo goed. Ik ken de sector niet van binnen en buiten, maar ik weet wel dat je met AI andere structuren nodig hebt. Je kunt AI niet bij één jurist of bij één medewerker neerleggen. Misschien is in die zin een kleine verzekeraar wel in het voordeel, omdat die makkelijker kan bewegen en minder vastzit in structuren en processen. Zo’n multidisciplinair team hoeft ook niet enorm groot te zijn. Je moet er vooral de juiste mensen in zetten, die de juiste vragen stellen én ook kunnen beantwoorden. Een data-scientist kijkt puur naar data en zegt: ‘ik kan alles zien in de data. Ik neem gewoon alles mee’. Een jurist zegt: ‘ho eens even, dat kan niet. Denk aan de wetgeving’. Een ethicus op zijn beurt roept: ‘ja, maar zo willen wij niet bekend komen te staan’. En een callcentermedewerker, die straks mag uitleggen waarom een klant meer premie moet betalen, vraagt: ‘kunnen jullie aan mij ook even uitleggen hoe zo’n algoritme werkt?’ Je moet dus niet alleen de business, maar ook de mensen die het klantcontact hebben meenemen in je team.”
“Ik zou eerst in kaart brengen wat we aan AI in huis hebben en wie erbij is betrokken. Daarna zou ik een procesplan opstellen, zodat alles op één lijn komt en tot slot zou ik dat multidisciplinaire team samenstellen en vooral goed kijken wie uit welke afdeling erin moet. Naast dat er belangrijke wetgeving op komst is, moet de awareness dat ethiek belangrijk is omhoog. Verantwoorde AI moet letterlijk handen en voeten krijgen. Dat lukt alleen met een organisatie brede, multidisciplinaire benadering.”
(Tekst: Miranda de Groene - Fotografie: Ivar Pel)
In de zomer van 2020 heeft het Verbond het Ethisch kader datagedreven besluitvorming voor zijn leden geïntroduceerd. Het gaat bij dit kader om open normen, waarbij iedere verzekeraar in de eigen praktijk de precieze scope moet bepalen. In een serie van vier artikelen vertellen verzekeraars hoe zij invulling geven aan het Ethisch kader.
Gemist? Lees de verhalen van:
1. Athora Netherlands dat een eigen algoritmeregister heeft opgesteld;
2. a.s.r, dat een ethicus in dienst heeft genomen;
3. Achmea, dat naast een Ethische Commissie ook een Ethisch Wiel heeft ontwikkeld;
4. ARAG, dat in samenwerking met Filosofie in Actie op een interne missie inzet die is gebaseerd op drie vragen: Kan het? Mag het? Is het wenselijk?
Meer lezen over het Ethisch kader en privacy? Kijk op onze themapagina Verantwoord met data.