- Voer vertrouwelijke gesprekken alleen face-to-face.
- Twijfel je over de identiteit van de persoon aan de telefoon, stel dan voor om even terug te bellen.
- Ook kun je een belevingsvraag stellen. Bijvoorbeeld: hoe is je gesprek gisteren gegaan?
- Voer nooit vertrouwelijke gegevens in ChatGPT of vergelijkbare modellen. Zeker geen namen! De systemen zijn gericht op het genereren van teksten ‘die lijken op'.
- Realiseer je dat ChatGPT geen zoekmachine is. Er zit geen database achter. Gebruik het daarom niet als feiten belangrijk zijn.
- Maak eventueel afspraken om facturen alleen af te handelen als je kunt controleren wat de bron is.
- Stem met andere partners in de keten af welke oplossingen er zijn om de authenticiteit van de afzender (bijvoorbeeld van facturen) vast te stellen.
- Grijp terug op adviezen die al gelden voor phishing of CEO-fraude. Deze vormen van cyber blijven in de basis gelijk, ook als AI als hulpmiddel wordt ingezet.
- Weet welke vragen je moet stellen bij het aanschaffen van nieuwe software. Hoe maakt de software gebruik van AI? Kijk voor inspiratie ook eens naar de modelclausules voor AI inkoop die de Europese Commissie heeft ontwikkeld.
- En ten slotte: zorg voor menselijk contact. “Als je het niet op LinkedIn zou zetten, moet je het ook niet invoeren op ChatGPT", benadrukt Manon den Dunnen, Strategisch Specialist Digitaal bij de politie. “Voordat je het weet, komt jouw informatie terug in teksten die zijn gegenereerd voor anderen.”
Onderzoek
Naast het Digital Trust Center waarschuwen ook andere partijen om voorzichtig om te gaan met generatieve AI. Zo publiceerde het Rathenau Instituut vorige maand een handig overzicht van de soorten toepassingen en de maatschappelijke impact daarvan.