Veilig gebruik van generatieve AI: Hoe te balanceren tussen vooruitgang en voorzichtigheid?

  • Rene Geenen
  • vrijdag 15 december 2023 om 14:28
ChatGPT en andere geavanceerde taalmodellen bieden boeiende mogelijkheden voor verbeteringen zowel thuis als op het werk. Maar deze nieuwe mogelijkheden gaan gepaard met inherente risico's. Bij het gebruik van generatieve AI kan je geconfronteerd worden met uitdagingen rond nauwkeurigheid en vooringenomenheid. Daarnaast is het is van essentieel belang om voorzichtig om te gaan met persoonlijke en gevoelige informatie.

awareness training rondom gebruik van AI hulpmiddelen zoals ChatGPT

AI Chatbots: Handig, maar veilig?

Erg handig, die AI-assistent die je sinterklaas gedichten schrijft, zakelijke ideeën genereert of zelfs hele datasets scant en voor je ordent. Maar kan je volledig vertrouwen op een AI-assistent die regelmatig plausibele lijkende, maar onnauwkeurige antwoorden kan geven? Is er daarnaast transparantie over wie de ingediende vragen ziet en wat daarmee gedaan wordt?

Kortom, ChatGPT en vergelijkbare taalmodellen bieden kansen rondom o.a. efficiëntie, maar niet zonder risico’s. Deze risico’s zijn niet alleen aanwezig op het gebied van nauwkeurigheid en vooringenomenheid, maar ook rondom de behandeling van persoonlijke informatie en beveiliging van andere gevoelige informatie. Zo verscheen er twee weken geleden nog een artikel waarin duidelijk werd dat ChatGPT eenvoudig te manipuleren is om trainingsdata te extraheren, wat als deze data van jouw invoer afkomstig zou zijn?

Wees voorzichtig met persoonlijke en andere gevoelige informatie

Generatieve AI wordt steeds meer gebruikt, ondanks dalende cijfers had alleen al ChatGPT 180,5 miljoen unieke gebruikers in de maand augustus 2023. Het waarborgen van de veiligheid van persoonlijke gegevens (van je gezin of bijvoorbeeld of de klanten/cliënten van je organisatie), is cruciaal voor onder andere het voldoen aan wet en regelgeving.

Zonder dat je het weet geef je bij het gebruik van generatieve AI zonder vooroverleg, gevoelige data prijs tegen het beleid van je organisatie. Zo kwam in april dit jaar nog naar voren dat Samsung medewerkers per ongeluk bedrijfsgeheimen hebben gelekt door het ongereguleerd gebruiken van ChatGPT, Samsung heeft inmiddels maatregelen getroffen, maar liever voorkom je dit.

ChatGPT slaat verschillende gegevens op, waaronder alle conversaties om het taalmodel te verbeteren. Om de veiligheid van persoonlijke informatie te waarborgen, is het mede daarom verstandig om terughoudend te zijn met het delen van privégegevens met ChatGPT.

Daarnaast is het de overweging waard om de optie chatgeschiedenis en modeltraining uit te vinken in het optiemenu. Zelfs dat is niet voldoende, wanneer je echt wilt dat OpenAI niets opslaat dien je een formulier in te vullen. Wees je ervan bewust dat zelfs wanneer je de geschiedenis uitschakelt, chats voor 30 dagen op de servers van OpenAI worden bewaard voor monitoring op misbruik.

Wees ook voorzichtig met het gebruiken van AI browser extensies en andere AI apps. Veel van deze tools geven aan ChatGPT-functionaliteit toe te voegen maar verzamelen mogelijk nog meer gegevens over jou of je organisatie.

Veilig Gebruik van AI in Organisaties

Voor organisaties die generatieve AI, zoals ChatGPT, in hun dagelijkse activiteiten integreren, is het belangrijk om voor zowel medewerkers als klanten duidelijk te zijn over o.a. de gebruiksgrenzen. Bij StackSecure adviseren we organisaties daarom om zo spoedig mogelijk AI-beleidslijnen op te stellen met daarin eenvoudig te begrijpen best practices en bedrijfsregels rondom eventueel gebruik van deze tools door collega’s.

Train je medewerkers

Daarnaast behandelen we dit onderwerp binnen ons awareness plaform StackAware in onder andere de module: Veilig AI gebruik. Daarin nemen we medewerkers mee in de gevaren rondom privacy, bedrijfsgegevens en leggen we ze uit om proactief uit te zoeken wat wel en niet mag vanuit de organisatie.

Heb je interesse in advies voor een beleidsstuk rondom AI gebruik of wil jij je medewerkers eenvoudig trainen op actuele onderwerpen rondom privacy en informatiebeveiliging? Neem dan eens vrijblijvend contact op met het StackSecure team.
StackSecure maakt gebruik van cookies.

Voor het correct functioneren, optimaliseren van deze website en t.b.v. commerciële doeleinden maakt StackSecure gebruik van cookies. Meer hierover kunt u lezen in ons privacy statement