AI Datalekken

Gebruik AI-chatbot kan leiden tot datalekken

Medewerkers die AI-chatbots gebruiken voor het verwerken van persoonsgegevens, zorgen onbewust voor datalekken. Door het invoeren van gegevens krijgen techbedrijven ongeoorloofd toegang tot deze data, wat een ernstige privacy-inbreuk betekent.

AI-assistenten zoals ChatGPT en Copilot worden op grote schaal ingezet om de klantenservice te verbeteren en administratieve taken te verlichten. Hoewel dit tijd bespaart, brengt het grote risico’s met zich mee als het gaat om de bescherming van gevoelige gegevens.

Veel medewerkers gebruiken AI-chatbots zonder toestemming van hun werkgever. Dit leidt vaak tot datalekken. Zelfs als het gebruik van AI-chatbots is opgenomen in het bedrijfsbeleid, is het vaak niet wettelijk toegestaan om persoonsgegevens te delen zonder adequate beveiligingsmaatregelen.

Bedrijven achter chatbots slaan vaak alle ingevoerde gegevens op, zonder dat gebruikers hiervan op de hoogte zijn. Dit leidt ertoe dat gevoelige informatie, zoals medische gegevens of klantadressen, terechtkomt op servers van techbedrijven, zonder dat de betrokken personen hiervan weten.

Organisaties moeten duidelijke afspraken maken over het gebruik van AI-chatbots door medewerkers. Dit omvat welke gegevens wel of niet mogen worden ingevoerd en het regelen met chatbot-aanbieders dat gegevens niet worden opgeslagen. In geval van een datalek is het verplicht om de Autoriteit Persoonsgegevens en de betrokken personen te informeren.

Bekijk het artikel van de AP voor meer informatie.