AI

Welk risico breng het “Bring Your Own Copilot” van Microsoft 365?

Medewerkers mogen in Microsoft 365-apps inloggen met zowel werk- als persoonlijke accounts, waardoor ze Copilot kunnen gebruiken op werkdocumenten, zelfs als hun werkaccount geen licentie heeft.

Toegang tot bestanden blijft strikt gereguleerd via het werkaccount. Copilot behandelt alleen content waar de gebruiker al rechten voor heeft.

IT heeft de controle: beheerders kunnen via een beleid de toegang van persoonlijke Copilot-accounts tot werkcontent uitschakelen of beperken.

Alle Copilot-interacties op werkdocumenten lopen binnen de Microsoft 365-cloud, onder de gebruikelijke versleuteling, compliance en beveiligingsmaatregelen. Geavanceerde functies (zoals zoeken over meerdere bedrijfsbestanden) blijven voorbehouden aan gebruikers met een zakelijke Copilot-licentie, persoonlijke abonnementen beperken zich tot het bewerken van het geopende document.

Wat zijn hier nu de risico’s?
– Onbedoelde datalekken: Hoewel Copilot bestaande machtigingen respecteert, kan het informatie tonen of combineren die breder zichtbaar wordt dan bedoeld (zoals collega-activiteiten of documentinhoud).
– Privacy en profiling: Copilot kan – via prompts – inzicht geven in werkpatronen of teamgedrag, wat privacyvragen oproept.
– Inequality in de werkvloer: Alleen werknemers die privé betalen voor Copilot krijgen een productiviteitsvoordeel. Dit kan leiden tot interne ongelijkheid (“AI haves vs have-nots”).
– Complexiteit in beheer: IT moet extra beleidslagen beheren (zoals het aan/uitzetten van meerdere accounttoegang), wat beheercomplexiteit vergroot.
– Verwarring over verantwoordelijkheden: Wanneer een medewerker iets doet met zijn persoonlijke Copilot op werkdata, is niet altijd duidelijk onder welk juridisch kader dat valt (privé vs zakelijk gebruik).

Lees het het Microsoft Tech Community artikel voor meer informatie.