AI Hack

Hackers can exploit Microsoft Copilot

Beveiligingsonderzoeker Michael Bargury heeft tijdens Black Hat USA belangrijke kwetsbaarheden in Microsoft Copilot onthuld. Hij liet zien hoe hackers dit AI-hulpmiddel kunnen misbruiken voor cyberaanvallen. Aanvallers kunnen Copilot-plugins gebruiken om achterdeurtjes te installeren. Dit maakt het mogelijk om gegevens te stelen en AI-gestuurde social engineering-aanvallen uit te voeren. Dit doen ze door het gedrag van Copilot te manipuleren via promptinjecties.

Hackers kunnen Copilot inzetten om overtuigende phishing-e-mails te maken en gebruikersinteracties te manipuleren. Dit vormt ernstige risico’s voor de vertrouwelijkheid van informatie. Bargury introduceerde “LOLCopilot,” een tool voor red-teaming waarmee ethische hackers aanvallen binnen Microsoft 365 kunnen simuleren. Dit benadrukt de gevaren van standaardbeveiligingsinstellingen.

Organisaties worden aangespoord om robuuste beveiligingsmaatregelen te implementeren. Dit omvat regelmatige beoordelingen, multi-factor authenticatie, en educatie van werknemers om de risico’s van AI-hulpmiddelen zoals Microsoft Copilot te beperken.

Lees het cyber security news artikel voor meer informatie.