Online fraudeurs gebruiken AI, datalekken en kant-en-klare criminele diensten, waardoor hun aanpak professioneler én persoonlijker wordt. Meer dan de helft van de aankoopfraude start tegenwoordig via socialmedia-advertenties met nepdeals en gestolen beelden. Malafide webshops en dropshippers zijn met AI haast niet meer van echt te onderscheiden, maar signalen als lange levertijden en ontbrekende KvK-gegevens verraden […]
De AI-verordening (AI Act) raakt iedereen die AI ontwikkelt of inzet. De Rijksoverheid heeft nu een toegankelijke gids (versie 1.1) uitgebracht. Deze legt stap voor stap uit of jouw toepassing eronder valt en in welke risicocategorie. Ook vind je overzichtelijk de verplichtingen, deadlines en overgangstermijnen. Een praktische eerste houvast voor organisaties, beleidsmakers en toezichthouders.
Modelfalen zijn realiteit, audits zijn verplicht: AI-governance is nú urgent. De nieuwe ForHumanity MRM-certificering v1.5 biedt hét raamwerk voor Regulated Financial Institutions, combineert BASEL III, SR11-7 en SR13-19 met human-centric governance en biedt binaire toetsing (compliant/niet compliant), auditklare documentatie en multidisciplinaire teams. Dit zou weleens de brug kunnen zijn tussen traditionele risicomodellen en moderne AI-eisen.
Sinds 2010 gebruikt Defensie en sinds 2011 de Nationale Politie de omstreden software van het Amerikaanse Palantir, onder meer bij geheime missies en zware criminaliteitszaken. De systemen verwerken gigantische hoeveelheden data van miljoenen Nederlanders, waarvan de meesten geen verdachte zijn. Toezicht ontbreekt volledig: afspraken met Palantir zijn geheim en er is geen onafhankelijk orgaan dat […]
Sam Altman waarschuwt dat gesprekken met ChatGPT géén juridische geheimhouding kennen zoals bij een arts of therapeut. AI mist nog een wettelijk kader voor privacy, waardoor gevoelige gesprekken openbaar kunnen worden in rechtszaken. OpenAI vecht momenteel zelfs een gerechtelijk bevel aan dat gebruikersdata wil opvragen. Altman noemt het “screwed up” dat zulke gesprekken niet vertrouwelijk […]
Meta weigert de vrijwillige EU-code voor verantwoorde AI te ondertekenen, vlak voor de AI-wet op 2 augustus 2025 ingaat. Volgens Meta’s Joel Kaplan creëert de code juridische onzekerheid en belemmert het innovatie met strenge extra eisen. De code verplicht o.a. transparantie over trainingsdata en respect voor auteursrechten, inclusief verbod op pirated content. De EU houdt […]
- 1
- 2

