Modelfalen zijn realiteit, audits zijn verplicht: AI-governance is nú urgent. De nieuwe ForHumanity MRM-certificering v1.5 biedt hét raamwerk voor Regulated Financial Institutions, combineert BASEL III, SR11-7 en SR13-19 met human-centric governance en biedt binaire toetsing (compliant/niet compliant), auditklare documentatie en multidisciplinaire teams. Dit zou weleens de brug kunnen zijn tussen traditionele risicomodellen en moderne AI-eisen.
Sinds 2010 gebruikt Defensie en sinds 2011 de Nationale Politie de omstreden software van het Amerikaanse Palantir, onder meer bij geheime missies en zware criminaliteitszaken. De systemen verwerken gigantische hoeveelheden data van miljoenen Nederlanders, waarvan de meesten geen verdachte zijn. Toezicht ontbreekt volledig: afspraken met Palantir zijn geheim en er is geen onafhankelijk orgaan dat […]
Sam Altman waarschuwt dat gesprekken met ChatGPT géén juridische geheimhouding kennen zoals bij een arts of therapeut. AI mist nog een wettelijk kader voor privacy, waardoor gevoelige gesprekken openbaar kunnen worden in rechtszaken. OpenAI vecht momenteel zelfs een gerechtelijk bevel aan dat gebruikersdata wil opvragen. Altman noemt het “screwed up” dat zulke gesprekken niet vertrouwelijk […]
Meta weigert de vrijwillige EU-code voor verantwoorde AI te ondertekenen, vlak voor de AI-wet op 2 augustus 2025 ingaat. Volgens Meta’s Joel Kaplan creëert de code juridische onzekerheid en belemmert het innovatie met strenge extra eisen. De code verplicht o.a. transparantie over trainingsdata en respect voor auteursrechten, inclusief verbod op pirated content. De EU houdt […]