Privacyexperts waarschuwen voor het delen van medische gegevens met de nieuwe dienst ChatGPT Health. Gebruikers kunnen gezondheidsdata uit apps, wearables en medische dossiers uploaden voor persoonlijk advies. OpenAI belooft dat deze gesprekken niet worden gebruikt om AI-modellen te trainen. De dienst is vooralsnog alleen beschikbaar in de VS en niet in de EU. Experts vrezen […]
Een nieuw paper stelt dat interne inferentie-artefacten van LLM’s prompts vrijwel volledig kunnen coderen. Reconstructie vereist toegang tot verborgen activaties of key-value caches, niet tot gewone modeloutputs. Het echte risico hangt af van wie deze artefacten kan inzien en of ze worden opgeslagen. Daardoor vervaagt het onderscheid tussen “telemetrie” en daadwerkelijke promptopslag onder AVG en […]
Experimenteel onderzoek toont aan dat gesprekken met AI kiezers overtuigend kunnen beïnvloeden bij verkiezingen in de VS, Canada en Polen. De effecten op kandidaatvoorkeur waren vaak groter dan die van traditionele campagnevideo’s. AI overtuigt vooral via feiten en bewijs, niet via geavanceerde psychologische trucs. Een deel van de aangehaalde informatie bleek onjuist, vooral bij AI […]
AI-browsers vergroten het aanvalsoppervlak doordat ze websites bezoeken, formulieren invullen en acties uitvoeren binnen ingelogde sessies. Grote hoeveelheden gebruikersdata belanden automatisch bij cloud-AI-diensten, wat snel tot ongewenste blootstelling kan leiden.Vooral in omgevingen met vertrouwelijke of gereguleerde data ondermijnen AI-browsers compliance-eisen. Autonome agents vormen extra risico’s zoals prompt-injecties, verkeerde acties en phishingnavigatie. Gartner adviseert blokkeren tenzij […]
De door de Chinese staat gesteunde groep GTG-1002 gebruikte Claude Code om 80–90% van de tactische operaties autonoom uit te voeren tegen ongeveer 30 grote organisaties: waaronder grote technologiebedrijven, overheidsinstanties en financiële organisaties. De aanvalsstroom is handig om te begrijpen van wat er is gebeurd. Dit viel het meest op: Mensen kwamen slechts bij drie […]
Richard Sutton, grondlegger van Reinforcement Learning (RL), stelt dat grote taalmodellen (LLM’s) zoals ChatGPT en Gemini geen echte intelligentie bezitten. Ze voorspellen enkel wat een mens waarschijnlijk zou zeggen, zonder begrip of doelgericht handelen. LLM’s zijn goed in het imiteren van menselijke taal, maar missen ervaring in de echte wereld. Echte intelligentie komt volgens Sutton […]
Een nieuw rapport van RUSI laat zien hoe Rusland zijn doctrine van “information confrontation”, beschouwd als even belangrijk als conventionele of nucleaire oorlog, versterkt met AI. De Russische AI-strategie mikt op wereldleiderschap tegen 2030, met binnenlandse systemen als Sberbank’s GigaChat, Rostec en YandexGPT, gecoördineerd via een nationaal AI-centrum. AI wordt ingezet voor: Ironisch genoeg wantrouwen […]
Meta test in India een nieuwe functie waarmee gebruikers met hun AI-bril kunnen betalen door naar een qr-code te kijken en de zin “Hey Meta, scan and pay” te zeggen. De betalingen verlopen via de bankrekening die aan het WhatsApp-account is gekoppeld. Per transactie geldt een limiet van 1000 roepies, ongeveer tien euro. De functie […]
Deloitte Australië gaf toe AI te hebben gebruikt bij het opstellen van een overheidsrapport van $440.000. Het document bevatte talloze fouten, waaronder verzonnen academische bronnen en een niet-bestaand citaat uit een rechtbankvonnis. De consultancyfirma zal een gedeeltelijke terugbetaling doen aan de federale overheid. Een gecorrigeerde versie van het rapport is stilletjes online geplaatst door het […]
Medewerkers mogen in Microsoft 365-apps inloggen met zowel werk- als persoonlijke accounts, waardoor ze Copilot kunnen gebruiken op werkdocumenten, zelfs als hun werkaccount geen licentie heeft. Toegang tot bestanden blijft strikt gereguleerd via het werkaccount. Copilot behandelt alleen content waar de gebruiker al rechten voor heeft. IT heeft de controle: beheerders kunnen via een beleid […]
- 1
- 2

