AI AVG

Onzichtbare data, zichtbaar risico

Een nieuw paper stelt dat interne inferentie-artefacten van LLM’s prompts vrijwel volledig kunnen coderen. Reconstructie vereist toegang tot verborgen activaties of key-value caches, niet tot gewone modeloutputs. Het echte risico hangt af van wie deze artefacten kan inzien en of ze worden opgeslagen. Daardoor vervaagt het onderscheid tussen “telemetrie” en daadwerkelijke promptopslag onder AVG en […]

AI

Waarom LLM’s een doodlopende weg zijn?

Richard Sutton, grondlegger van Reinforcement Learning (RL), stelt dat grote taalmodellen (LLM’s) zoals ChatGPT en Gemini geen echte intelligentie bezitten. Ze voorspellen enkel wat een mens waarschijnlijk zou zeggen, zonder begrip of doelgericht handelen. LLM’s zijn goed in het imiteren van menselijke taal, maar missen ervaring in de echte wereld. Echte intelligentie komt volgens Sutton […]