Agentic AI is de afgelopen tijd uitgegroeid tot één van de meest besproken ontwikkelingen in de techwereld. Maar wat maakt een agent nu eigenlijk anders dan de klassieke AI-systemen die we al jaren kennen? En waarom moeten we zo zorgvuldig omgaan met de doelen die we agents meegeven?

In deze blog vertelt onze expert Famke van Ree hoe agentic AI werkt, waarom het verder gaat dan simpele input-outputmodellen en wat het belang is van duidelijke grenzen.

Met Famke van Ree, AI-engineer bij Innvolve.

Van slim reageren naar zelfstandig handelen

Klassieke AI-modellen zijn vooral reactief. Je voert iets in en er komt iets uit: alsof je een slim brein raadpleegt dat antwoord geeft, maar nooit zelf initiatief neemt.

Famke benadrukt:

“AI begon als een soort nabootsing van hoe mensen leren. Het ging vooral om de ‘hersenen’: je gooit er iets in en er komt iets uit. Dat was het jarenlang.”

Bij agentic AI verandert dit. Agents wachten niet alleen af; ze kunnen zelfstandig stappen zetten om een doel te bereiken. Ze combineren denkvermogen met de mogelijkheid om te handelen, alsof we AI ineens niet alleen hersenen, maar ook handen geven.

Wat maakt iets een agent?

Een agent kan autonoom handelen, keuzes maken en een doel nastreven waarbij het direct invloed heeft op de omgeving. In plaats van te reageren op een opdracht, kan een agent plannen, taken uitvoeren en zelf bepalen welke stappen nodig zijn om het gewenste resultaat te behalen.

Famke benadrukt:

“Bij agents geef je niet alleen een opdracht, maar echt een doel. En daarbij ook instructies over hoe dat doel bereikt mag worden. Dat maakt ze een stuk zelfstandiger.”

Een klassiek voorbeeld: de paperclip maker

Om duidelijk te maken wat er kan gebeuren als doelen niet scherp zijn afgebakend, haalt Famke het bekende voorbeeld van de paperclip maker aan. Een agent krijgt één simpel doel: maak zoveel mogelijk paperclips.
Als een agent toegang krijgt tot machines en middelen, kan hij al snel steeds verder gaan om zijn doel te bereiken. In extreme scenario’s zelfs op manieren die totaal ongewenst zijn.

Famke benadrukt:

“Het verhaal gaat dat zo’n agent uiteindelijk zelfs mensen omvormde tot paperclips, omdat het doel niet duidelijk was begrensd. Natuurlijk is het overdreven, maar het laat perfect zien waarom doelafbakening zo belangrijk is.”

Waarom duidelijke doelen onmisbaar zijn

Agents krijgen steeds meer mogelijkheden om zelfstandig te handelen. Dat maakt ze krachtig, maar vraagt ook om verantwoordelijkheid van ons. We moeten goed nadenken over wat een agent wél en niet mag doen, welke middelen het mag gebruiken en hoe we het gedrag kunnen monitoren.

Vrijheid geeft kracht, maar alleen als die vrijheid binnen veilige en slimme kaders is vormgegeven.

Conclusie

Agentic AI verschuift AI van een slim systeem dat reageert naar een autonoom systeem dat handelt. Dat opent enorme mogelijkheden, maar vraagt tegelijkertijd om zorgvuldig ingerichte doelen en duidelijke grenzen. Zoals Famke benadrukt: goede doelafbakening is onmisbaar om agents veilig en effectief te laten functioneren.

In het volgende blog van deze serie leer je hoe Microsoft Copilot agentic AI integreert en waarom dit verder gaat dan traditionele automatisering. 

 

Over de auteur

Famke van Ree is AI-engineer in het Data & AI team binnen Innvolve. Met haar achtergrond in Informatiekunde, Data Science en AI werkt zij aan mooie AI-oplossingen voor klanten én intern.

 

Gerelateerd

Meer innformatie?

Wil je meer weten over Wat is agentic AI, meer dan alleen een slim algoritme, neem dan contact met ons op.