AI beveiliging

AI heeft onze manier van werken in razendsnel tempo veranderd. Automatisering, hogere productiviteit en slimme inzichten: de voordelen zijn duidelijk. Maar zoals bij elke technologische revolutie, brengt ook deze nieuwe risico’s met zich mee.

Microsoft zette met de introductie van Security Copilot al een grote stap in het ondersteunen van securityteams. Toch blijkt dat steeds meer medewerkers op eigen houtje AI-apps gebruiken zonder goedkeuring van IT – met als gevolg een verhoogd risico op datalekken en schaduw-AI. Nu AI een vast onderdeel wordt van de moderne werkplek, is het cruciaal dat je als organisatie je focus verlegt van alleen kansen, naar ook controle, veiligheid en governance.

 

AI vraagt om een nieuwe kijk op beveiliging

Een succesvolle AI-transformatie begint bij een solide basis van cybersecurity. En met de snelle adoptie van generatieve AI binnen organisaties, groeit de urgentie om het gebruik van AI op de werkvloer goed te beveiligen.

De cijfers liegen er niet om. Volgens het rapport Veilige toegang voor werknemers in het tijdperk van AI van Microsoft heeft 57% van de organisaties al te maken gehad met beveiligingsincidenten door AI-gebruik. Het is duidelijk dat AI een groot voordeel kan bieden, maar ook nieuwe risico’s met zich meebrengt. En ondanks dat de meeste organisaties de noodzaak van AI-beveiliging inzien, heeft 60% van hen nog niet de nodige maatregelen getroffen om deze risico’s te beperken.

Organisaties maken zich zorgen over het beschermen van gevoelige data tegen onbedoeld delen of lekken. Ook is er de vraag hoe we AI-modellen kunnen beschermen tegen dreigingen zoals prompt injection. En dan is er natuurlijk de steeds veranderende wet- en regelgeving waar organisaties aan moeten voldoen. Microsoft speelt hierop in met twee aanvullende oplossingen: het Azure AI Foundry-platform en Security Copilot agents.

Een veilige basis met Azure AI Foundry

Naast het beveiligen van AI-gebruik is het minstens zo belangrijk om al tijdens de ontwikkeling van AI-oplossingen rekening te houden met risico’s. Want je wil toch niet je eigen cloudomgeving of zelfs de eigen infrastructuur in gevaar brengen?

Het Azure AI Foundry-platform is Microsofts antwoord op deze uitdaging. Het platform ondersteunt organisaties bij het ontwikkelen, schalen en beheren van AI-modellen, met veiligheid, compliance en governance als uitgangspunt.

Het is daarbij belangrijk om te weten dat Microsoft heel strikt omgaat met de bescherming van klantgegevens. Er is een veelvoorkomende misvatting dat klantdata wordt gebruikt om AI-modellen te trainen, maar dat is niet het geval. De AI-modellen die draaien op Microsoft’s platformen worden beschouwd als software die draait in een Azure Virtual Machine (VM). Net als elke andere software in een VM, kunnen ze niet zomaar “uitbreken” of toegang krijgen tot andere systemen.

AI inzetten voor beveiliging met agents in Security Copilot

Microsoft heeft nieuwe Security Copilot agents gelanceerd die je organisatie helpt om je beveiligingsprocessen efficiënter en autonoom te beheren. Deze agents zijn ontworpen om de dagelijkse IT- en beveiligingstaken makkelijker te maken, zodat beveiligingsteams sneller kunnen reageren. De Security Copilot-agents zijn beschikbaar in het end-to-end beveiligingsplatform van Microsoft. Een greep uit de agents:

Phishing Triage Agent in Microsoft Defender helpt bij het sorteren van phishing-waarschuwingen. Deze agent onderscheidt echte dreigingen van valse alarmen door waarschuwingen te evalueren en biedt duidelijke uitleg over de genomen beslissingen.

Alert Triage Agent in Microsoft Purview is er om te helpen bij het beheren van waarschuwingen voor gegevensverlies en interne risico’s. De agent beoordeelt welke waarschuwingen de meeste aandacht vereisen en prioriteert deze automatisch.

Conditional Access Optimization Agent in Microsoft Entra helpt bij het beheren van toegangspunten voor gebruikers en apps die buiten het bestaande beleid vallen. De agent detecteert snel beveiligingslekken en stelt updates voor om deze te dichten.

Vulnerability Remediation Agent in Microsoft Intune bewaakt en prioriteert beveiligingslekken en hersteltaken om problemen met app- en beleidsconfiguratie op te lossen en versnelt Windows OS-patches met goedkeuring van de beheerder.

Threat Intelligence Briefing Agent in Security Copilot biedt organisaties tijdige en relevante informatie over de cyberdreigingen waarmee ze te maken hebben op basis van de unieke kenmerken van een organisatie en de blootstelling aan cyberbedreigingen.

Risico’s door schaduw-AI-apps

Naast de welbekende prompt injection komt er een nieuw probleem om de hoek kijken: schaduw-AI. Hierbij gebruiken bijvoorbeeld je werknemers onofficiële AI-apps die niet zijn goedgekeurd door IT of beveiligingsteams, wat het risico op gegevenslekken vergroot. En dat is een risico dat je liever niet neemt.

Daarom heeft Microsoft nieuwe controles gelanceerd om schaduw-AI in te dammen en gevoelige gegevens te beschermen. Ten eerste is er de AI-webcategoriefiltering in Microsoft Entra-internettoegang, waarmee organisaties precies kunnen bepalen wie toegang krijgt tot welke AI-toepassingen. Zo heb je de controle over wie er met welke tools werkt, en voorkom je ongewenste toegang.

Daarnaast wordt er ook gewerkt aan Microsoft Purview DLP-controls voor Microsoft Edge, waarmee beveiligingsteams de invoer van gevoelige data in generatieve AI-apps zoals ChatGPT, Copilot Chat, DeepSeek en Google Gemini kunnen blokkeren.

Conclusie

Het is wel duidelijk dat AI hele mooie kansen biedt in organisaties, maar ook écht nieuwe beveiligingsrisico’s met zich mee brengt. De snelle acceptatie van generatieve AI, het opkomen van schaduw-AI en de groeiende dreigingen rondom datalekken en IT-incidenten maken het essentieel om jouw AI-strategie stevig te verankeren in een goed beveiligingskader.

Met de juiste strategieën en tools kun je deze risico’s tot een minimum beperken. Wil je meer weten? Neem gerust contact met ons op. Of je maakt zelf makkelijk een belafspraak met Dirk, dat kan ook!


Gerelateerd

Meer innformatie?

Wil je meer weten over De toekomst is AI. De basis is beveiliging!, neem dan contact met ons op.