💼 Management Samenvatting
Microsoft Copilot Studio biedt organisaties de mogelijkheid om geavanceerde AI-aangedreven chatbots te ontwikkelen die gebruikers kunnen helpen met vragen en taken door gebruik te maken van generative answers functionaliteit. Deze functionaliteit maakt gebruik van grote taalmodellen om automatisch antwoorden te genereren op basis van beschikbare kennisbronnen, waardoor chatbots intelligenter en responsiever worden. Voor Nederlandse overheidsorganisaties is het essentieel om generative answers correct te configureren met aandacht voor beveiliging, privacy en compliance, zodat gevoelige gegevens adequaat worden beschermd en gebruik voldoet aan de strenge eisen die gelden vanuit de Baseline Informatiebeveiliging Overheid (BIO), de Algemene Verordening Gegevensbescherming (AVG) en de Network and Information Systems Directive 2 (NIS2).
✓ Microsoft Copilot
✓ Microsoft Copilot Studio
✓ Power Platform
✓ Microsoft 365 E3
✓ Microsoft 365 E5
Generative answers in Microsoft Copilot Studio stellen chatbots in staat om intelligente, contextuele antwoorden te genereren op basis van beschikbare kennisbronnen, zonder dat organisaties handmatig elk mogelijk antwoord hoeven te definiëren. Deze functionaliteit verbetert de gebruikerservaring aanzienlijk door chatbots responsiever en nuttiger te maken, maar brengt ook unieke beveiligings- en compliance-uitdagingen met zich mee. Zonder adequate configuratie kunnen generative answers toegang krijgen tot gevoelige informatie, onjuiste of misleidende antwoorden genereren, of privacy-vereisten schenden. Voor Nederlandse overheidsorganisaties is het daarom essentieel om generative answers te configureren met passende beveiligingsmaatregelen, privacy-instellingen en compliance-controles die ervoor zorgen dat chatbots veilig en compliant kunnen worden gebruikt voor interacties met burgers en medewerkers.
Connection:
Connect-MgGraph / Connect-PowerAppServiceRequired Modules: Microsoft.Graph, Microsoft.PowerApps.Administration.PowerShell
Implementatie
Dit artikel biedt een complete gids voor het configureren van generative answers in Microsoft Copilot Studio voor Nederlandse overheidsorganisaties. Het artikel behandelt alle belangrijke aspecten van generative answers configuratie, inclusief kennisbronnen configuratie, beveiligingsinstellingen, privacy-instellingen, compliance-configuratie, monitoring en verificatie. Voor elk aspect worden concrete configuratiestappen beschreven, inclusief best practices voor het beveiligen van kennisbronnen, het configureren van privacy-instellingen die voldoen aan AVG-vereisten, en het implementeren van monitoring en logging voor compliance-doeleinden. Daarnaast worden best practices beschreven voor het beheren van generative answers op de lange termijn, inclusief het regelmatig updaten van kennisbronnen, het monitoren van chatbot-interacties, en het continu verbeteren van antwoordkwaliteit en beveiliging.
Overzicht van Generative Answers Functionaliteit
Generative answers in Microsoft Copilot Studio is een krachtige functionaliteit die chatbots in staat stelt om automatisch intelligente antwoorden te genereren op basis van beschikbare kennisbronnen, zonder dat organisaties handmatig elk mogelijk antwoord hoeven te definiëren. Deze functionaliteit maakt gebruik van geavanceerde grote taalmodellen die zijn getraind op uitgebreide datasets, waardoor chatbots contextuele, relevante en natuurlijk klinkende antwoorden kunnen genereren die aansluiten bij de vragen en behoeften van gebruikers. Generative answers werkt door gebruikersvragen te analyseren, relevante informatie te identificeren in geconfigureerde kennisbronnen zoals SharePoint-documenten, websites of databases, en vervolgens een samenhangend antwoord te genereren dat de vraag beantwoordt op basis van de gevonden informatie.
De configuratie van generative answers begint met het definiëren van kennisbronnen die de chatbot kan gebruiken om antwoorden te genereren. Deze kennisbronnen kunnen verschillende vormen aannemen, zoals SharePoint-documentbibliotheken, OneDrive-mappen, websites, databases of andere informatiebronnen die relevant zijn voor de use case van de chatbot. Organisaties moeten zorgvuldig nadenken over welke kennisbronnen geschikt zijn voor generative answers, waarbij zij rekening houden met factoren zoals de gevoeligheid van informatie, de nauwkeurigheid en actualiteit van gegevens, en de compliance-vereisten die van toepassing zijn op specifieke informatiebronnen. Niet alle kennisbronnen zijn geschikt voor generative answers, bijvoorbeeld wanneer informatie zeer gevoelig is, wanneer informatie verouderd of onnauwkeurig is, of wanneer informatie niet mag worden gedeeld met externe partijen.
Naast het configureren van kennisbronnen vereist generative answers configuratie van beveiligingsinstellingen die ervoor zorgen dat chatbots alleen toegang hebben tot geautoriseerde informatie en dat gevoelige gegevens adequaat worden beschermd. Dit omvat het configureren van toegangscontrole voor kennisbronnen, het implementeren van data loss prevention (DLP) policies die voorkomen dat gevoelige informatie onbedoeld wordt gedeeld, en het configureren van encryptie voor data in transit en data at rest. Organisaties moeten ook nadenken over hoe generative answers omgaat met persoonsgegevens en ervoor zorgen dat privacy-vereisten worden nageleefd, bijvoorbeeld door gebruik te maken van data minimization principes waarbij chatbots alleen toegang hebben tot gegevens die nodig zijn voor specifieke taken, en door purpose limitation principes toe te passen waarbij gegevens alleen worden gebruikt voor welbepaalde doeleinden.
Een derde belangrijke component van generative answers configuratie is het implementeren van monitoring en logging die organisaties inzicht geven in hoe chatbots worden gebruikt, welke vragen gebruikers stellen, en welke antwoorden worden gegenereerd. Deze monitoring is essentieel voor het detecteren van beveiligingsincidenten, het onderzoeken van verdachte activiteiten, en het voldoen aan compliance-vereisten voor audit logging. Organisaties moeten ervoor zorgen dat alle chatbot-interacties worden gelogd, inclusief gebruikersvragen, gegenereerde antwoorden, toegang tot kennisbronnen, en gebruikersinformatie. Deze logs moeten worden opgeslagen in een centrale locatie waar zij kunnen worden geanalyseerd door security teams, en moeten worden bewaard voor de vereiste bewaartermijnen zoals vastgelegd in compliance-frameworks. Daarnaast moeten organisaties processen implementeren voor het regelmatig reviewen van deze logs om verdachte activiteiten te detecteren, om de kwaliteit van gegenereerde antwoorden te evalueren, en om gebieden te identificeren waar verbeteringen nodig zijn.
Configuratie van Kennisbronnen voor Generative Answers
De configuratie van kennisbronnen vormt de basis voor generative answers functionaliteit in Microsoft Copilot Studio, omdat chatbots afhankelijk zijn van deze bronnen om accurate en relevante antwoorden te genereren. Organisaties moeten beginnen met het identificeren van geschikte kennisbronnen die relevant zijn voor de use case van de chatbot, waarbij zij rekening houden met factoren zoals de actualiteit van informatie, de nauwkeurigheid van gegevens, de gevoeligheid van informatie, en de compliance-vereisten die van toepassing zijn. Voor Nederlandse overheidsorganisaties betekent dit vaak dat kennisbronnen moeten worden geselecteerd die voldoen aan BIO-vereisten voor informatiebeveiliging, AVG-vereisten voor privacybescherming, en sectorspecifieke wet- en regelgeving die aanvullende eisen stelt aan informatiebeheer en -deling.
Een eerste stap in kennisbronnen configuratie is het bepalen van welke soorten informatiebronnen geschikt zijn voor generative answers. SharePoint-documentbibliotheken vormen een veelgebruikte kennisbron voor chatbots, omdat zij vaak uitgebreide documentatie bevatten die relevant is voor gebruikersvragen, zoals beleidsdocumenten, procedures, handleidingen of veelgestelde vragen. Organisaties moeten ervoor zorgen dat SharePoint-documentbibliotheken die worden gebruikt als kennisbronnen correct zijn geconfigureerd met passende toegangscontrole, zodat alleen geautoriseerde gebruikers toegang hebben tot gevoelige informatie, en dat documenten correct zijn geclassificeerd volgens organisatorische data classification policies. Daarnaast moeten organisaties regelmatig controleren of documenten in kennisbronnen actueel en nauwkeurig zijn, omdat verouderde of onnauwkeurige informatie kan leiden tot misleidende of incorrecte antwoorden die gebruikers kunnen misleiden of tot verkeerde beslissingen kunnen leiden.
Naast SharePoint-documentbibliotheken kunnen organisaties ook andere soorten kennisbronnen configureren voor generative answers, zoals websites, databases of externe API's. Websites kunnen nuttig zijn wanneer chatbots informatie moeten verstrekken die beschikbaar is op publieke websites, zoals openingstijden, contactgegevens of algemene informatie over diensten. Databases kunnen worden gebruikt wanneer chatbots toegang moeten hebben tot gestructureerde gegevens, zoals klantgegevens, productinformatie of transactiegegevens. Externe API's kunnen worden geïntegreerd wanneer chatbots real-time informatie moeten ophalen, zoals weersinformatie, nieuws of andere dynamische gegevens. Voor elk type kennisbron moeten organisaties zorgvuldig nadenken over beveiligings- en privacy-implicaties, bijvoorbeeld door te verifiëren dat externe API's veilig zijn en dat gevoelige gegevens niet onbedoeld worden blootgesteld aan externe partijen.
Een belangrijke overweging bij het configureren van kennisbronnen is het implementeren van data minimization principes die ervoor zorgen dat chatbots alleen toegang hebben tot gegevens die nodig zijn voor specifieke taken. Dit betekent dat organisaties moeten vermijden om complete documentbibliotheken of databases te configureren als kennisbronnen wanneer chatbots alleen specifieke soorten informatie nodig hebben, omdat dit kan leiden tot onnodige blootstelling van gevoelige gegevens en kan resulteren in privacy-schendingen of compliance-problemen. In plaats daarvan moeten organisaties gericht kennisbronnen configureren die alleen relevante informatie bevatten, bijvoorbeeld door specifieke mappen of documenttypes te selecteren die relevant zijn voor de use case van de chatbot, of door filters toe te passen die ervoor zorgen dat alleen bepaalde soorten documenten of gegevens worden geïndexeerd voor generative answers. Door data minimization principes toe te passen, kunnen organisaties het risico op privacy-schendingen en compliance-problemen minimaliseren terwijl zij toch de voordelen van generative answers kunnen benutten.
Beveiligingsconfiguratie voor Generative Answers
Beveiligingsconfiguratie voor generative answers in Microsoft Copilot Studio is essentieel om ervoor te zorgen dat chatbots veilig kunnen worden gebruikt zonder dat gevoelige gegevens worden blootgesteld aan onbevoegde toegang of datalekken. Deze configuratie begint met het implementeren van toegangscontrole voor kennisbronnen, zodat alleen geautoriseerde chatbots en gebruikers toegang hebben tot gevoelige informatie. Organisaties moeten ervoor zorgen dat kennisbronnen correct zijn geconfigureerd met passende SharePoint-permissies, Azure AD-toegangscontrole of andere toegangscontrolemechanismen die relevant zijn voor specifieke kennisbronnen. Daarnaast moeten organisaties Conditional Access policies configureren die bepalen wie toegang heeft tot chatbots en onder welke voorwaarden, bijvoorbeeld door MFA te vereisen voor chatbot-toegang, door apparaatcompliance-eisen te stellen, of door locatiegebaseerde beperkingen te implementeren.
Een tweede belangrijke component van beveiligingsconfiguratie is het implementeren van data loss prevention (DLP) policies die voorkomen dat gevoelige informatie onbedoeld wordt gedeeld via chatbot-antwoorden. Deze policies kunnen worden geconfigureerd via Microsoft Purview Compliance Portal, waarbij organisaties regels definiëren die bepalen welke soorten gevoelige informatie niet mogen worden gedeeld, zoals persoonsgegevens, financiële gegevens, intellectueel eigendom of andere gevoelige informatie. Wanneer een chatbot-antwoord gevoelige informatie bevat die niet mag worden gedeeld, kan DLP automatisch het antwoord blokkeren, waarschuwen of maskeren, afhankelijk van de configuratie. Organisaties moeten DLP policies ontwikkelen die specifiek zijn gericht op generative answers use cases, waarbij zij rekening houden met de soorten gevoelige informatie die relevant zijn voor hun organisatie en de compliance-vereisten die van toepassing zijn.
Encryptie vormt een derde belangrijke component van beveiligingsconfiguratie, omdat dit ervoor zorgt dat gegevens die worden verwerkt door generative answers adequaat worden beschermd tegen onbevoegde toegang. Organisaties moeten ervoor zorgen dat gegevens worden versleuteld zowel in rust als tijdens overdracht, bijvoorbeeld door gebruik te maken van Azure Storage encryption voor data at rest en TLS 1.3 voor data in transit. Daarnaast moeten organisaties ervoor zorgen dat encryptiesleutels correct worden beheerd, bijvoorbeeld door gebruik te maken van Azure Key Vault voor het beheren van encryptiesleutels, en door ervoor te zorgen dat alleen geautoriseerde personen toegang hebben tot encryptiesleutels. Voor Nederlandse overheidsorganisaties kunnen aanvullende encryptievereisten gelden vanuit BIO-norm 8.1, die specifieke eisen stelt aan encryptie van gevoelige gegevens, en vanuit sectorspecifieke wet- en regelgeving die aanvullende encryptievereisten kan stellen.
Tot slot moet beveiligingsconfiguratie worden ondersteund door het implementeren van monitoring en detectie die organisaties inzicht geven in beveiligingsincidenten en verdachte activiteiten. Dit omvat het configureren van security monitoring via Microsoft 365 Defender of Microsoft Sentinel, waarbij organisaties waarschuwingen configureren voor verdachte chatbot-activiteiten, zoals ongebruikelijke toegangspogingen, pogingen om gevoelige informatie te verkrijgen, of andere activiteiten die kunnen wijzen op beveiligingsincidenten. Daarnaast moeten organisaties processen implementeren voor het snel reageren op gedetecteerde beveiligingsincidenten, bijvoorbeeld door automatische responsacties te configureren die chatbots tijdelijk uitschakelen wanneer beveiligingsincidenten worden gedetecteerd, of door incident response procedures te ontwikkelen die beschrijven hoe security teams moeten reageren op verschillende soorten beveiligingsincidenten. Door monitoring te combineren met snelle respons, kunnen organisaties ervoor zorgen dat beveiligingsincidenten snel worden gedetecteerd en gemitigeerd, waardoor de impact op organisatie en gebruikers wordt geminimaliseerd.
Privacy en Compliance Configuratie
Privacy en compliance configuratie voor generative answers in Microsoft Copilot Studio is essentieel om ervoor te zorgen dat chatbot-gebruik voldoet aan de strenge privacy- en compliance-vereisten die gelden voor Nederlandse overheidsorganisaties. De Algemene Verordening Gegevensbescherming (AVG) vormt de primaire basis voor privacy-vereisten, met specifieke artikelen die relevant zijn voor generative answers configuratie. Artikel 25 AVG vereist privacy by design en privacy by default, wat betekent dat privacy-aspecten moeten worden meegenomen in het ontwerp van generative answers configuraties, bijvoorbeeld door gebruik te maken van data minimization principes waarbij chatbots alleen toegang hebben tot gegevens die nodig zijn voor specifieke taken, purpose limitation principes waarbij gegevens alleen worden gebruikt voor welbepaalde doeleinden, en storage limitation principes waarbij gegevens niet langer worden bewaard dan noodzakelijk.
Artikel 32 AVG vereist dat organisaties passende technische en organisatorische maatregelen implementeren om persoonsgegevens te beveiligen, wat betekent dat generative answers configuraties moeten worden geconfigureerd met de hoogste standaard voor data protection. Dit omvat het implementeren van encryptie voor persoonsgegevens, het configureren van toegangscontrole die ervoor zorgt dat alleen geautoriseerde personen toegang hebben tot persoonsgegevens, en het implementeren van logging en monitoring die organisaties inzicht geven in hoe persoonsgegevens worden verwerkt. Organisaties moeten ook nadenken over hoe generative answers omgaat met specifieke categorieën van persoonsgegevens, zoals bijzondere persoonsgegevens die extra bescherming vereisen volgens AVG Artikel 9, of persoonsgegevens van kinderen die extra bescherming vereisen volgens AVG Artikel 8.
De Baseline Informatiebeveiliging Overheid (BIO) stelt aanvullende eisen voor informatiebeveiliging die relevant zijn voor generative answers configuratie. BIO-norm 5.1 vereist toegangscontrole, wat betekent dat organisaties moeten kunnen aantonen dat alleen geautoriseerde gebruikers toegang hebben tot chatbots en dat toegang wordt gecontroleerd en gemonitord. BIO-norm 8.1 vereist encryptie van gevoelige gegevens, wat betekent dat alle gegevens die worden verwerkt door generative answers moeten worden beschermd met passende encryptie. BIO-norm 12.1 vereist logging en monitoring, wat betekent dat alle chatbot-activiteiten moeten worden gelogd en gemonitord voor security-doeleinden. Organisaties moeten daarom beveiligingsconfiguraties implementeren die aantoonbaar voldoen aan deze BIO-vereisten en moeten regelmatig verifiëren dat deze configuraties correct blijven functioneren.
De Network and Information Systems Directive 2 (NIS2) stelt aanvullende eisen voor cybersecurity die relevant zijn voor generative answers configuratie, met name voor organisaties die worden aangemerkt als essentiële of belangrijke entiteiten. NIS2 vereist dat organisaties passende maatregelen implementeren voor het beveiligen van netwerk- en informatiesystemen, het detecteren van security-incidenten, en het snel reageren op security-incidenten. Voor generative answers betekent dit dat organisaties moeten kunnen aantonen dat zij geavanceerde beveiligingsmaatregelen hebben geïmplementeerd, dat monitoring en detectie continu plaatsvinden, en dat zij snel kunnen reageren op gedetecteerde bedreigingen. NIS2 vereist ook dat organisaties security-incidenten rapporteren aan relevante toezichthouders, wat betekent dat organisaties processen moeten hebben voor het documenteren en rapporteren van security-incidenten die betrekking hebben op chatbot-gebruik. Organisaties moeten daarom ervoor zorgen dat generative answers configuratie niet alleen beveiligingsmaatregelen omvat, maar ook de benodigde processen en procedures voor incident response en rapportage.
Monitoring en Verificatie van Generative Answers
Gebruik PowerShell-script generative-answers.ps1 (functie Invoke-Monitoring) – Monitort en verifieert de configuratie van generative answers in Microsoft Copilot Studio, inclusief kennisbronnen configuratie, beveiligingsinstellingen, privacy-instellingen en compliance-configuratie.
Effectieve monitoring en verificatie van generative answers configuratie is essentieel om te waarborgen dat chatbots correct blijven functioneren en dat compliance-vereisten continu worden nageleefd. Monitoring begint met het regelmatig controleren van de status van alle configuraties, inclusief kennisbronnen configuratie, beveiligingsinstellingen, privacy-instellingen en compliance-configuratie, om te verifiëren dat deze correct zijn geconfigureerd en actief zijn. Dit kan worden gedaan via Microsoft Copilot Studio beheerportal, Microsoft Power Platform Admin Center of andere beheerportals, waar beheerders een overzicht kunnen krijgen van alle geconfigureerde instellingen en hun status. Daarnaast kunnen PowerShell-scripts worden gebruikt om programmatisch de status van configuraties te controleren en waarschuwingen te genereren wanneer configuraties onverwacht worden gewijzigd of uitgeschakeld. Het in dit artikel genoemde PowerShell-script kan worden gebruikt om regelmatig de status van generative answers configuraties te controleren en rapporten te genereren over de naleving van beveiligings- en compliance-vereisten.
Naast het monitoren van de status van configuraties is het essentieel om de effectiviteit van beveiligingsmaatregelen te monitoren door te analyseren of beveiligingsincidenten worden gedetecteerd en gemitigeerd, of compliance-vereisten worden nageleefd, en of gebruikers correct omgaan met chatbot-functionaliteit. Organisaties moeten processen implementeren voor het regelmatig reviewen van security logs en audit logs, waarbij wordt gelet op patronen die kunnen wijzen op beveiligingsproblemen, zoals onbevoegde toegangspogingen, pogingen om gevoelige informatie te verkrijgen, of compliance-schendingen. Microsoft 365 Defender en Microsoft Sentinel bieden functionaliteit voor het analyseren van security events en het genereren van rapporten over beveiligingsincidenten. Organisaties moeten deze tools regelmatig gebruiken om inzicht te krijgen in de effectiviteit van beveiligingsmaatregelen en om gebieden te identificeren waar verbeteringen nodig zijn.
Een derde belangrijke component van monitoring is het meten van de kwaliteit van gegenereerde antwoorden door te analyseren of antwoorden accuraat, relevant en nuttig zijn voor gebruikers. Organisaties moeten processen implementeren voor het verzamelen van gebruikersfeedback over chatbot-antwoorden, bijvoorbeeld door gebruikers te vragen om feedback te geven over de kwaliteit van antwoorden, of door automatische analyse te gebruiken die de kwaliteit van antwoorden evalueert op basis van factoren zoals relevantie, nauwkeurigheid en volledigheid. Deze feedback kan worden gebruikt om kennisbronnen te verbeteren, om configuraties aan te passen, of om aanvullende training te geven aan chatbots. Daarnaast moeten organisaties processen hebben voor het regelmatig updaten van kennisbronnen om ervoor te zorgen dat informatie actueel en nauwkeurig blijft, omdat verouderde of onnauwkeurige informatie kan leiden tot misleidende of incorrecte antwoorden die gebruikers kunnen misleiden of tot verkeerde beslissingen kunnen leiden.
Gerelateerde Onderwerpen
Generative answers configuratie in Microsoft Copilot Studio is een complex onderwerp dat verschillende gerelateerde onderwerpen omvat die organisaties moeten overwegen bij het implementeren en gebruiken van chatbots. Een belangrijk gerelateerd onderwerp is de algemene beveiligingsconfiguratie voor Microsoft Copilot Studio, die gedetailleerde informatie biedt over beveiligingsinstellingen, toegangscontrole en compliance-configuratie die relevant zijn voor alle aspecten van Copilot Studio, niet alleen generative answers. Organisaties die generative answers willen configureren, moeten ook de algemene beveiligingsconfiguratie overwegen om ervoor te zorgen dat chatbots volledig beveiligd en compliant zijn.
Een ander belangrijk gerelateerd onderwerp is data loss prevention (DLP) configuratie voor Microsoft 365, dat beschrijft hoe organisaties DLP policies kunnen configureren om te voorkomen dat gevoelige informatie onbedoeld wordt gedeeld. Deze informatie is relevant voor generative answers configuratie omdat DLP policies kunnen worden gebruikt om te voorkomen dat chatbots gevoelige informatie delen in antwoorden. Organisaties die generative answers willen configureren, moeten DLP policies overwegen om ervoor te zorgen dat gevoelige gegevens adequaat worden beschermd.
Privacy-configuratie voor Microsoft Copilot vormt een derde belangrijk gerelateerd onderwerp, dat beschrijft hoe organisaties privacy-vereisten kunnen implementeren en naleven bij het gebruik van Copilot-functionaliteit. Deze informatie is relevant voor generative answers configuratie omdat privacy-instellingen moeten worden geconfigureerd om ervoor te zorgen dat persoonsgegevens adequaat worden beschermd. Organisaties die generative answers willen configureren, moeten privacy-configuratie overwegen om ervoor te zorgen dat chatbot-gebruik voldoet aan AVG-vereisten.
Compliance & Frameworks
- CIS M365: Control 6.1 (L1) - Implementeer beveiligingsconfiguraties voor AI-systemen en cloud services
- BIO: 5.1, 8.1, 12.1, 12.2 - Toegangscontrole, encryptie, logging en monitoring, en incident detectie voor AI-systemen
- ISO 27001:2022: A.9.1.1, A.10.1.1, A.12.4.1 - Toegangscontrole, cryptografie, en logging en monitoring voor AI-systemen
- NIS2: Artikel - Beveiligingsmaatregelen en incident detectie en respons voor essentiële en belangrijke entiteiten
Automation
Gebruik het onderstaande PowerShell script om deze security control te monitoren en te implementeren. Het script bevat functies voor zowel monitoring (-Monitoring) als remediation (-Remediation).
Risico zonder implementatie
Management Samenvatting
Configureer generative answers in Microsoft Copilot Studio met passende beveiligingsmaatregelen, privacy-instellingen en compliance-controles. Dit waarborgt dat chatbot-gebruik voldoet aan BIO-, AVG- en NIS2-vereisten en dat gevoelige gegevens adequaat worden beschermd tegen beveiligingsbedreigingen.
- Implementatietijd: 70 uur
- FTE required: 0.5 FTE