AI Model Governance en Lifecycle Management: Duurzame Modelkwaliteitsborging

$$$ Encrypted! ! Ransomware Blocked Ransomware Shield Active Real-time protection enabled Protection Status 247 Attacks Blocked Today

AI-modellen gedragen zich niet zoals klassieke software. Zodra economische omstandigheden, burgergedrag of het dreigingslandschap verschuiven, veranderen datadistributies en neemt de nauwkeurigheid af. Zonder actieve monitoring merken organisaties pas maanden later dat beslissingen niet meer kloppen en burgers ten onrechte worden benadeeld. Voor Nederlandse overheidsorganisaties is dat onacceptabel: elke algoritmische beslissing moet aantoonbaar betrouwbaar, uitlegbaar en rechtmatig blijven gedurende de volledige levensduur.

Modelgovernance borgt dat training, validatie, implementatie, monitoring, retraining en uitfasering volgens vaste spelregels verlopen. Het voorkomt ‘AI technical debt’: verouderde modellen, ontbrekend eigenaarschap, niet-gelogde wijzigingen en onduidelijke audittrails. In deze whitepaper presenteren we een lifecycleframework dat aansluit op AVG, BIO, EU AI Act en Woo-verplichtingen en tegelijk werkt binnen moderne MLOps-processen.

Governance-inzichten

✔ Leg per lifecyclefase (development, implementatie, operatie, retraining, exit) criteria en besluitmomenten vast ✔ Monitor continu op performance, drift, bias én operationele KPIs met alerts en escalatieproces ✔ Automatiseer retraining en deployment via MLOps, inclusief change control en auditlog ✔ Plan vervanging/exit tijdig zodat legacy-modellen geen compliance- of kwaliteitsrisico vormen

Baseline verplicht

Leg bij livegang een performancebaseline vast (nauwkeurigheid, recall, bias, latency) en bevries de trainingsdataset. Zonder referentie is niet vast te stellen of degradatie nieuw is of altijd heeft bestaan, wat audits frustreert.

Lifecyclefasen en governance checkpoints

Het beheer van AI-modellen vereist een gestructureerde aanpak die de volledige levenscyclus omvat, van initiële ontwikkeling tot uiteindelijke uitfasering. Elke fase kent specifieke governance-vereisten die ervoor zorgen dat modellen betrouwbaar, uitlegbaar en compliant blijven gedurende hun operationele levensduur. Deze gelaagde benadering voorkomt dat organisaties worden geconfronteerd met onverwachte degradatie, compliance-problemen of juridische risico's die kunnen ontstaan wanneer modellen zonder adequate controle worden ingezet.

De ontwikkelingsfase vormt de fundering voor alle latere governance-activiteiten. Tijdens deze fase is het essentieel om uitgebreide documentatie vast te leggen die de volledige context van het model vastlegt. Datasheets en modelcards dienen als centrale documentatie waarin alle relevante aspecten worden vastgelegd. Deze documenten moeten de brondata beschrijven waarop het model is getraind, inclusief de oorsprong, kwaliteit en eventuele beperkingen van deze datasets. De gebruikte variabelen en features moeten gedetailleerd worden gedocumenteerd, zodat toekomstige gebruikers en auditors kunnen begrijpen welke inputfactoren het model gebruikt voor zijn beslissingen.

Bias-tests vormen een kritiek onderdeel van de ontwikkelingsfase, vooral voor overheidsorganisaties die verantwoordelijk zijn voor eerlijke en rechtmatige behandeling van burgers. Deze tests moeten verschillende dimensies van bias onderzoeken, waaronder demografische bias, geografische bias en sociaaleconomische bias. De resultaten van deze tests moeten niet alleen worden gedocumenteerd, maar ook worden gebruikt om het model te verbeteren voordat het in productie gaat. Explainability-resultaten zijn eveneens cruciaal, omdat burgers en belanghebbenden moeten kunnen begrijpen hoe het model tot zijn beslissingen komt. Deze uitlegbaarheid is niet alleen een technische vereiste, maar ook een juridische en ethische verplichting onder de AVG en de EU AI Act.

Juridische grondslagen moeten expliciet worden vastgelegd, waarbij wordt aangegeven op basis van welk wettelijk kader het model wordt ingezet. DPIA-uitkomsten moeten worden gedocumenteerd, inclusief geïdentificeerde risico's en genomen mitigerende maatregelen. De besluitvorming van governanceboards moet volledig worden vastgelegd, zodat duidelijk is wie welke beslissingen heeft genomen en op basis van welke overwegingen. Deze documentatie vormt later de basis voor audits en verantwoording.

De implementatiefase markeert de overgang van ontwikkeling naar operationeel gebruik. Deze fase vereist een formele go/no-go beslissing waarbij meerdere stakeholders betrokken moeten zijn. Security-experts moeten de beveiligingsaspecten beoordelen, de functionaris gegevensbescherming moet de privacy-implicaties evalueren, en het ethiekcomité moet de ethische dimensies beoordelen. Deze multidisciplinaire beoordeling zorgt ervoor dat alle relevante perspectieven worden meegenomen voordat een model daadwerkelijk wordt ingezet.

Het vaststellen van baselines is een kritieke activiteit tijdens de implementatiefase. Deze baselines vormen de referentiepunten waartegen toekomstige prestaties worden gemeten. Zonder duidelijke baselines is het onmogelijk om degradatie te detecteren of te kwantificeren. De baseline moet meerdere dimensies omvatten, waaronder nauwkeurigheid, recall, bias-metingen en latency. De trainingsdataset moet worden bevroren en gearchiveerd, zodat deze later kan worden gebruikt voor vergelijkingen en audits.

Monitoring moet worden geconfigureerd voordat het model live gaat. Deze monitoring moet telemetrie omvatten die real-time inzicht geeft in modelprestaties, drift-detectie die signaleert wanneer de inputdata afwijkt van de trainingsdata, bias-monitoring die continu controleert op oneerlijke uitkomsten, en latency-metingen die de responsetijden van het model volgen. Fallback-scenario's moeten worden gedocumenteerd, inclusief procedures voor human-in-the-loop interventie wanneer het model onbetrouwbare resultaten produceert of wanneer edge cases worden gedetecteerd die buiten de scope van het model vallen.

Tijdens de operationele fase moet het model continu worden gemonitord en beoordeeld. Dagelijkse of wekelijkse KPI-metingen zorgen voor tijdige detectie van prestatieproblemen. Fairness-audits moeten regelmatig worden uitgevoerd om te waarborgen dat het model geen oneerlijke uitkomsten produceert voor specifieke groepen. Performance-audits evalueren of het model nog steeds voldoet aan de oorspronkelijke prestatie-eisen. Gebruikersfeedback moet actief worden verzameld en geanalyseerd, omdat eindgebruikers vaak problemen detecteren die niet zichtbaar zijn in technische metingen.

Alle overrides, incidenten en wijzigingsverzoeken moeten worden gelogd en gekoppeld aan het reguliere BIO-changeproces. Deze koppeling zorgt ervoor dat wijzigingen aan AI-modellen dezelfde governance-procedures doorlopen als andere IT-wijzigingen, wat consistentie en controleerbaarheid waarborgt. Incidenten moeten worden geanalyseerd om te begrijpen waarom het model niet heeft gepresteerd zoals verwacht, en deze lessen moeten worden meegenomen in toekomstige retraining-cycli.

De retraining-fase is essentieel om modellen actueel en accuraat te houden. MLOps-pipelines automatiseren het proces van datarefresh, waarbij nieuwe data wordt verzameld en voorbereid voor training. Retraining wordt uitgevoerd met behulp van de nieuwste data, waarbij het model wordt bijgewerkt om veranderende patronen en omstandigheden te reflecteren. Validatie moet plaatsvinden voordat een nieuw modelversie wordt uitgerold, waarbij shadow-testing en A/B-testing kunnen worden gebruikt om de impact van wijzigingen te evalueren voordat ze volledig worden geïmplementeerd.

Gecontroleerde uitrol zorgt ervoor dat nieuwe modelversies geleidelijk worden geïntroduceerd, waarbij de prestaties worden gemonitord voordat volledige implementatie plaatsvindt. Alle modelversies, hyperparameters en approvals moeten worden gedocumenteerd, zodat een volledige audittrail beschikbaar is. De impact op KPIs moet worden gemeten en geëvalueerd, zodat duidelijk is of de retraining de gewenste verbeteringen heeft opgeleverd.

De uitfaseringfase wordt vaak over het hoofd gezien, maar is cruciaal voor het voorkomen van compliance- en kwaliteitsrisico's. Exitcriteria moeten worden gedefinieerd voordat een model wordt uitgefaseerd. Deze criteria kunnen variëren van de beschikbaarheid van een nieuw en beter model, wijzigingen in wetgeving die het gebruik van het model onwettig maken, tot verouderde technieken die niet langer voldoen aan moderne standaarden. Data en documentatie moeten worden gearchiveerd conform archiefwetgeving, waarbij wordt gewaarborgd dat historische beslissingen nog steeds kunnen worden geaudit en verklaard. Toegang tot oude artefacten moet worden ingetrokken om te voorkomen dat verouderde modellen per ongeluk worden gebruikt. Modelregisters en Woo-publicaties moeten worden bijgewerkt om de uitfasering te reflecteren en transparantie te waarborgen.

Monitoring, MLOps en continuous improvement

Continue monitoring vormt de ruggengraat van effectief AI-modelbeheer. Zonder adequate monitoring kunnen organisaties maandenlang onbewust blijven van degradatie, bias-problemen of operationele issues die de betrouwbaarheid en rechtmatigheid van algoritmische beslissingen ondermijnen. Een uitgebreid monitoringframework combineert technische metingen met operationele inzichten, waardoor organisaties proactief kunnen reageren op veranderingen voordat deze leiden tot negatieve impact op burgers of compliance-problemen.

Performance-metrics vormen de basis voor het monitoren van modelkwaliteit. Accuracy meet de algemene nauwkeurigheid van modelvoorspellingen, maar moet worden aangevuld met recall-metingen die aangeven hoeveel relevante gevallen daadwerkelijk worden gedetecteerd. AUC-metingen bieden inzicht in de algehele discriminerende kracht van het model over verschillende drempelwaarden. Deze metrics moeten niet alleen worden gemeten, maar ook worden gecontextualiseerd tegen de oorspronkelijke baselines die tijdens de implementatiefase zijn vastgesteld. Degradatie in deze metrics kan wijzen op concept drift, waarbij de onderliggende patronen in de data zijn veranderd, of data drift, waarbij de inputdata zelf is veranderd.

Fairness en bias-monitoring zijn essentieel voor overheidsorganisaties die verantwoordelijk zijn voor eerlijke behandeling van alle burgers. Deze monitoring moet verschillende dimensies van bias onderzoeken, waaronder demografische, geografische en sociaaleconomische dimensies. Disparate impact-analyses moeten regelmatig worden uitgevoerd om te waarborgen dat het model geen oneerlijke uitkomsten produceert voor specifieke groepen. Deze analyses moeten niet alleen worden uitgevoerd tijdens de ontwikkelingsfase, maar continu tijdens de operationele fase, omdat bias kan ontstaan of verergeren naarmate het model wordt blootgesteld aan nieuwe data.

Drift-detectie is cruciaal omdat AI-modellen zijn getraind op historische data en kunnen degraderen wanneer de realiteit verandert. Data drift treedt op wanneer de distributie van inputdata afwijkt van de trainingsdata, wat kan gebeuren door veranderende omstandigheden, nieuwe gebruikerspatronen of wijzigingen in datacollectieprocessen. Concept drift treedt op wanneer de relatie tussen inputs en outputs verandert, bijvoorbeeld wanneer economische omstandigheden of burgergedrag verschuift. Beide vormen van drift moeten worden gedetecteerd en geadresseerd voordat ze leiden tot significante degradatie in modelprestaties.

Explainability-metrics monitoren of het model nog steeds uitlegbaar blijft en of de uitlegbaarheidsrapporten voldoen aan de vereisten voor transparantie en verantwoording. Deze metrics zijn vooral belangrijk voor high-risk AI-systemen onder de EU AI Act, die expliciete uitlegbaarheidsvereisten stellen. Operationele metrics zoals latency en resourcekosten monitoren de praktische bruikbaarheid van het model. Hoge latency kan de gebruikerservaring negatief beïnvloeden, terwijl hoge resourcekosten de schaalbaarheid en kosteneffectiviteit kunnen ondermijnen.

Drempelwaarden moeten worden ingesteld voor alle relevante metrics, waarbij alerts worden geconfigureerd die waarschuwen wanneer deze drempelwaarden worden overschreden. Deze alerts moeten worden geïntegreerd in monitoringplatforms zoals Azure Monitor, Microsoft Fabric of MLflow, die real-time dashboards bieden die stakeholders in staat stellen om de gezondheid van modellen te volgen. Alle waarschuwingen moeten worden gelogd, inclusief timestamp, severity, en de specifieke metric die de alert heeft getriggerd. Deze logging vormt de basis voor incidentanalyse en trenddetectie.

Het incidentproces moet modelissues koppelen aan het reguliere incident- en changeproces zoals gedefinieerd in BIO 12. Deze koppeling zorgt ervoor dat AI-modelproblemen dezelfde governance-procedures doorlopen als andere IT-incidenten, wat consistentie en controleerbaarheid waarborgt. Het incidentproces moet duidelijk beschrijven wie escalaties behandelt, waarbij verschillende rollen verschillende verantwoordelijkheden hebben. De datascience lead is verantwoordelijk voor technische analyse en oplossingsontwikkeling, de product owner bepaalt de prioritering en business impact, de CISO beoordeelt beveiligingsimplicaties, en de functionaris gegevensbescherming evalueert privacy- en compliance-aspecten.

Wanneer modelissues impact hebben op burgers of ketenpartners, moeten deze proactief worden geïnformeerd. Deze communicatie moet transparant zijn over de aard van het probleem, de impact ervan, en de genomen of geplande mitigerende maatregelen. Voor high-impact incidents kan dit betekenen dat beslissingen tijdelijk worden opgeschort of dat human-in-the-loop procedures worden geactiveerd totdat het probleem is opgelost. De communicatiestrategie moet worden afgestemd op de ernst van het incident en de potentiële impact op betrokkenen.

Automatisering via CI/CD en Infrastructure as Code versnelt het retraining- en deploymentproces terwijl traceerbaarheid en controleerbaarheid worden gewaarborgd. Versiebeheer in modelregistries zorgt ervoor dat alle modelversies worden bijgehouden, inclusief metadata zoals trainingsdata, hyperparameters en prestatieresultaten. Policy-checks kunnen automatisch worden uitgevoerd voordat een model wordt uitgerold, waarbij wordt gecontroleerd of het model voldoet aan compliance-vereisten, bias-drempels en prestatiecriteria. Digitale handtekeningen kunnen worden gebruikt om de integriteit van modelartefacten te waarborgen en te voorkomen dat ongeautoriseerde wijzigingen worden geïmplementeerd.

Automatische deployment naar test- en productieomgevingen kan worden geconfigureerd met approval-gates die ervoor zorgen dat belangrijke wijzigingen worden gereviewd voordat ze worden geïmplementeerd. Deze approval-processen moeten worden gedocumenteerd en gelogd, zodat een volledige audittrail beschikbaar is voor alle modelwijzigingen. De automatisering zorgt ervoor dat retrainingen traceerbaar blijven, waarbij elke wijziging wordt gekoppeld aan specifieke triggers, zoals drift-detectie, prestatieproblemen of nieuwe data beschikbaarheid.

De feedbackloop verzamelt signalen uit verschillende bronnen om continue verbetering mogelijk te maken. Klachten van burgers kunnen wijzen op problemen die niet zichtbaar zijn in technische metingen, zoals onduidelijke uitlegbaarheid of onverwachte edge cases. Audits kunnen systematische problemen identificeren die moeten worden geadresseerd. Woo- en AI-registers kunnen vragen of bezwaren bevatten die inzicht geven in hoe het model wordt waargenomen door externe stakeholders. Ethiekcomités kunnen ethische zorgen uiten die moeten worden meegenomen in modelverbeteringen. Business-owners kunnen operationele problemen signaleren die de praktische bruikbaarheid van het model beïnvloeden.

Deze signalen moeten worden verzameld in een centrale backlog, waarbij root cause analyses worden uitgevoerd om te begrijpen waarom problemen zijn ontstaan. Deze analyses moeten niet alleen de directe oorzaken identificeren, maar ook onderliggende systemische problemen die kunnen leiden tot vergelijkbare issues in de toekomst. Op basis van deze analyses moeten hertraining of feature-updates worden geprioriteerd, waarbij wordt afgewogen tussen de urgentie van het probleem, de beschikbare resources, en de potentiële impact van de oplossing. Deze gestructureerde aanpak zorgt ervoor dat continue verbetering niet ad-hoc plaatsvindt, maar wordt gedreven door data en feedback uit de praktijk.

Risico, compliance en documentatie

Risicobeheer en compliance vormen de fundamenten waarop vertrouwelijke AI-implementaties zijn gebouwd. Voor Nederlandse overheidsorganisaties zijn deze aspecten niet alleen best practices, maar expliciete wettelijke verplichtingen onder de AVG, BIO, EU AI Act en de Wet open overheid. Een robuust governanceframework integreert risicobeheer en compliance in elke fase van de modellevenscyclus, waardoor organisaties kunnen aantonen dat algoritmische beslissingen rechtmatig, transparant en verantwoord zijn.

Het modelregister vormt het centrale informatiepunt voor alle AI-modellen binnen een organisatie. Dit register moet een complete inventarisatie bevatten van alle modellen, inclusief hun doel en beoogde gebruik. De dataset waarop elk model is getraind moet worden gedocumenteerd, inclusief de oorsprong, omvang, kwaliteit en eventuele beperkingen. Verantwoordelijken moeten worden geïdentificeerd voor elk model, waarbij duidelijk is wie verantwoordelijk is voor ontwikkeling, implementatie, monitoring en onderhoud. Juridische grondslagen moeten expliciet worden vastgelegd, waarbij wordt aangegeven op basis van welk wettelijk kader het model wordt ingezet en welke persoonsgegevens worden verwerkt.

AI Act-risicoclassificatie moet worden uitgevoerd voor elk model, waarbij wordt bepaald of het model valt onder de categorieën verboden AI-praktijken, high-risk AI-systemen, of andere categorieën zoals gedefinieerd in de EU AI Act. Deze classificatie bepaalt welke compliance-vereisten van toepassing zijn en welke documentatie en procedures moeten worden gevolgd. De huidige status van elk model moet worden bijgehouden, inclusief of het model in ontwikkeling is, in productie, wordt gemonitord, wordt hertraind, of wordt uitgefaseerd.

Version history moet worden gekoppeld aan het register, zodat voor elke modelversie kan worden teruggevonden wanneer deze is ontwikkeld, welke wijzigingen zijn doorgevoerd, en wie deze wijzigingen heeft goedgekeurd. Testresultaten moeten worden gekoppeld aan specifieke versies, zodat auditors kunnen verifiëren dat modellen adequaat zijn getest voordat ze in productie zijn gegaan. Vrijgavemomenten moeten worden gedocumenteerd, inclusief wie de vrijgave heeft goedgekeurd en op basis van welke criteria. Deze koppelingen zorgen ervoor dat audits direct inzage kunnen krijgen in de volledige geschiedenis van een model, wat essentieel is voor compliance en verantwoording.

Compliance by design betekent dat AVG-, DPIA-, BIO- en AI Act-eisen worden geïntegreerd in checklists voor elke lifecyclefase, in plaats van achteraf te worden toegevoegd. Deze aanpak voorkomt dat compliance-problemen pas worden ontdekt wanneer modellen al in productie zijn, wat kan leiden tot kostbare herconfiguraties of zelfs het moeten terugtrekken van modellen. Tijdens de ontwikkelingsfase moeten compliance-vereisten worden meegenomen in het ontwerp, waarbij wordt gewaarborgd dat modellen van meet af aan voldoen aan relevante wetgeving.

Logging van beslissingen is een kritieke compliance-vereiste die waarborgt dat alle algoritmische beslissingen kunnen worden geaudit en verklaard. Deze logging moet voldoende detail bevatten om te begrijpen welke inputdata is gebruikt, hoe het model tot zijn beslissing is gekomen, en welke factoren het meest hebben bijgedragen aan de uitkomst. Uitlegbaarheidsrapporten moeten regelmatig worden gegenereerd en geëvalueerd om te waarborgen dat modellen nog steeds uitlegbaar blijven en dat de uitlegbaarheid voldoet aan de vereisten voor transparantie.

Menselijke tussenkomst moet worden ingebouwd voor high-risk beslissingen, waarbij procedures worden gedefinieerd voor wanneer en hoe menselijke beoordeling plaatsvindt. Noodprocedures moeten worden ontwikkeld voor scenario's waarin modellen onbetrouwbare resultaten produceren, bias detecteren, of wanneer andere kritieke problemen worden geïdentificeerd. Deze procedures moeten duidelijk beschrijven wie verantwoordelijk is voor het activeren van noodprocedures, welke mitigerende maatregelen moeten worden genomen, en hoe burgers of andere betrokkenen moeten worden geïnformeerd.

Third-party en open source modellen brengen aanvullende risico's met zich mee omdat organisaties minder controle hebben over de ontwikkeling en onderhoud van deze modellen. Externe modellen zoals Microsoft Copilot, SaaS-gebaseerde AI-diensten, of open source modellen moeten volledig worden gedocumenteerd, inclusief de gebruikte licenties en eventuele beperkingen die deze licenties opleggen. Patchbeleid moet worden gedefinieerd voor hoe updates van externe modellen worden geëvalueerd en geïmplementeerd, waarbij wordt gewaarborgd dat updates niet leiden tot onverwachte degradatie of compliance-problemen.

Validaties moeten worden uitgevoerd voor externe modellen voordat ze worden ingezet, waarbij wordt gecontroleerd of deze modellen voldoen aan dezelfde kwaliteits- en compliance-standaarden als intern ontwikkelde modellen. Leveranciers moeten worden geëvalueerd via contractuele eisen die specifieke verplichtingen vastleggen voor logging, model updates, en incidentmeldingen. Deze contractuele eisen moeten waarborgen dat organisaties voldoende inzicht en controle behouden over externe modellen, zelfs wanneer de technische ontwikkeling buiten de organisatie plaatsvindt.

Transparantie en verantwoording zijn fundamentele principes voor overheidsorganisaties die AI gebruiken. Samenvattingen moeten worden gepubliceerd in Woo- en AI-registers, waarbij burgers en belanghebbenden inzicht krijgen in welke modellen worden gebruikt, voor welke doeleinden, en welke impact deze modellen kunnen hebben. Deze publicaties moeten begrijpelijk zijn voor niet-technische lezers, waarbij complexe technische details worden vertaald naar toegankelijke beschrijvingen die burgers in staat stellen om te begrijpen hoe AI wordt gebruikt in dienstverlening.

Burgers moeten inzicht krijgen in gebruikte modellen, waarbij wordt uitgelegd hoe beslissingen tot stand komen en welke factoren het meest hebben bijgedragen aan specifieke uitkomsten. Procedures moeten worden gedefinieerd voor hoe burgers beslissingen kunnen herzien, inclusief bezwaarprocedures en mogelijkheden voor human-in-the-loop beoordeling wanneer burgers oneens zijn met algoritmische beslissingen. Deze procedures waarborgen dat burgers niet worden overgeleverd aan ondoorzichtige algoritmische systemen, maar controle behouden over beslissingen die hun leven beïnvloeden.

Bestuurders moeten worden voorzien van dashboards die real-time inzicht geven in KPIs, risico's en lifecyclestatus van alle AI-modellen. Deze dashboards moeten verschillende niveaus van detail bieden, waarbij bestuurders zowel een hoogoverzicht kunnen krijgen als kunnen inzoomen op specifieke modellen wanneer nodig. Risico-indicatoren moeten duidelijk zichtbaar zijn, waarbij wordt gewaarschuwd wanneer modellen degradatie vertonen, bias-problemen ontwikkelen, of andere issues die aandacht vereisen. Lifecyclestatus moet worden weergegeven zodat bestuurders kunnen zien welke modellen in ontwikkeling zijn, welke in productie, en welke worden uitgefaseerd. Deze transparantie waarborgt dat bestuurders voldoende inzicht hebben om verantwoordelijke beslissingen te nemen over het gebruik van AI binnen hun organisatie.

Met robuuste lifecycle-governance blijven AI-beslissingen betrouwbaar, uitlegbaar en compliant. Combineer multidisciplinaire teams, MLOps-automatisering, modelregisters en duidelijke besluitpunten om degradatie en juridische risico’s te voorkomen. Blijf meten, hertrainen en transparant rapporteren – zo levert AI duurzame waarde in plaats van technische schuld.

Meer informatie over AI model governance
Bekijk artikelen →
AI-governance Modelbeheer MLOps AI-lifecycle Modelmonitoring