Skip to content
TECHNOMATON | Docs SAI Certified Trainers

MANAGE

This content is not available in your language yet.

Jak prioritizovat rizika, implementovat mitigace a řídit incidenty

NIST AI RMF funkce: MANAGE Subkategorie: MG-1 až MG-4


1. Přehled funkce MANAGE

MANAGE funkce převádí výsledky z MAP a MEASURE do konkrétních akcí.

Cíle MANAGE

CílPopis
PrioritizaceSeřadit rizika podle závažnosti
MitigaceImplementovat kontrolní opatření
IncidentyŘídit AI incidenty
ImprovementKontinuálně zlepšovat

2. MG-1: Risk Prioritization

2.1 Risk scoring

Risk Score = Likelihood × Impact × Detectability

Faktor1 (Low)2 (Medium)3 (High)4 (Critical)
LikelihoodRarePossibleLikelyAlmost certain
ImpactMinorModerateMajorSevere
DetectabilityEasyModerateDifficultVery difficult

Score interpretace:

ScoreLevelAction
1-8LowAccept or monitor
9-16MediumMitigate within quarter
17-32HighMitigate within month
33-64CriticalImmediate action

2.2 Risk register

## AI RISK REGISTER
| ID | Risk | System | L | I | D | Score | Status | Due |
|----|------|--------|---|---|---|-------|--------|-----|
| R001 | Bias in hiring | AI-001 | 3 | 4 | 2 | 24 | Mitigating | 2025-02 |
| R002 | Data privacy | AI-002 | 2 | 3 | 3 | 18 | Accepted | - |
| R003 | Hallucination | AI-003 | 4 | 3 | 3 | 36 | Critical | 2025-01 |

2.3 Risk treatment options

OptionKdy použítPříklad
AvoidNepřijatelné rizikoNepoužívat AI pro daný účel
MitigateSnížitelné rizikoImplementovat kontroly
TransferPřenositelné rizikoPojištění, SLAs
AcceptAkceptovatelné zbytkové rizikoDokumentovat a monitorovat

3. MG-2: Risk Mitigation

3.1 Control framework

3.2 Kontroly dle rizika

Pro Bias/Fairness rizika

KontrolaTypImplementace
Diverse training dataPreventiveData curation process
Bias testing pre-deploymentPreventiveMandatory fairness check
Fairness monitoringDetectiveContinuous metric tracking
Human review for decisionsDetectiveSample review process
Appeal mechanismCorrectiveUser-facing appeal process
Retraining pipelineCorrectiveTriggered by drift

Pro Privacy rizika

KontrolaTypImplementace
Data minimizationPreventiveOnly necessary data
Anonymization/pseudonymizationPreventivePre-processing pipeline
Access controlsPreventiveRBAC, least privilege
PII detection in outputsDetectiveContent scanning
Data breach responseCorrectiveIncident response plan

Pro Safety rizika (GAI)

KontrolaTypImplementace
Content filtersPreventiveInput/output filtering
System promptsPreventiveSafety instructions
Rate limitingPreventiveAbuse prevention
Output monitoringDetectiveToxicity scoring
Kill switchCorrectiveImmediate disable capability
User blockingCorrectiveBan abusive users

3.3 Human oversight

Levels of human oversight:

LevelPopisKdy použít
Human-in-the-loopČlověk schvaluje každé rozhodnutíHigh-risk, critical decisions
Human-on-the-loopČlověk monitoruje a může zasáhnoutMedium-risk, batch decisions
Human-in-commandČlověk nastavuje pravidla, AI operujeLow-risk, high-volume

Implementace:

## HUMAN OVERSIGHT DESIGN
### 1. Decision Point
- Co AI doporučuje vs. rozhoduje?
- Kdy je vyžadován human review?
### 2. Escalation Criteria
| Trigger | Akce |
|---------|------|
| Confidence < 80% | Human review |
| High-impact decision | Mandatory approval |
| Edge case detected | Escalate to expert |
| User requests | Always allow |
### 3. Override Capability
- Kdo může overridnout AI?
- Jak je override logován?
- Jaký je feedback loop do modelu?
### 4. Appeal Process
- Jak může dotčená osoba podat odvolání?
- Kdo rozhoduje o odvolání?
- Jaké jsou lhůty?

4. MG-3: Incident Management

4.1 AI Incident definice

Co je AI incident:

“Událost nebo série událostí, kde vývoj, použití nebo porucha AI systému přímo či nepřímo přispívá ke škodě na zdraví, narušení kritické infrastruktury, porušení lidských práv nebo škodě na majetku/komunitách/životním prostředí.”

4.2 Incident kategorie

KategoriePříkladySeverity
SafetyFyzická újma, nebezpečný obsahCritical
PrivacyData breach, PII leakCritical
Bias/DiscriminationUnfair outcomes, discriminationHigh
MisinformationHallucinations with impactHigh
SecurityAdversarial attack, system compromiseCritical
PerformanceMajor accuracy degradationMedium
AvailabilitySystem outageMedium-High

4.3 Incident response process

4.4 Incident response SLAs

SeverityDetection → TriageTriage → ContainmentResolutionCommunication
P1 Critical15 min1 hourASAPImmediate
P2 High1 hour4 hours24 hours4 hours
P3 Medium4 hours24 hours1 week24 hours
P4 Low24 hours1 week1 monthAs needed

4.5 Regulatory notification

RegulaceTriggerLhůtaKomu
GDPRPersonal data breach72 hodinÚOOÚ
NIS2Significant incident24h early warning, 72h notificationNÚKIB
DORAMajor ICT incident4 hodinyČNB
EU AI ActSerious incident15 dní (nebo ihned)Market surveillance

4.6 Incident report template

# AI INCIDENT REPORT
## Metadata
| Field | Value |
|-------|-------|
| Incident ID | INC-2025-XXXX |
| System | |
| Detected | YYYY-MM-DD HH:MM |
| Resolved | YYYY-MM-DD HH:MM |
| Severity | P1/P2/P3/P4 |
| Category | Safety/Privacy/Bias/Security/Performance |
## Summary
[1-2 sentence summary]
## Timeline
| Time | Event |
|------|-------|
| | Detection |
| | Triage |
| | Containment |
| | Resolution |
## Impact
- Users affected:
- Data affected:
- Business impact:
- Reputation impact:
## Root Cause
[Description of underlying cause]
## Resolution
[What was done to fix]
## Preventive Actions
| Action | Due |
|--------|-----|
| | |
## Lessons Learned
[Key takeaways]
## Regulatory Notifications
| Regulator | Notified | Reference |
|-----------|----------|-----------|
| | | |

5. MG-4: Continuous Improvement

5.1 Improvement cycle

5.2 Review cadence

ReviewFrekvenceScopeÚčastníci
OperationalWeeklyActive incidents, metricsAI Ops team
TacticalMonthlyRisk register, controlsAI Risk Officer + Owners
StrategicQuarterlyGovernance, trendsLeadership
AnnualYearlyFull program reviewBoard

5.3 Improvement sources

ZdrojTyp inputůJak získat
IncidentsLessons learnedPost-mortems
MetricsPerformance trendsDashboards
AuditsFindings, recommendationsInternal/external audits
FeedbackUser complaints, suggestionsFeedback channels
RegulatoryNew requirementsRegulatory monitoring
IndustryBest practicesConferences, publications

5.4 Decommissioning

Kdy decommissionovat AI systém:

  • Performance trvale pod thresholdem
  • Business need již neexistuje
  • Bezpečnostní riziko nelze mitigovat
  • Regulatorní požadavky nelze splnit
  • Lepší alternativa je dostupná

Decommissioning checklist:

  • Notifikovat stakeholdery
  • Zajistit data retention/deletion dle požadavků
  • Aktualizovat inventuru
  • Dokumentovat lessons learned
  • Archivovat relevantní dokumentaci
  • Potvrdit compliance s data retention policies

6. Implementační checklist

Fáze 1: Risk Treatment (Týden 1-2)

  • Vytvořit risk register
  • Definovat scoring metodologii
  • Přiřadit vlastníky rizik
  • Navrhnout mitigační plány

Fáze 2: Controls (Týden 3-4)

  • Implementovat preventivní kontroly
  • Nastavit detektivní kontroly
  • Připravit korektivní mechanismy
  • Dokumentovat human oversight

Fáze 3: Incident Response (Týden 5-6)

  • Definovat incident process
  • Přiřadit role a odpovědnosti
  • Nastavit komunikační kanály
  • Provést tabletop exercise

Fáze 4: Continuous (Ongoing)

  • Pravidelné reviews
  • Incident post-mortems
  • Metric-driven improvements
  • Regulatory updates

7. Šablony

ŠablonaÚčelLokace
Risk RegisterEvidence a tracking rizik/templates/open/
Incident ReportDokumentace incidentů/templates/open/
Post-mortem TemplateLessons learned/templates/open/
Decommissioning ChecklistUkončení AI systému/templates/open/

Pokračujte na GAI Rizika pro specifika generativní AI.


AI-Native Entry Framework | CC BY-NC-SA 4.0