Skip to content

GOVERN - Governance a kultura

Jak vybudovat organizační kulturu a procesy pro řízení AI rizik

NIST AI RMF funkce: GOVERN Subkategorie: GV-1 až GV-6


GOVERN je základem celého AI RMF. Bez funkční governance nelze efektivně implementovat ostatní funkce (MAP, MEASURE, MANAGE).

CílPopis
KulturaVytvořit organizační kulturu vědomou AI rizik
PolitikyDefinovat jasné politiky a procedury
RoleUstanovit odpovědnosti a accountability
ProcesyImplementovat governance procesy
Third-partyŘídit rizika dodavatelského řetězce

Minimální obsah politiky:

AI GOVERNANCE POLITIKA
1. Účel a scope
- Proč politika existuje
- Na co se vztahuje (všechny AI systémy)
2. Definice
- Co je AI systém
- Co je high-risk AI
- Co je GAI (generativní AI)
3. Principy
- Transparentnost
- Fairness
- Privacy
- Safety
- Accountability
4. Klasifikace rizik
- Prohibited (zakázané)
- High-risk
- Medium-risk
- Low-risk
5. Role a odpovědnosti
- AI System Owner
- AI Risk Officer
- DPO
- CISO
6. Procesy
- Pre-deployment review
- Incident management
- Change management
7. Compliance
- EU AI Act
- GDPR
- Sektorové regulace
8. Review a aktualizace
- Frekvence přezkumu
- Approval process

Specifická politika pro generativní AI (ChatGPT, Claude, atd.):

OblastPravidlo
Schválené nástrojeSeznam povolených GAI nástrojů
Zakázaná dataPII, zdravotní, finanční, confidential
Povinnosti uživateleOvěření výstupů, označení AI-generated
LoggingPožadavky na audit trail
IncidentyJak hlásit problémy

Definujte prahové hodnoty pro akceptaci rizik:

Risk LevelToleranceSchváleníPříklady
CriticalZero toleranceN/A - zakázánoCBRN, CSAM
HighMinimálníCEO + BoardHigh-risk AI dle AI Act
MediumŘízenéCTO + LegalChatboty, analytics
LowAkceptovanéManagerSpam filtry, search

┌─────────────────────────────────────────────────────────────────┐
│ BOARD / CEO │
│ (Ultimate accountability) │
└─────────────────────────────────────────────────────────────────┘
┌────────────────┼────────────────┐
│ │ │
▼ ▼ ▼
┌─────────────┐ ┌─────────────┐ ┌─────────────┐
│ AI Ethics │ │ Risk │ │ Audit │
│ Committee │ │ Committee │ │ Committee │
│ │ │ │ │ │
│ - Etické │ │ - Risk │ │ - Nezávislé │
│ otázky │ │ oversight │ │ ověření │
└─────────────┘ └─────────────┘ └─────────────┘
│ │ │
└────────────────┼────────────────┘
┌────────────────┼────────────────┐
│ │ │
▼ ▼ ▼
┌─────────────┐ ┌─────────────┐ ┌─────────────┐
│ CTO │ │ DPO │ │ CISO │
│ │ │ │ │ │
│ - Technical │ │ - Privacy │ │ - Security │
│ - AI Ops │ │ - GDPR │ │ - NIS2 │
└─────────────┘ └─────────────┘ └─────────────┘
┌─────────────────────┐
│ AI SYSTEM OWNERS │
│ │
│ - Day-to-day mgmt │
│ - Compliance │
│ - Incident response │
└─────────────────────┘
AspektDetail
ReportingCTO nebo CEO
OdpovědnostiAI governance program, risk assessment, compliance
KvalifikaceAI/ML znalosti, risk management, regulatory knowledge
Velikost org.Full-time pro >500 zaměstnanců, part-time pro menší

Klíčové aktivity:

  • Vedení AI inventury
  • Koordinace risk assessments
  • Liaison s regulátory
  • Training a awareness
  • Incident coordination
AspektDetail
ReportingCTO nebo business unit head
OdpovědnostiKonkrétní AI systém end-to-end
KvalifikaceBusiness + technical understanding
Počet1 per AI systém

Klíčové aktivity:

  • Dokumentace systému
  • Risk classification
  • Pre-deployment approval
  • Performance monitoring
  • Incident response
AspektDetail
SloženíCross-functional (Legal, Tech, HR, External)
FrekvenceMěsíčně nebo quarterly
ScopeEtické otázky, high-risk decisions
AuthorityAdvisory nebo decision-making
AktivitaAI OwnerAI Risk OfficerCTODPOCISOCEO
AI System RegistrationRAIII-
Risk ClassificationRACCCI
Pre-deployment ReviewRAACCI
High-risk ApprovalIRACCA
Incident ResponseRAICCI
Annual ReviewRAACCI

R = Responsible, A = Accountable, C = Consulted, I = Informed


Úrovně školení:

ÚroveňAudienceObsahFrekvence
AwarenessVšichni zaměstnanciCo je AI, rizika, politikyRočně
UserUživatelé AI nástrojůSafe use, best practicesPři onboardingu + ročně
PractitionerData Scientists, EngineersTechnical risks, TEVVQuarterly
LeaderManagementGovernance, liability, strategyPololetně

Principy k vštípení:

  1. “Trust but verify” - Ověřuj AI výstupy
  2. “Human in the loop” - Člověk má finální slovo u kritických rozhodnutí
  3. “Report early” - Hlášení problémů bez strachu z postihu
  4. “Fail safe” - Při pochybnostech zastav, nepoužívej

Požadavky dle NIST GV-2.1-005:

  • Anonymní reporting kanál
  • Ochrana před odvetnými opatřeními
  • Eskalační cesta mimo přímé nadřízené
  • Dokumentované vyšetřování

Povinné atributy:

PolePopisPříklad
system_idUnikátní identifikátorAI-2024-001
nameNázev systémuCustomer Churn Predictor
descriptionPopis účeluPredikce odchodu zákazníků
typeKategorieML Model / GAI / Embedded
ownerZodpovědná osobaJan Novák
departmentOdděleníMarketing
vendorDodavatel (pokud third-party)OpenAI
risk_levelKlasifikace rizikaMedium
statusStavProduction
deployment_dateDatum nasazení2024-06-15
last_reviewPoslední přezkum2025-01-05
data_typesTypy datCustomer data, behavioral
pii_processedZpracovává PII?Yes
decision_makingAutomatizované rozhodování?Partial

Pro high-risk AI systémy:

{
"decision_id": "DEC-2025-00123",
"timestamp": "2025-01-05T10:30:00Z",
"system_id": "AI-2024-001",
"input_summary": "Customer profile hash: abc123",
"output": "Churn risk: 78%",
"confidence": 0.85,
"factors": ["payment_delays", "support_tickets", "usage_decline"],
"human_review": true,
"reviewer": "user@company.com",
"final_action": "retention_campaign_triggered"
}

StakeholderZapojeníFrekvence
Business unitsRequirements, feedbackOngoing
IT/EngineeringImplementation, monitoringOngoing
LegalCompliance, contractsPer project
HRTraining, policiesQuarterly
FinanceBudget, ROIAnnually
StakeholderZapojeníJak
ZákazníciTransparentnost, feedbackNotices, surveys
RegulátořiCompliance, reportingDle požadavků
DodavateléDue diligence, SLAsContracts, audits
VeřejnostTransparentnostPublic statements

Checklist pro výběr AI poskytovatele:

OblastOtázky
SecuritySOC 2 Type II? ISO 27001?
PrivacyGDPR compliant? DPA available?
AI ActAwareness? Compliance plans?
TransparencyModel cards? Training data info?
SLAsUptime? Performance guarantees?
ExitData portability? Termination rights?
InsuranceCyber insurance? AI liability?

Povinné klauzule v AI vendor contracts:

  1. Data Processing Agreement (DPA) - GDPR Art. 28
  2. Training opt-out - Zákaz trénování na našich datech
  3. Audit rights - Právo na audit
  4. Incident notification - Lhůty pro hlášení incidentů
  5. Liability - Jasná odpovědnost za AI outputs
  6. Termination - Exit strategy a data return
  7. Subprocessors - Schválení subdodavatelů
AktivitaFrekvenceOwner
Performance reviewMěsíčněAI Owner
Security posture checkQuarterlyCISO
Contract complianceQuarterlyLegal
Risk re-assessmentRočněAI Risk Officer
Full vendor auditRočně nebo per eventAudit

  • Schválení AI Governance politiky vedením
  • Jmenování AI Risk Officer / Lead
  • Definování AI System Owner role
  • Vytvoření základní AI inventury
  • Spuštění awareness programu
  • Implementace pre-deployment review procesu
  • Nastavení incident response pro AI
  • Zavedení vendor due diligence
  • Vytvoření dokumentačních šablon
  • Training pro AI Owners
  • Ustanovení AI Ethics Committee
  • Integrace s Risk Committee
  • Automatizace inventury
  • Metriky a dashboardy
  • Kontinuální zlepšování

MetrikaTargetMěření
% AI systémů v inventuře100%Quarterly audit
% systémů s definovaným ownerem100%Inventura
% zaměstnanců s AI awareness training100%LMS
Průměrný čas pre-deployment review<5 dníProcess tracking
% vendorů s DPA100%Contract review
Počet AI incidentůTrend ↓Incident log

ŠablonaÚčelLokace
AI Governance PolicyZákladní politika/templates/protected/
AI System Registration FormRegistrace AI/templates/open/
Vendor Assessment ChecklistDue diligence/templates/open/
AI Incident ReportHlášení incidentů/templates/open/

Pokračujte na 03-map.md pro implementaci MAP funkce.


AI-Native Entry Framework | CC BY-NC-SA 4.0