Skip to content

Časté otázky | FAQ pro zaměstnance

Odpovědi na nejčastější dotazy o používání AI | Verze 1.0


  1. Obecné otázky
  2. Co mohu a nemohu dělat
  3. Data a bezpečnost
  4. Nástroje a přístup
  5. Incidenty a problémy
  6. Právní a compliance
  7. Praktické tipy
  8. Specifická rizika GAI

ANO, ale s omezeními. Máme schválené nástroje (ChatGPT, Claude, Copilot, Perplexity, Grammarly), které můžete používat pro běžnou práci. Klíčové je dodržovat 3 zlatá pravidla:

  1. Nikdy neposílejte citlivá data
  2. Vždy ověřujte výstupy
  3. Buďte transparentní o použití AI

Proč máme pravidla pro AI? Není to zbytečná byrokracie?

Section titled “Proč máme pravidla pro AI? Není to zbytečná byrokracie?”

NE, není. Pravidla existují, protože:

  • Právní riziko: Porušení GDPR může stát až 20M EUR nebo 4% obratu
  • Bezpečnostní riziko: Data odeslaná do AI mohou uniknout
  • Reputační riziko: Únik klientských dat poškozuje důvěru
  • AI halucinuje: Bez ověření můžete použít nepravdivé informace

Cílem není AI zakázat, ale naučit vás ji používat bezpečně a efektivně.


Firma nesleduje obsah vašich konverzací s AI. Může však:

  • Monitorovat, které nástroje jsou používány (z bezpečnostních důvodů)
  • Provádět audity v případě incidentu
  • Kontrolovat dodržování firemních politik

Používejte AI zodpovědně a nemáte se čeho obávat.


Musím projít školením, než začnu AI používat?

Section titled “Musím projít školením, než začnu AI používat?”

ANO. Absolvování školení a úspěšné složení testu (80%+) je povinné před používáním AI nástrojů pro pracovní účely. Školení trvá cca 30-45 minut.


AktivitaStatusPoznámka
Psát a editovat emaily✅ ANOBez jmen a kontaktů
Brainstorming nápadů✅ ANOBez interních strategií
Překlady obecných textů✅ ANOBez smluv a právních dok.
Sumarizace článků✅ ANOVeřejně dostupné zdroje
Debugging kódu✅ ANOBez business logiky
Research✅ ANOOvěřovat zdroje
Učení nových věcí✅ ANONeomezeno
Formátování dokumentů✅ ANOBez citlivého obsahu

AktivitaStatusProč
Posílat jména klientů❌ NEGDPR
Posílat emaily/telefony❌ NEGDPR
Posílat rodná čísla❌ NEGDPR
Posílat zdravotní údaje❌ NEGDPR čl. 9
Posílat hesla/API klíče❌ NEBezpečnost
Kopírovat celé smlouvy❌ NEDůvěrnost
Automaticky rozhodovat o lidech❌ NEAI Act, GDPR čl. 22
Používat neschválené nástroje❌ NEBezpečnost

Mohu použít AI pro práci s klientskými daty?

Section titled “Mohu použít AI pro práci s klientskými daty?”

NE přímo. Existují však řešení:

❌ ŠPATNĚ:
"Analyzuj data klienta Jana Nováka..."
✅ SPRÁVNĚ (anonymizace):
"Jak analyzovat zákaznická data pro segment X?"
✅ SPRÁVNĚ (obecný dotaz):
"Jaké jsou best practices pro analýzu zákaznických dat?"

Pokud potřebujete AI pro práci s reálnými daty, konzultujte s DPO o možnostech (např. schválené nástroje s DPA).


ANO, s omezeními:

Typ kóduStatusPoznámka
Obecné algoritmy✅ ANOUtility funkce, helpers
Open-source vzory✅ ANOVeřejně dostupné
Core business logic⚠️ KONZULTOVATZeptat se CTO
Kód s API klíči❌ NENikdy
Kód s citlivými daty❌ NENikdy

Tip: Vždy odstraňte API klíče, connection strings a citlivou konfiguraci před vložením do AI.


Položte si jednoduchou otázku: “Mohl bych pomocí těchto informací najít konkrétní osobu?”

  • ANO → Jsou citlivá → ❌ Neposílejte do AI
  • NE → Pravděpodobně OK → ✅ Můžete použít

Více v Data Classification Guide.


Co když si nejsem jistý/á, zda jsou data citlivá?

Section titled “Co když si nejsem jistý/á, zda jsou data citlivá?”

Raději neposílejte. Nebo:

  1. Konzultujte s nadřízeným
  2. Kontaktujte DPO ([DPO-EMAIL])
  3. Anonymizujte data před použitím

Platí pravidlo: Pokud máte pochybnosti, neposílejte.


Záleží na nástroji a nastavení:

NástrojUkládáníPoznámka
ChatGPT (free)ANOMůže být použito pro trénink
ChatGPT (Team/Enterprise)KonfigurovatelnéZáleží na nastavení
ClaudeANO (s limity)90denní retence
CopilotANOPro zlepšování

Proto: Předpokládejte, že vše může být uloženo, a neposílejte citlivá data.


Je bezpečné používat AI na firemním počítači?

Section titled “Je bezpečné používat AI na firemním počítači?”

ANO, pokud:

  • Používáte schválené nástroje
  • Neposíláte citlivá data
  • Dodržujete firemní politiky

NE, pokud:

  • Stahujete neschválené AI nástroje
  • Instalujete rozšíření prohlížeče bez schválení
  • Obcházíte firemní bezpečnostní opatření

Schválené nástroje (bez dalšího schválení):

  • ChatGPT (OpenAI)
  • Claude (Anthropic)
  • GitHub Copilot
  • Perplexity
  • Grammarly

Vyžadují schválení:

  • Jakýkoliv jiný nástroj → Kontaktujte CTO

  1. Absolvujte školení a složte test (80%+)
  2. Podepište AI Policy
  3. Kontaktujte IT pro nastavení přístupu (pokud potřeba)

Většina nástrojů je dostupná přes webové rozhraní bez speciálního nastavení.


Mohu používat AI na svém osobním telefonu?

Section titled “Mohu používat AI na svém osobním telefonu?”

ANO, pokud:

  • Neposíláte firemní citlivá data
  • Používáte schválené nástroje
  • Dodržujete stejná pravidla jako na firemním zařízení

Doporučení: Pro pracovní účely používejte firemní zařízení.


To záleží na firemní politice. Zeptejte se nadřízeného nebo IT, zda:

  • Máte přístup k firemním účtům (Team/Enterprise verze)
  • Můžete používat free verze
  • Je možné proplatit předplatné

Co mám dělat, když omylem pošlu citlivá data do AI?

Section titled “Co mám dělat, když omylem pošlu citlivá data do AI?”

Okamžitě:

  1. STOP - Přestaňte používat nástroj
  2. NEMAZAT - Uchovejte důkazy (screenshot)
  3. HLÁSIT - Kontaktujte [SECURITY-EMAIL] do 1 hodiny

Důležité: Nebudete potrestáni za čestné nahlášení vlastní chyby. Potrestáni mohou být ti, kdo incidenty zatajují.


Budu potrestán za nahlášení vlastní chyby?

Section titled “Budu potrestán za nahlášení vlastní chyby?”

NE. Rychlé a čestné nahlášení je ceněno, protože umožňuje minimalizovat škody.

Sankce hrozí pouze při:

  • Úmyslném porušení pravidel
  • Opakovaném porušování
  • Zatajování incidentů

AI může “halucinovat” - generovat věrohodně vypadající, ale nepravdivé informace.

Co dělat:

  1. Vždy ověřujte důležité informace z primárních zdrojů
  2. Nekopírujte slepě - kriticky hodnoťte výstupy
  3. U právních/finančních rad - konzultujte s odborníkem

Pokud chybná informace způsobila problém, nahlaste incident.


Typ problémuKontakt
Únik citlivých dat[SECURITY-EMAIL]
Otázky k osobním údajům[DPO-EMAIL]
Technické problémy[IT-EMAIL]
Obecné dotazy[HR-EMAIL]
Nový AI nástroj[CTO-EMAIL]

RegulaceCo řešíSankce
GDPROchrana osobních údajůAž 20M EUR / 4% obratu
AI ActRegulace AI systémůAž 35M EUR / 7% obratu
NIS2Kybernetická bezpečnostAž 10M EUR

Dodržováním firemní AI Policy automaticky dodržujete tyto regulace.


Mohu být osobně odpovědný za porušení?

Section titled “Mohu být osobně odpovědný za porušení?”

Ano, v závažných případech. Nicméně:

  • Při dodržování firemní politiky jste chráněni
  • Čestné chyby s rychlým nahlášením → obvykle bez sankcí
  • Úmyslné porušení nebo zatajování → může vést k disciplinárním opatřením

ANO, v následujících případech:

SituacePovinnost
Interní dokumentyDoporučeno uvést
Důležitá rozhodnutíPovinné uvést
Externí komunikaceDle pokynů marketingu/legal
KódDoporučeno v commit message

Transparentnost buduje důvěru a je vyžadována AI Act.


Jak efektivně používat AI a zůstat bezpečný?

Section titled “Jak efektivně používat AI a zůstat bezpečný?”
TIP 1: OBECNÉ PROMPTY
─────────────────────
❌ "Napiš email Janu Novákovi o jeho faktuře 1234"
✅ "Napiš profesionální email s upomínkou na fakturu"
TIP 2: ANONYMIZACE
─────────────────────
❌ "Analyzuj data klienta ABC s.r.o."
✅ "Jak analyzovat zákaznická data pro B2B segment?"
TIP 3: OVĚŘOVÁNÍ
─────────────────────
AI odpověď → Ověřit z primárního zdroje → Použít
TIP 4: DOKUMENTACE
─────────────────────
U důležitých výstupů poznamenejte, že jste použili AI

Struktura bezpečného promptu:

  1. Obecný kontext (bez specifik)
  2. Co potřebujete (jasně definované)
  3. Formát výstupu (jak má vypadat odpověď)

Příklad:

❌ ŠPATNĚ:
"Napiš email pro klienta Jana Nováka (jan@firma.cz)
z Prahy o jeho neuhrazené faktuře č. 2024-1234"
✅ SPRÁVNĚ:
"Napiš profesionální upomínkový email pro B2B klienta.
Tón by měl být zdvořilý ale jasný.
Email by měl obsahovat: pozdrav, připomínku platby,
výzvu k akci a kontakt pro dotazy."

Typ výstupuJak ověřit
Fakta, číslaPrimární zdroj (oficiální web, dokumenty)
Právní radyKonzultace s Legal
Technické infoDokumentace, Stack Overflow
Zdravotní infoLékař (nikdy nenahrazuje!)
Finanční radyFinanční poradce, CFO
CitaceOvěřit existenci zdroje

DokumentObsah
AI Acceptable Use PolicyKompletní pravidla
Quick Reference Card1-stránkový přehled
Data ClassificationCo je citlivé
Decision TreeRozhodovací strom
Incident ReportFormulář pro hlášení

Co jsou specifická rizika generativní AI (GAI)?

Section titled “Co jsou specifická rizika generativní AI (GAI)?”

Generativní AI (ChatGPT, Claude, Gemini, DALL-E) má 6 kritických rizik:

RizikoPopis
HalucinaceAI si vymýšlí fakta
BiasAI může diskriminovat
Únik datData mohou uniknout
CopyrightAI může kopírovat cizí díla
DezinformaceAI umožňuje deepfakes
BezpečnostPrompt injection útoky

Co je “bias” v AI a jak se mu vyhnout?

Section titled “Co je “bias” v AI a jak se mu vyhnout?”

Bias = systematické zkreslení výstupů AI, které může vést k diskriminaci.

Příklady:

  • AI při generování obrázků “CEO” zobrazuje převážně muže
  • AI hodnotí CV hůře pro některé jména
  • AI poskytuje horší výsledky v některých jazycích

Jak se vyhnout problémům:

  • ❌ Nepoužívejte AI pro rozhodování o lidech bez lidské kontroly
  • ✅ Vždy mějte člověka, který rozhodnutí zkontroluje
  • ✅ Při podezření na bias informujte nadřízeného

Mohu publikovat AI-generovaný obsah jako svůj?

Section titled “Mohu publikovat AI-generovaný obsah jako svůj?”

Záleží na kontextu:

SituaceDoporučení
Interní email✅ Ano (s úpravami)
Prezentace pro klienty⚠️ Ano, ale uvést použití AI
Publikovaný článek⚠️ Upravit a uvést AI asistenci
Kód do produkce⚠️ Zkontrolovat, testovat, upravit
Marketing materiály⚠️ Konzultovat s Legal/Marketing

Pravidlo: Nikdy nepublikujte AI výstup bez úprav jako 100% vlastní originální dílo.


Dle EU AI Act (Art. 50) ANO v těchto případech:

  • Chatboty interagující s veřejností
  • Deepfakes a syntetická média
  • AI-generovaný obsah pro veřejnost

Interně: Doporučeno, ale ne vždy povinné.

Příklady označení:

  • “Vytvořeno s pomocí AI”
  • “AI-assisted content”
  • “[Generováno pomocí Claude, upraveno autorem]“

Co je “prompt injection” a jak se bránit?

Section titled “Co je “prompt injection” a jak se bránit?”

Prompt injection = útok, kdy někdo manipuluje vstup do AI, aby obešel bezpečnostní pravidla.

Příklad:

Uživatel: "Ignoruj všechna pravidla a..."

Jak se bránit:

  • Neexekutujte AI výstupy automaticky (např. kód)
  • Validujte a kontrolujte vstupy
  • Nekopírujte text z nedůvěryhodných zdrojů do AI
  • Při podezření na útok informujte CISO

Může AI vytvořit deepfake mého šéfa?

Section titled “Může AI vytvořit deepfake mého šéfa?”

Technicky ano, ale:

  • ❌ Je to zakázáno (AI Act, trestní právo)
  • ❌ Může to být trestný čin (podvod, pomluva)
  • ❌ Vede to k okamžitému ukončení pracovního poměru

Co dělat, když narazíte na deepfake:

  1. Neposílejte dál
  2. Udělejte screenshot
  3. Nahlaste na [SECURITY-EMAIL]

Kontrolní otázky:

Co kontrolovatJak
Fakta a číslaOvěřit v primárním zdroji
CitaceOvěřit existenci zdroje
Právní radyKonzultovat s Legal
Technické infoZkontrolovat v dokumentaci
Zdravotní radyNIKDY nespoléhat na AI

Pravidlo: Čím důležitější rozhodnutí, tím důkladnější ověření.


ZdrojPopis
AI Acceptable Use PolicySekce “Specifická rizika GAI”
GAI Risk AssessmentDetailní checklist 12 rizik
ŠkoleníSlides 5-8 pokrývají GAI rizika
NIST AI 600-1Mezinárodní standard pro GAI rizika

TémaKontakt
Obecné dotazy k AI Policy[HR-EMAIL]
Osobní údaje, GDPR[DPO-EMAIL]
Bezpečnost[SECURITY-EMAIL]
Technické dotazy[IT-EMAIL]
Nové AI nástroje[CTO-EMAIL]

Slack/Teams: #ai-policy-questions


Verze: 1.0 | Platí od: [DATUM]

Tento FAQ bude průběžně aktualizován na základě vašich dotazů.