
V dubnu 2026 patří ChatGPT, Claude.ai a Gemini mezi nejpoužívanější nástroje českých kancelářských pracovníků. Účetní do nich vkládá faktury. HR konsultantka tam nahrává životopisy. Manažer kopíruje obchodní strategii s prosbou o feedback. Každý tento moment je potenciální průšvih — pro firmu, pro klienty a často i pro samotného zaměstnance osobně.
Tento článek vysvětluje, proč veřejné LLM nástroje nejsou vhodné pro firemní data, jaká jsou konkrétní rizika podle českého a evropského práva a co dělat místo nich. Bez paranoie, ale s konkrétními paragrafy a precedenty. Cílem není zakazovat AI — cílem je ji používat bezpečně.
1. Rozdíl mezi „ChatGPT“ a „GPT od OpenAI“
Velký zdroj zmatků. Existují tři produkty, které lidé pletou:
1) ChatGPT (chat.openai.com / mobilní app)
Konzumní produkt. Standardně OpenAI používá vaše konverzace pro trénink modelů (lze vypnout, ale často se to zapomíná). GDPR jako zpracovatel — komplikované. Pro firemní data nevhodné.
2) ChatGPT Team / Enterprise
Placený plán s vyšší cenou. OpenAI nepoužívá data pro trénink, má SOC 2 certifikaci, podepíše DPA (Data Processing Agreement). Pro nízkorizikové firemní data použitelné — ale stále servery v USA s důsledky pro citlivá data.
3) Azure OpenAI Service
OpenAI modely hostované na Microsoft Azure. Servery v EU regionech (Frankfurt, Amsterdam), full DPA, žádný trénink na vašich datech. Pro většinu B2B nasazení vhodné z GDPR pohledu.
Když mluvíme o „nepatřících datech do ChatGPT“, mluvíme typicky o variantě 1 — konzumní free/Plus účet, do kterého zaměstnanec kopíruje firemní obsah ze svého soukromého e-mailu. To je 80 % reality.
2. Čeho se reálně bojíme — typologie rizik
Riziko 1: Únik tréninkem
Pokud OpenAI použije vaši konverzaci pro trénink modelu, vaše data se mohou v upravené formě objevit ve výstupech jiných uživatelů. Existuje judikatura — Samsung v dubnu 2023 zaznamenal únik zdrojového kódu přes ChatGPT a oficiálně zakázal jeho použití.
Riziko 2: Data breach na straně providera
OpenAI měl v březnu 2023 incident, při kterém uživatelé viděli názvy konverzací jiných uživatelů. V roce 2024 došlo k dalším únikům přes API klíče. Stejná rizika jsou u Anthropicu a Googlu — žádný cloud provider není 100% bezpečný.
Riziko 3: Subpoena a vládní přístup
Servery v USA znamenají, že americká vláda může na základě US CLOUD Act požadovat data bez vědomí majitele. Pro firmy se zákaznickou bází v EU a citlivými daty (zdravotnictví, advokátní tajemství, finance) potenciálně problém.
Riziko 4: Konkurenční zneužití
Zaměstnanec do ChatGPT vloží obchodní strategii s prosbou o analýzu. Konverzace se uloží. Pokud OpenAI v budoucnu poskytne přístup partnerům, konkurenci nebo akvizirovi, vaše strategie je k dispozici.
Riziko 5: Regulatorní sankce
GDPR pokuty až 4 % ročního obratu. Italský Garante v roce 2023 ChatGPT dočasně zakázal. ÚOOÚ (český Úřad pro ochranu osobních údajů) řeší stížnosti na neoprávněné zpracování — vy jste správce, vy odpovídáte.
3. GDPR pohled: Co je vlastně problém
GDPR má pět principů, které veřejné LLM často porušují:
Princip 1: Zákonnost zpracování
Aby zaměstnanec legálně vložil osobní data do ChatGPT, musíte mít právní titul — typicky souhlas subjektu nebo oprávněný zájem. U osobních dat zákazníků nemáte ani jedno.
Princip 2: Účelové omezení
Data se mohou zpracovávat jen pro účel, ke kterému byla shromážděna. „Analýza zákaznických e-mailů přes ChatGPT“ není účel, který máte v pravidlech zpracování.
Princip 3: Minimalizace dat
Sdílíte jen to nezbytné. Vložení celého e-mailu se jménem, e-mailem, telefonem klienta je excessive.
Princip 4: Bezpečnost
Musíte zajistit „odpovídající úroveň bezpečnosti“. Bez DPA s providerem to je obtížně obhajitelné.
Princip 5: Mezinárodní přenosy
Přenos osobních dat do USA vyžaduje EU-US Data Privacy Framework. Free ChatGPT účet nesplňuje.
4. Konkrétní české kontexty s vyšším rizikem
Datové schránky
Pokud zaměstnanec kopíruje obsah datovky do ChatGPT pro „přepis na srozumitelnou češtinu“, řeší se data, která mají specifický právní režim. Není to nelegální per se, ale je to riskantní u úředních dokumentů.
Zdravotnická data
Pacientské záznamy jsou zvláštní kategorie podle čl. 9 GDPR. Vložení do veřejného LLM je téměř vždy porušení. Kdo provozuje AI v nemocnici, musí mít on-premise nebo private cloud řešení.
Advokátní a daňová kancelář
Profesní tajemství podle zákona č. 85/1996 Sb. (advokátský řád) zakazuje sdílení informací o klientovi. Vložení obsahu spisu do ChatGPT je porušení etického kodexu i zákona.
Finanční sektor
ČNB (Česká národní banka) má specifické požadavky na outsourcing IT služeb — banky a pojišťovny potřebují schválení regulátora pro práci s externími AI službami zpracovávajícími klientská data.
Veřejná správa
Zákon č. 365/2000 Sb. o informačních systémech veřejné správy + nový Zákon o kybernetické bezpečnosti (transpozice NIS2) zakazují použití cloud služeb mimo EU pro určité kategorie dat.
5. Reálné případy: Co se už stalo českým firmám
Nemůžeme jmenovat klienty, ale typické scénáře z naší praxe (rok 2024–2025):
- Středně velká strojírenská firma: Konstruktér nahrál technické výkresy nového produktu do ChatGPT pro „optimalizaci materiálů“. Manažer zjistil, že firma před ním podala patentovou přihlášku. Patent ohrožen — předchozí veřejné zveřejnění je důvod neuznání.
- Účetní kancelář: Účetní vkládala faktury klientů do ChatGPT pro extrakci dat. Klient zjistil, podal stížnost na ÚOOÚ. Účetní firma dostala napomenutí, ale primárně utrpěla reputační škoda — klient odešel a šíří informaci.
- HR konsulting: Konzultantka kopírovala životopisy kandidátů do ChatGPT pro shrnutí. Po stížnosti jednoho kandidáta firma musela informovat všech 240 kandidátů z posledního roku, že jejich data byla nelegálně zpracována.
- Marketingová agentura: Junior copywriter vložil návrh kampaně velkého klienta do ChatGPT. Klient měl interní pravidlo „žádný obsah do veřejných LLM“. Smlouva byla vypovězena.



