Back to blog
Bezpečnost
6 min

Únik dat z AI chatbotů: Co se stane, když vložíte citlivé informace do ChatGPT

Je ChatGPT bezpečný pro citlivá data? Zjistěte skutečná rizika soukromí AI chatbotů, nedávné úniky dat a jak chránit své důvěrné informace.

LOCK.PUB

Únik dat z AI chatbotů: Co se stane, když vložíte citlivé informace do ChatGPT

V únoru 2026 bezpečnostní výzkumníci objevili, že Chat & Ask AI, oblíbená chatbotová aplikace, odhalila 300 milionů záznamů konverzací. Uniknutá data obsahovala kompletní historii chatů—některé obsahující hesla, API klíče a soukromé zdravotní informace, které uživatelé vložili do chatbota.

Nejednalo se o ojedinělý incident. Dříve uniklo 3,7 milionu záznamů zákaznických chatbotů. Studie z roku 2025 zjistila, že 77 % zaměstnanců přiznává sdílení firemních tajemství s ChatGPT. Bylo zjištěno, že Microsoft Copilot odhalil v průměru 3 miliony citlivých záznamů na organizaci.

Nepříjemná pravda: s každým promptem, který odešlete AI chatbotovi, byste měli zacházet, jako by se mohl stát veřejným.

Problém se soukromím u AI chatbotů

Vaše konverzace jsou ukládány

Když odešlete zprávu ChatGPT, Claude, Gemini nebo jakémukoli jinému AI chatbotovi:

  1. Váš prompt je přenesen na servery společnosti
  2. Je uložen v jejich databázi (pokud jste se neodhlásili)
  3. Může být použit pro trénink budoucích AI modelů
  4. Může být kontrolován lidmi kvůli bezpečnosti a kvalitě

Dokonce i "smazané" konverzace mohou přetrvávat v zálohách, logách nebo tréninkovách datasetech.

Problém tréninková data

Všech šest hlavních AI společností (OpenAI, Anthropic, Google, Meta, Microsoft, Mistral) používá uživatelské konverzace k trénování svých modelů ve výchozím nastavení. To znamená:

  • Vaše prompty se stávají součástí znalostí AI
  • Informace, které sdílíte, by se teoreticky mohly objevit v odpovědích jiným uživatelům
  • Citlivá data v tréninkovém setu jsou vektorem pro útoky na extrakci dat

OpenAI uvedlo, že netrénuje na API používání nebo ChatGPT Enterprise data, ale bezplatná úroveň a standardní ChatGPT Plus jsou použitelné, pokud se explicitně neodhlásíte.

Nedávné útoky a odhalení

2026:

  • Chat & Ask AI: 300 milionů konverzací uniklo (Malwarebytes, únor 2026)
  • AI platforma zákaznického servisu: 3,7 milionu záznamů odhaleno (Cybernews)

2025:

  • Zaměstnanci Samsungu uniklé návrhy čipů přes ChatGPT (což vedlo k zákazu v celé společnosti)
  • Microsoft Copilot odhalil 3 miliony citlivých záznamů na organizaci (průměr)
  • Výzkum Stanfordu zdokumentoval rizika soukromí v konverzacích AI asistentů

Probíhající:

  • Útoky prompt injection mohou extrahovat historii konverzací
  • Útoky model inversion se pokoušejí rekonstruovat tréninková data
  • Jailbreaky mohou obejít obsahové filtry a odhalit systémové prompty

Co byste nikdy neměli vložit do AI chatbota

Hesla a přihlašovací údaje

"Můžete mi pomoci resetovat toto heslo: MojeH3slo123?"

I když se AI ptáte, jak vytvořit silnější heslo, právě jste odeslali své aktuální heslo na server třetí strany.

API klíče a tokeny

"Proč to nefunguje? OPENAI_API_KEY=sk-proj-abc123..."

Vývojáři často vkládají úryvky kódu obsahující API klíče. Tyto klíče jsou nyní uloženy v systémech poskytovatele chatbota a potenciálně v tréninkových datech.

Osobní identifikovatelné informace (PII)

  • Rodná čísla
  • Čísla kreditních karet
  • Údaje o bankovním účtu
  • Zdravotní záznamy
  • Právní dokumenty
  • Občanské průkazy

Důvěrná firemní data

  • Zdrojový kód
  • Databáze zákazníků
  • Finanční zprávy
  • Strategické plány
  • Informace o zaměstnancích
  • Obchodní tajemství

Soukromá komunikace

  • Soukromé zprávy z WhatsApp nebo Messenger, na které chcete pomoct AI s odpověďmi
  • E-mailová vlákna obsahující citlivé informace
  • Screenshoty konverzací

Jak používat AI chatboty bezpečněji

1. Upravte nastavení soukromí

ChatGPT:

  • Přejděte do Nastavení → Data Controls
  • Vypněte "Improve the model for everyone"
  • Používejte Temporary Chats (nejsou používány pro trénink)

Claude:

  • Konverzace nejsou ve výchozím nastavení používány pro trénink u placených plánů
  • Projděte si zásady používání dat Anthropic

Gemini:

  • Přejděte do Gemini Apps Activity
  • Vypněte ukládání aktivit

2. Používejte Enterprise/Business úrovně

Pokud vaše společnost zpracovává citlivá data, zvažte:

  • ChatGPT Enterprise: Data nejsou použita pro trénink, SOC 2 kompatibilní
  • Claude for Enterprise: Silnější dohody o ochraně dat
  • Azure OpenAI Service: Data zůstávají ve vašem Azure prostředí

Tyto plány obvykle zahrnují Data Processing Addendums (DPA) vyžadované pro GDPR a HIPAA compliance.

3. Redigujte před vložením

Před sdílením kódu nebo dokumentů s AI:

  • Nahraďte skutečné API klíče zástupnými symboly: YOUR_API_KEY_HERE
  • Nahraďte jména generickými identifikátory: "Uživatel A", "Společnost X"
  • Odstraňte nebo maskujte čísla účtů, rodná čísla atd.

4. Ve výchozím nastavení předpokládejte veřejnost

Přijměte tento mentální model: každý prompt, který odešlete AI chatbotovi, by teoreticky mohl:

  • Být přečten zaměstnanci společnosti
  • Objevit se v úniku dat
  • Ovlivnit odpovědi jiným uživatelům
  • Být předvolán v právních řízeních

Pokud byste to nezveřejnili, nevkládejte to do chatbota.

Bezpečná alternativa pro citlivá data

Když potřebujete sdílet citlivé informace—hesla, API klíče, důvěrné dokumenty—nespoléhejte na AI chatboty ani běžné messaging aplikace.

Používejte vyhrazenou bezpečnou metodu sdílení:

  1. Ukládejte citlivá data odděleně: Pro přihlašovací údaje používejte správce hesel, ne historii chatu
  2. Sdílejte prostřednictvím šifrovaných odkazů s vypršením: Služby jako LOCK.PUB vám umožňují vytvářet poznámky chráněné heslem, které se automaticky vymažou po zobrazení
  3. Udržujte AI prompty obecné: Ptejte se "jak rotovat API klíče?" ne "proč tento klíč nefunguje: sk-..."

Příklad pracovního postupu:

  • Potřebujete sdílet databázové heslo s kolegou
  • Místo vložení do Slacku (který ukládá zprávy) nebo ChatGPT (který na něm může trénovat), vytvořte bezpečnou poznámku na LOCK.PUB
  • Poznámka vyžaduje heslo, vyprší po 24 hodinách a sebezničí se po přečtení
  • Sdílejte odkaz jedním kanálem a heslo druhým

Závěr

AI chatboti jsou neuvěřitelně užitečné nástroje, ale nejsou bezpečné trezory. Zacházejte s nimi, jako byste zacházeli s užitečným cizincem: skvělý pro obecné rady, ale ne někdo, komu byste svěřili klíče od svého domu.

Pravidla, podle kterých žít:

  1. Nikdy nevkládejte hesla, API klíče nebo přihlašovací údaje
  2. Nikdy nesdílejte PII (rodná čísla, kreditní karty, zdravotní informace)
  3. Redigujte citlivé údaje před žádostí o pomoc s kódem
  4. Používejte enterprise úrovně, pokud vaše práce vyžaduje AI asistenci s důvěrnými daty
  5. Povolte nastavení soukromí, která zakazují trénování na vašich datech
  6. Pro skutečně citlivé sdílení používejte nástroje určené k šifrování

Pohodlí AI nestojí za riziko úniku dat. Udělejte extra krok k ochraně svých citlivých informací.

Vytvořte bezpečnou poznámku s vypršením →

Keywords

je chatgpt bezpečný pro citlivá data
může ai uniknout má data
chatgpt soukromí
bezpečnostní rizika ai chatbotů
ukládá chatgpt má data
rizika ai chatbotů

Create your password-protected link now

Create password-protected links, secret memos, and encrypted chats for free.

Get Started Free
Únik dat z AI chatbotů: Co se stane, když vložíte citlivé informace do ChatGPT | LOCK.PUB Blog