Back to blog
Seguridad
6 min

Pagtagas ng Data sa AI Chatbot: Ano ang Nangyayari Kapag Nag-paste ka ng Sensitibong Info sa ChatGPT

Safe ba ang ChatGPT para sa sensitibong data? Alamin ang tunay na privacy risks ng AI chatbots, mga kamakailang data breach, at paano protektahan ang iyong kumpidensyal na impormasyon.

LOCK.PUB

Pagtagas ng Data sa AI Chatbot: Ano ang Nangyayari Kapag Nag-paste ka ng Sensitibong Info sa ChatGPT

Noong Pebrero 2026, natuklasan ng mga security researcher na ang Chat & Ask AI, isang sikat na chatbot app, ay nag-expose ng 300 milyong conversation records. Ang leaked data ay naglalaman ng buong chat history—ilan ay may mga password, API keys, at pribadong medical information na ini-paste ng mga user sa chatbot.

Hindi ito isolated incident. Mas naunang leaks ay nag-expose ng 3.7 milyong customer service chatbot records. Isang 2025 study ay nakahanap na 77% ng mga empleyado ay umaamin na nagbabahagi ng company secrets sa ChatGPT. Ang Microsoft Copilot ay natuklasan na nag-expose ng average na 3 milyong sensitibong records bawat organisasyon.

Ang hindi komportableng katotohanan: bawat prompt na ipinapadala mo sa AI chatbot ay dapat tratuhin na parang pwedeng maging pampubliko.

Ang Privacy Problem sa AI Chatbots

Ina-store ang Iyong mga Conversation

Kapag nagpadala ka ng mensahe sa ChatGPT, Claude, Gemini, o anumang AI chatbot:

  1. Ipinapadala ang iyong prompt sa mga server ng kumpanya
  2. Ina-store sa kanilang database (maliban kung nag-opt out ka)
  3. Pwedeng gamitin para sa training ng future AI models
  4. Pwedeng suriin ng mga tao para sa safety at kalidad

Kahit na ang "deleted" na conversations ay maaaring manatili sa backups, logs, o training datasets.

Ang Training Data Problem

Ang lahat ng anim na major AI companies (OpenAI, Anthropic, Google, Meta, Microsoft, Mistral) ay gumagamit ng user conversations para i-train ang kanilang mga modelo by default. Ibig sabihin nito:

  • Ang iyong prompts ay nagiging bahagi ng kaalaman ng AI
  • Ang impormasyong ibinabahagi mo ay teoryang pwedeng lumabas sa mga sagot sa ibang users
  • Ang sensitibong data sa training sets ay vector para sa data extraction attacks

Sinabi ng OpenAI na hindi sila nag-train sa API usage o ChatGPT Enterprise data, pero ang free tier at standard ChatGPT Plus ay ginagamit maliban kung explicitly kang mag-opt out.

Mga Kamakailang Breach at Exposure

2026:

  • Chat & Ask AI: 300 milyong conversations ang tumagas (Malwarebytes, Pebrero 2026)
  • AI customer service platform: 3.7 milyong records ang nai-expose (Cybernews)

2025:

  • Ang mga empleyado ng Samsung ay nag-leak ng chip designs via ChatGPT (nag-trigger ng company-wide ban)
  • Ang Microsoft Copilot ay nag-expose ng 3 milyong sensitibong records bawat organisasyon (average)
  • Ang Stanford research ay nag-document ng privacy risks sa AI assistant conversations

Ongoing:

  • Ang prompt injection attacks ay pwedeng mag-extract ng conversation history
  • Ang model inversion attacks ay sumusubok mag-reconstruct ng training data
  • Ang jailbreaks ay pwedeng mag-bypass ng content filters at mag-reveal ng system prompts

Ano ang Hindi Mo Dapat I-paste sa AI Chatbot

Mga Password at Credentials

"Pwede mo ba akong tulungang i-reset ang password na ito: MyP@ssw0rd123?"

Kahit na tinatanong mo ang AI kung paano gumawa ng mas malakas na password, kakapadala mo lang ng iyong current password sa third party server.

API Keys at Tokens

"Bakit hindi ito gumagana? OPENAI_API_KEY=sk-proj-abc123..."

Ang mga developer ay madalas mag-paste ng code snippets na naglalaman ng API keys. Ang mga key na iyon ay naka-store na ngayon sa systems ng chatbot provider at potentially sa training data.

Personal Identifiable Information (PII)

  • Social Security numbers
  • Credit card numbers
  • Bank account details
  • Medical records
  • Legal documents
  • Government IDs

Confidential Company Data

  • Source code
  • Customer databases
  • Financial reports
  • Strategic plans
  • Employee information
  • Trade secrets

Private Communications

  • Private messages mula sa Messenger o Viber na hinihiling mo sa AI na tulungan kang sagutin
  • Email threads na naglalaman ng sensitibong impormasyon
  • Screenshots ng mga conversation

Paano Gumamit ng AI Chatbots nang Mas Ligtas

1. I-adjust ang Iyong Privacy Settings

ChatGPT:

  • Pumunta sa Settings → Data Controls
  • I-toggle off ang "Improve the model for everyone"
  • Gumamit ng Temporary Chats (hindi ginagamit para sa training)

Claude:

  • Ang conversations ay hindi ginagamit para sa training by default sa paid plans
  • I-review ang data usage policy ng Anthropic

Gemini:

  • Pumunta sa Gemini Apps Activity
  • I-off ang saving ng activity

2. Gumamit ng Enterprise/Business Tiers

Kung ang iyong kumpanya ay nag-handle ng sensitibong data, isaalang-alang:

  • ChatGPT Enterprise: Hindi ginagamit ang data para sa training, SOC 2 compliant
  • Claude for Enterprise: Mas malakas na data protection agreements
  • Azure OpenAI Service: Ang data ay nananatili sa iyong Azure environment

Ang mga plan na ito ay karaniwang may kasamang Data Processing Addendums (DPAs) na kinakailangan para sa GDPR at HIPAA compliance.

3. Mag-redact Bago Mag-paste

Bago magbahagi ng code o documents sa AI:

  • Palitan ang tunay na API keys ng placeholders: YOUR_API_KEY_HERE
  • Palitan ang mga pangalan ng generic identifiers: "User A", "Company X"
  • Alisin o takpan ang account numbers, SSNs, atbp.

4. Assume na Public by Default

Tanggapin ang mental model na ito: bawat prompt na ipinapadala mo sa AI chatbot ay teoryang pwedeng:

  • Mabasa ng mga empleyado ng kumpanya
  • Lumabas sa data breach
  • Mag-influence ng mga sagot sa ibang users
  • Ma-subpoena sa legal proceedings

Kung hindi mo ito i-post publicly, huwag itong i-paste sa chatbot.

Ang Secure Alternative para sa Sensitibong Data

Kapag kailangan mong magbahagi ng sensitibong impormasyon—passwords, API keys, confidential documents—huwag umasa sa AI chatbots o kahit regular messaging apps.

Gumamit ng dedicated secure sharing method:

  1. Mag-store ng sensitibong data separately: Gumamit ng password manager para sa credentials, hindi ang iyong chat history
  2. Magbahagi via encrypted, expiring links: Ang mga serbisyo tulad ng LOCK.PUB ay nagbibigay-daan sa iyong gumawa ng password-protected memos na auto-delete pagkatapos makita
  3. Panatilihing generic ang AI prompts: Magtanong ng "paano mag-rotate ng API keys?" hindi "bakit hindi gumagana ang key na ito: sk-..."

Example workflow:

  • Kailangan mong magbahagi ng database password sa kasamahan
  • Sa halip na i-paste ito sa Messenger (na nag-store ng messages) o ChatGPT (na pwedeng mag-train dito), gumawa ng secure memo sa LOCK.PUB
  • Ang memo ay nangangailangan ng password, mag-expire pagkatapos ng 24 oras, at mag-self-destruct pagkatapos basahin
  • Ibahagi ang link sa isang channel at ang password sa iba

Ang Bottom Line

Ang AI chatbots ay napakahusay na tools, pero hindi sila secure vaults. Tratuhin sila tulad ng helpful stranger: mahusay para sa general advice, pero hindi ang bibigyan mo ng susi ng bahay.

Mga patakaran na dapat sundin:

  1. Huwag kailanman mag-paste ng passwords, API keys, o credentials
  2. Huwag kailanman magbahagi ng PII (SSN, credit cards, medical info)
  3. Mag-redact ng sensitibong detalye bago humingi ng tulong sa code
  4. Gumamit ng enterprise tiers kung ang iyong trabaho ay nangangailangan ng AI assistance sa confidential data
  5. I-enable ang privacy settings na nag-disable ng training sa iyong data
  6. Para sa tunay na sensitibong pagbabahagi, gumamit ng purpose-built encrypted tools

Ang convenience ng AI ay hindi sulit sa panganib ng data breach. Gumawa ng extra step para protektahan ang iyong sensitibong impormasyon.

Gumawa ng Secure, Expiring Memo →

Keywords

safe ba ang chatgpt para sa sensitibong data
pwede bang mag-leak ng data ang ai
privacy ng chatgpt
security risks ng ai chatbot
nag-iimbak ba ng data ang chatgpt
panganib ng ai chatbot

Create your password-protected link now

Create password-protected links, secret memos, and encrypted chats for free.

Get Started Free
Pagtagas ng Data sa AI Chatbot: Ano ang Nangyayari Kapag Nag-paste ka ng Sensitibong Info sa ChatGPT | LOCK.PUB Blog