Back to blog
Security
8 min

Paano Ligtas na Gumamit ng AI Tools: Praktikal na Gabay sa Pagprotekta ng Iyong Data

Hakbang-hakbang na gabay sa paggamit ng ChatGPT, Claude, Copilot at iba pang AI tools nang hindi nanganganib ang iyong sensitive data. Privacy settings, best practices, at alternatibo.

LOCK.PUB

Paano Ligtas na Gumamit ng AI Tools: Praktikal na Gabay sa Pagprotekta ng Iyong Data

Ang AI tools tulad ng ChatGPT, Claude, at GitHub Copilot ay naging kinakailangan para sa produktibidad. Ngunit sa bawat beses na nakikipag-ugnayan ka sa mga tool na ito, potensyal mong ibinabahagi ang data sa kanilang mga server — data na maaaring iimbak, gamitin para sa training, o kahit ilantad sa isang security breach.

Ang gabay na ito ay nagbibigay ng praktikal at maisasakatuparan na mga hakbang para gumamit ng AI tools habang pinoprotektahan ang iyong sensitibong impormasyon.

Ang Gintong Panuntunan: Ipagpalagay na Lahat ay Pampubliko

Bago tayo pumasok sa mga tiyak na setting at tools, isapuso ang prinsipyong ito:

Tratuhin ang bawat prompt na ipinapadala mo sa AI tool na parang maaari itong maging pampubliko.

Ibig sabihin nito:

  • Maaari itong basahin ng mga empleyado ng AI company
  • Maaari itong lumitaw sa data breach
  • Maaari itong makaapekto ng mga tugon sa ibang users
  • Maaari itong i-subpoena sa legal proceedings

Kung hindi mo ito ipo-post publicly, huwag i-paste sa chatbot.

Hakbang 1: I-configure ang Privacy Settings

ChatGPT (OpenAI)

I-disable ang training sa iyong data:

  1. Pumunta sa Settings → Data Controls
  2. I-OFF ang "Improve the model for everyone"
  3. Ang iyong mga pag-uusap ay hindi na gagamitin para sa pag-train ng future models

Gumamit ng Temporary Chat:

  • I-click ang toggle para sa "Temporary Chat" bago ang sensitibong pag-uusap
  • Ang mga chat na ito ay hindi na-save sa iyong history at hindi ginagamit para sa training

API vs. Consumer:

  • Ang OpenAI ay hindi nag-t-train sa API usage by default
  • Isaalang-alang ang direktang paggamit ng API para sa sensitive applications

Claude (Anthropic)

Mga bayad na plano:

  • Ang Claude Pro/Team/Enterprise conversations ay HINDI ginagamit para sa training by default
  • I-review ang data usage policy ng Anthropic para sa iyong specific plan

Free tier:

  • Ang mga pag-uusap ay maaaring gamitin para sa training
  • Gumamit ng temporary features ng Claude kapag available

Google Gemini

I-off ang activity saving:

  1. Pumunta sa Gemini Apps Activity
  2. I-OFF ang activity saving
  3. I-set ang auto-delete sa pinakamaikling period

Microsoft Copilot

Para sa Enterprise users:

  • Ang Copilot for Microsoft 365 ay may mas malakas na data protections
  • Ang Consumer Copilot ay may mas permissive na data policies
  • Gamitin ang Copilot instance ng iyong organisasyon para sa work data

Hakbang 2: Intindihin ang Dapat HINDI Ibahagi

Huwag kailanman mag-paste sa AI chatbots:

Kategorya Mga Halimbawa Panganib
Credentials Passwords, API keys, tokens Direktang account compromise
Personal info SSS, credit cards, medical records Identity theft, paglabag sa batas
Company secrets Source code, customer data, financials Pagkawala ng trade secret, compliance breach
Private communications Emails, mensahe sa Messenger Paglabag sa privacy

Red flags sa iyong mga prompt:

  • Anumang string na nagsisimula sa sk-, AKIA, ghp_, atbp. (malamang API keys)
  • Kahit ano na may @company.com email domains
  • Database connection strings
  • Mga tunay na pangalan na may personal details
  • Hindi na-redact na screenshots

Hakbang 3: Magtago Bago Magbahagi

Kapag kailangan mo ng AI help sa code o documents na may sensitibong info:

Palitan ang real values ng placeholders:

# Sa halip na:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"

# Gamitin:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"

I-anonymize ang personal information:

# Sa halip na:
"Juan Dela Cruz mula sa Acme Corp ([email protected]) ay humingi..."

# Gamitin:
"User A mula sa Company X ([email protected]) ay humingi..."

Gawing general bago magtanong:

Sa halip na: "Bakit ang aking AWS key na AKIAIOSFODNN7EXAMPLE ay hindi gumagana?"

Itanong: "Ano ang common reasons kung bakit ang AWS access key ay maaaring tumigil sa paggana?"

Hakbang 4: Pumili ng Tamang Tool para sa Sensitivity Level

Mababang sensitivity (public info, generic questions):

  • Ang Consumer AI tools ay okay
  • ChatGPT, Claude, Gemini free tier
  • Walang special precautions na kailangan

Katamtamang sensitivity (internal processes, non-secret code):

  • I-enable ang privacy settings
  • Gumamit ng temporary/incognito modes
  • I-redact ang specific details

Mataas na sensitivity (credentials, PII, trade secrets):

  • Gumamit ng Enterprise tiers na may DPAs
  • Isaalang-alang ang local/self-hosted models
  • O huwag gumamit ng AI para sa data na ito

Enterprise AI Options:

Service Key Protection Compliance
ChatGPT Enterprise Walang training sa data, SOC 2 GDPR, HIPAA-ready
Claude Enterprise DPA available, walang training SOC 2, GDPR
Azure OpenAI Ang data ay nananatili sa iyong Azure Kumpletong enterprise compliance
AWS Bedrock Iyong VPC, iyong data Kumpletong enterprise compliance

Hakbang 5: Wastong Pag-handle ng Credentials

Huwag kailanman magbahagi ng credentials sa pamamagitan ng AI tools o regular messaging

Kapag kailangan mong magbahagi ng sensitive credentials sa mga kasamahan:

Masamang practices:

  • Pag-paste sa Messenger/Viber (ang mga mensahe ay naka-store)
  • Paglagay sa shared documents (permanent access)
  • Pag-email (madalas hindi naka-encrypt, searchable)
  • Pag-paste sa AI chatbots (potensyal na gamitin para sa training)

Mas magandang practices:

  • Gamitin ang sharing feature ng password manager
  • Gamitin ang secret management tool ng iyong organisasyon
  • Magbahagi sa pamamagitan ng encrypted, self-destructing channels

Paggamit ng Secure, Expiring Links

Ang mga serbisyo tulad ng LOCK.PUB ay nagpapahintulot sa iyo na:

  1. Lumikha ng password-protected note
  2. Magtakda ng expiration time (1 oras, 24 oras, atbp.)
  3. Gawing self-destruct pagkatapos tingnan nang isang beses
  4. Ibahagi ang link sa isang channel at ang password sa isa pa

Halimbawa ng workflow:

  • Kailangan mong magbahagi ng database password sa bagong team member
  • Lumikha ng secure note na may password
  • Itakda na mag-expire sa 1 oras at madelete pagkatapos tingnan
  • Ipadala ang link via email, ang password via ibang channel
  • Ang credential ay hindi na maibabalik muli pagkatapos nilang tingnan

Ito ay walang hanggang mas ligtas kaysa paglagay ng credential sa email, chat message, o AI prompt.

Hakbang 6: Isaalang-alang ang Local AI Models

Para sa tunay na sensitibong trabaho, isaalang-alang ang pagpapatakbo ng AI models locally:

Mga option para sa local AI:

Ollama + Open Source Models:

  • Patakbuhin ang Llama, Mistral, o ibang models locally
  • Zero data ang umaalis sa iyong machine
  • Mabuti para sa code review, tulong sa pagsusulat

GPT4All:

  • Desktop app para sa pagpapatakbo ng local models
  • Walang internet na kailangan
  • Angkop para sa offline environments

LocalAI:

  • OpenAI API-compatible local server
  • Maaaring ilagay sa existing workflows

Trade-offs ng local models:

  • Mas kaunting capable kaysa GPT-4 o Claude
  • Nangangailangan ng decent hardware (GPU recommended)
  • Walang internet access = walang external knowledge
  • Ngunit: kumpletong privacy

Hakbang 7: Magpatupad ng Team Policies

Kung namamahala ka ng team, magtakda ng malinaw na guidelines:

Mga approved tools at tiers:

  • Aling AI services ang maaaring gamitin
  • Aling tier (free vs. enterprise) para sa aling data
  • Paano makakuha ng exception approvals

Data classification:

  • Anong uri ng data ang maaaring pag-usapan sa AI
  • Ano ang nangangailangan ng redaction
  • Ano ang ganap na ipinagbabawal

Training requirements:

  • Taunang AI security awareness training
  • Mga update kapag may bagong risks
  • Incident response procedures

Audit at monitoring:

  • Mag-log ng AI tool usage kung possible
  • I-review ang policy compliance
  • Matuto mula sa incidents

Mabilis na Reference: AI Safety Checklist

Bago magpadala ng anumang prompt sa AI tool, tanungin ang iyong sarili:

  • Komportable ba ako kung ang prompt na ito ay magiging pampubliko?
  • Tinanggal ko na ba lahat ng passwords, API keys, at tokens?
  • Na-anonymize ko na ba ang personal information (pangalan, emails, IDs)?
  • Na-redact ko na ba ang company-specific details na hindi kinakailangan?
  • Gumagamit ba ako ng appropriate tier para sa sensitivity ng data na ito?
  • Na-enable ko na ba ang privacy settings (training opt-out, temporary chat)?

Kung hindi mo ma-check ang lahat ng boxes, huminto at mag-redact bago magpatuloy.

Matuto Nang Higit Pa Tungkol sa Specific Risks

Ang gabay na ito ay sumasaklaw sa general best practices. Para sa mas malalim na pagsisiyasat ng specific threats, tingnan ang aming related posts:

Ang Bottom Line

Ang AI tools ay napakalakas, ngunit nangangailangan sila ng maingat na paggamit. Ang kaginhawahan ng agarang pagkuha ng tulong mula sa ChatGPT ay hindi sulit para sa data breach, compliance violation, o leaked credentials.

Ang iyong action items:

  1. I-configure ang privacy settings sa lahat ng AI tools na ginagamit mo ngayon
  2. Magtakda ng personal rule: walang credentials, walang PII, walang secrets sa AI prompts
  3. Gumamit ng expiring, encrypted channels para sa pagbabahagi ng sensitive data
  4. Sanayin ang iyong team sa AI safety best practices
  5. Isaalang-alang ang local models para sa pinaka-sensitive na trabaho

Ang extra 30 segundong redaction ay maaaring makaligtas sa iyo mula sa mga buwan ng incident response.

Lumikha ng secure, expiring note →

Keywords

ligtas na gamit ng chatgpt
pagshare ng sensitive data sa ai
ai privacy best practices
protektahan ang data mula sa ai
itago ang sensitive data para sa ai
lokal na ai models

Create your password-protected link now

Create password-protected links, secret memos, and encrypted chats for free.

Get Started Free
Paano Ligtas na Gumamit ng AI Tools: Praktikal na Gabay sa Pagprotekta ng Iyong Data | LOCK.PUB Blog