Back to blog
Security
8 min

Cum să folosești instrumentele AI în siguranță: Ghid practic pentru protecția datelor

Ghid pas cu pas pentru utilizarea ChatGPT, Claude, Copilot și alte instrumente AI fără a compromite datele sensibile. Setări de confidențialitate, cele mai bune practici și alternative.

LOCK.PUB

Cum să folosești instrumentele AI în siguranță: Ghid practic pentru protecția datelor

Instrumentele AI precum ChatGPT, Claude și GitHub Copilot au devenit esențiale pentru productivitate. Dar de fiecare dată când interacționezi cu aceste instrumente, potențial partajezi date cu serverele lor — date care pot fi stocate, folosite pentru antrenament sau chiar expuse într-o breșă de securitate.

Acest ghid oferă pași practici și aplicabili pentru utilizarea instrumentelor AI în timp ce îți protejezi informațiile sensibile.

Regula de Aur: Presupune că totul este public

Înainte de a intra în setări și instrumente specifice, internalizează acest principiu:

Tratează fiecare prompt pe care îl trimiți către un instrument AI ca și cum ar putea deveni public.

Aceasta înseamnă:

  • Poate fi citit de angajații companiei AI
  • Poate apărea într-o breșă de date
  • Poate influența răspunsurile către alți utilizatori
  • Poate fi citat în proceduri legale

Dacă nu l-ai posta public, nu-l lipi într-un chatbot.

Pasul 1: Configurează setările de confidențialitate

ChatGPT (OpenAI)

Dezactivează antrenamentul pe datele tale:

  1. Mergi la Settings → Data Controls
  2. Oprește "Improve the model for everyone"
  3. Conversațiile tale nu vor mai fi folosite pentru a antrena modele viitoare

Folosește Chat-uri Temporare:

  • Dă click pe butonul "Temporary Chat" înainte de conversații sensibile
  • Aceste chat-uri nu sunt salvate în istoricul tău și nu sunt folosite pentru antrenament

API vs. Consumer:

  • OpenAI nu antrenează implicit pe utilizarea API
  • Consideră utilizarea directă a API pentru aplicații sensibile

Claude (Anthropic)

Planuri plătite:

  • Conversațiile Claude Pro/Team/Enterprise NU sunt folosite implicit pentru antrenament
  • Revizuiește politica de utilizare a datelor Anthropic pentru planul tău specific

Free tier:

  • Conversațiile pot fi folosite pentru antrenament
  • Folosește funcțiile temporare Claude când sunt disponibile

Google Gemini

Oprește salvarea activității:

  1. Mergi la Gemini Apps Activity
  2. Oprește salvarea activității
  3. Setează ștergerea automată la cea mai scurtă perioadă

Microsoft Copilot

Utilizatori Enterprise:

  • Copilot for Microsoft 365 are protecții mai puternice ale datelor
  • Consumer Copilot are politici de date mai permisive
  • Folosește instanța Copilot a organizației tale pentru datele de lucru

Pasul 2: Înțelege ce să NU partajezi

Nu lipi niciodată în chatbot-uri AI:

Categorie Exemple Risc
Credențiale Parole, chei API, token-uri Compromitere directă a contului
Info personale CNP, cărți de credit, dosare medicale Furt de identitate, încălcări GDPR
Secrete companiei Cod sursă, date clienți, financiare Pierderea secretului comercial, încălcare conformitate
Comunicări private Email-uri, mesaje WhatsApp Încălcarea confidențialității

Semnale de alarmă în prompt-urile tale:

  • Orice șir care începe cu sk-, AKIA, ghp_, etc. (probabil chei API)
  • Orice cu domenii email @company.com
  • Șiruri de conexiune la bază de date
  • Nume reale cu detalii personale
  • Screenshot-uri neredactate

Pasul 3: Redactează înainte de a partaja

Când ai nevoie de ajutor AI cu cod sau documente care conțin informații sensibile:

Înlocuiește valorile reale cu placeholder-e:

# În loc de:
api_key = "sk-proj-abc123xyz789"
db_password = "MyR3alP@ssword!"

# Folosește:
api_key = "YOUR_OPENAI_API_KEY"
db_password = "YOUR_DATABASE_PASSWORD"

Anonimizează informațiile personale:

# În loc de:
"Ion Popescu de la Acme Corp ([email protected]) a solicitat..."

# Folosește:
"Utilizator A de la Compania X ([email protected]) a solicitat..."

Generalizează înainte de a întreba:

În loc de: "De ce cheia mea AWS AKIAIOSFODNN7EXAMPLE nu funcționează?"

Întreabă: "Care sunt motivele comune pentru care o cheie de acces AWS poate înceta să funcționeze?"

Pasul 4: Alege instrumentul potrivit pentru nivelul de sensibilitate

Sensibilitate scăzută (info publică, întrebări generale):

  • Instrumentele AI de consum sunt ok
  • ChatGPT, Claude, Gemini free tier
  • Nu sunt necesare precauții speciale

Sensibilitate medie (procese interne, cod nesecret):

  • Activează setările de confidențialitate
  • Folosește moduri temporare/incognito
  • Redactează detalii specifice

Sensibilitate ridicată (credențiale, PII, secrete comerciale):

  • Folosește tier-uri Enterprise cu DPA
  • Consideră modele locale/self-hosted
  • Sau nu folosi deloc AI pentru aceste date

Opțiuni AI Enterprise:

Serviciu Protecție cheie Conformitate
ChatGPT Enterprise Fără antrenament pe date, SOC 2 GDPR, HIPAA-ready
Claude Enterprise DPA disponibil, fără antrenament SOC 2, GDPR
Azure OpenAI Datele rămân în Azure-ul tău Conformitate enterprise completă
AWS Bedrock VPC-ul tău, datele tale Conformitate enterprise completă

Pasul 5: Gestionează corect credențialele

Nu partaja niciodată credențiale prin instrumente AI sau mesagerie obișnuită

Când trebuie să partajezi credențiale sensibile cu colegii:

Practici proaste:

  • Lipire în WhatsApp/Messenger (mesajele sunt stocate)
  • Punere în documente partajate (acces permanent)
  • Trimitere prin email (adesea necriptat, căutabil)
  • Lipire în chatbot-uri AI (potențial folosit pentru antrenament)

Practici mai bune:

  • Folosește funcția de partajare a managerului de parole
  • Folosește instrumentul de management al secretelor organizației tale
  • Partajează prin canale criptate, auto-distructive

Folosirea link-urilor sigure și cu expirare

Servicii precum LOCK.PUB îți permit să:

  1. Creezi o notă protejată prin parolă
  2. Setezi un timp de expirare (1 oră, 24 ore, etc.)
  3. O faci să se auto-distrugă după vizualizare unică
  4. Partajezi link-ul printr-un canal și parola prin altul

Exemplu de flux de lucru:

  • Trebuie să partajezi o parolă de bază de date cu un nou membru al echipei
  • Creează o notă securizată cu parola
  • Setează expirarea în 1 oră și ștergere după vizualizare
  • Trimite link-ul prin email, parola prin alt canal
  • Credențiala nu poate fi recuperată din nou după ce o văd

Aceasta este infinit mai sigură decât să pui credențiala într-un email, mesaj chat sau prompt AI.

Pasul 6: Consideră modele AI locale

Pentru lucru cu adevărat sensibil, consideră rularea modelelor AI local:

Opțiuni pentru AI local:

Ollama + Modele Open Source:

  • Rulează Llama, Mistral sau alte modele local
  • Zero date părăsesc mașina ta
  • Bun pentru review de cod, asistență la scris

GPT4All:

  • Aplicație desktop pentru rularea modelelor locale
  • Nu necesită internet
  • Potrivit pentru medii offline

LocalAI:

  • Server local compatibil cu OpenAI API
  • Poate fi integrat în fluxuri de lucru existente

Compromisuri ale modelelor locale:

  • Mai puțin capabile decât GPT-4 sau Claude
  • Necesită hardware decent (GPU recomandat)
  • Fără acces internet = fără cunoștințe externe
  • Dar: confidențialitate completă

Pasul 7: Implementează politici de echipă

Dacă conduci o echipă, stabilește linii directoare clare:

Instrumente și tier-uri aprobate:

  • Ce servicii AI pot fi folosite
  • Ce tier (gratuit vs. enterprise) pentru ce date
  • Cum să obții aprobări pentru excepții

Clasificare date:

  • Ce tipuri de date pot fi discutate cu AI
  • Ce necesită redactare
  • Ce este complet interzis

Cerințe de training:

  • Training anual de conștientizare a securității AI
  • Actualizări când apar noi riscuri
  • Proceduri de răspuns la incidente

Audit și monitorizare:

  • Jurnalizează utilizarea instrumentelor AI unde e posibil
  • Verifică conformitatea cu politica
  • Învață din incidente

Referință rapidă: Lista de verificare securitate AI

Înainte de a trimite orice prompt către un instrument AI, întreabă-te:

  • Aș fi confortabil dacă acest prompt ar deveni public?
  • Am eliminat toate parolele, cheile API și token-urile?
  • Am anonimizat informațiile personale (nume, email-uri, ID-uri)?
  • Am redactat detalii specifice companiei care nu sunt necesare?
  • Folosesc tier-ul potrivit pentru sensibilitatea acestor date?
  • Am activat setările de confidențialitate (opt-out antrenament, chat temporar)?

Dacă nu poți bifa toate căsuțele, oprește-te și redactează înainte de a continua.

Află mai multe despre riscuri specifice

Acest ghid a acoperit cele mai bune practici generale. Pentru aprofundări în amenințări specifice, vezi postările noastre conexe:

Concluzia

Instrumentele AI sunt incredibil de puternice, dar necesită utilizare atentă. Confortul de a obține ajutor instant de la ChatGPT nu merită o breșă de date, o încălcare a conformității sau credențiale scurse.

Elementele tale de acțiune:

  1. Configurează setările de confidențialitate pe toate instrumentele AI pe care le folosești astăzi
  2. Stabilește o regulă personală: fără credențiale, fără PII, fără secrete în prompt-uri AI
  3. Folosește canale criptate, cu expirare pentru partajarea datelor sensibile
  4. Antrenează echipa ta în cele mai bune practici de securitate AI
  5. Consideră modele locale pentru lucrul cel mai sensibil

Cele 30 de secunde extra de redactare te pot salva de luni de răspuns la incidente.

Creează o notă securizată, cu expirare →

Keywords

cum să folosești chatgpt în siguranță
partajarea datelor sensibile cu ai
confidențialitate ai practici bune
protejarea datelor de ai
anonimizarea datelor pentru ai
modele ai locale

Create your password-protected link now

Create password-protected links, secret memos, and encrypted chats for free.

Get Started Free
Cum să folosești instrumentele AI în siguranță: Ghid practic pentru protecția datelor | LOCK.PUB Blog