کلاهبرداری مصاحبه شغلی با دیپفیک هوش مصنوعی: چگونه کاندیداها و کارفرمایان جعلی را تشخیص دهیم
فناوری دیپفیک توسط کلاهبرداران در مصاحبههای شغلی استفاده میشود که خود را به عنوان کاندیدا و کارفرمای جعلی جا میزنند. یاد بگیرید چگونه چهرههای تولید شده با هوش مصنوعی را شناسایی کنید و از خود محافظت کنید.
کلاهبرداری مصاحبه شغلی با دیپفیک هوش مصنوعی: چگونه کاندیداها و کارفرمایان جعلی را تشخیص دهیم
در فوریه ۲۰۲۶، یک شرکت امنیت سایبری به نام Evoke AI نزدیک بود یک دیپفیک را استخدام کند. کاندیدا در دوربین حرفهای به نظر میرسید، به سوالات فنی پاسخهای صحیح میداد و چندین دور مصاحبه را پشت سر گذاشت. تنها زمانی که تیم استخدام از کاندیدا خواستند سرش را به طرفین بچرخاند، توهم شکست—چهره تولید شده با هوش مصنوعی دچار خطا شد و فریبکاری آشکار شد.
این یک واقعه منفرد نیست. FBI درباره کلاهبرداری مصاحبه شغلی با دیپفیک هشدار داده است. Okta بیش از ۶,۵۰۰ مورد کارگران IT کره شمالی را شناسایی کرده که از هویتهای جعلی برای استخدام در شرکتهای غربی استفاده میکنند. HR Dive گزارش میدهد که یک کاندیدای جعلی قانعکننده را میتوان در تنها ۷۰ دقیقه ایجاد کرد.
این تهدید دوطرفه است. متقاضیان شغل نیز توسط کارفرمایان جعلی هدف قرار میگیرند که از دیپفیک برای انجام مصاحبههای متقلبانه، سرقت اطلاعات شخصی و اجرای کلاهبرداریهای پیشپرداخت استفاده میکنند.
در اینجا آنچه باید بدانید تا از خود محافظت کنید—چه استخدام کننده باشید چه متقاضی کار.
ظهور کلاهبرداری شغلی با دیپفیک
کاندیداهای جعلی که کارفرمایان را هدف قرار میدهند
چرا اتفاق میافتد: بازیگران دولتی (به ویژه کره شمالی) از دیپفیک برای به دست آوردن مشاغل دورکاری در شرکتهای فناوری استفاده میکنند. پس از استخدام، به سیستمهای داخلی دسترسی پیدا میکنند، مالکیت معنوی را میدزدند یا صرفاً حقوقی دریافت میکنند که فعالیتهای غیرقانونی را تامین مالی میکند.
موارد واقعی در ۲۰۲۶:
- KnowBe4، یک شرکت بزرگ آگاهی امنیتی، کشف کرد که یک کارمند دیپفیک را استخدام کرده است
- Okta بیش از ۶,۵۰۰ درخواست شغلی متقلبانه مرتبط با عوامل کره شمالی را شناسایی کرد
- چندین شرکت امنیتی افزایش تقلب در درخواستهای کمکشده با هوش مصنوعی را گزارش میکنند
چگونه کار میکند:
- کلاهبردار با عکسهای تولید شده با هوش مصنوعی یک هویت جعلی ایجاد میکند
- در مصاحبههای ویدیویی از نرمافزار دیپفیک استفاده میکند تا به عنوان شخص دیگری ظاهر شود
- ممکن است از شبیهسازی صدا برای تطابق با شخصیت جعلی استفاده کند
- پس از استخدام برای کار از راه دور، به سیستمهای شرکت دسترسی پیدا میکند
کارفرمایان جعلی که متقاضیان شغل را هدف قرار میدهند
چرا اتفاق میافتد: کلاهبرداران خود را به عنوان استخدامکننده از شرکتهای معتبر معرفی میکنند تا اطلاعات شخصی را بدزدند، کلاهبرداری پیشپرداخت انجام دهند یا بدافزار نصب کنند.
تاکتیکهای رایج:
- ایمیلهای "شما برای مصاحبه انتخاب شدهاید" از دامنههای جعلی شرکت
- مصاحبههای ویدیویی که در آن "مدیر استخدام" یک دیپفیک است
- درخواست برای کد ملی، جزئیات بانکی یا پرداخت برای "بررسی سوابق"
- پیشنهادهای شغلی جعلی که نیاز به خرید تجهیزات دارند که هرگز بازپرداخت نمیشوند
چگونه دیپفیک را در مصاحبه ویدیویی تشخیص دهیم
برای کارفرمایانی که از کاندیداها مصاحبه میکنند
تست چرخش سر: از کاندیدا بخواهید به آرامی سرش را ۹۰ درجه به هر طرف بچرخاند. فناوری دیپفیک فعلی با نماهای پروفایل مشکل دارد—چهره ممکن است تغییر شکل دهد، دچار خطا شود یا آثار غیرطبیعی نشان دهد.
تست دست: از کاندیدا بخواهید دستش را جلوی صورتش نگه دارد، سپس آن را دور کند. دیپفیکها اغلب در بازسازی صحیح چهره پشت اشیاء مسدودکننده شکست میخورند.
چالش نورپردازی: از کاندیدا بخواهید زاویه منبع نور خود را تغییر دهد (یک لامپ را از جهت دیگری روشن کند). چهرههای واقعی به طور طبیعی به تغییرات نور پاسخ میدهند؛ دیپفیکها ممکن است سایههای ناسازگار نشان دهند.
چکهای زندهبودن فعال:
- حرکات تصادفی و غیرمنتظره بخواهید: "با دست چپ به گوش راستتان دست بزنید"
- از آنها بخواهید یک شی خاص را نگه دارند (روزنامه امروز، یک وسیله خانگی تصادفی)
- از آنها بخواهید چیزی روی کاغذ بنویسند و به دوربین نشان دهند
شاخصهای فنی:
- الگوهای چشمک زدن غیرطبیعی (خیلی مکرر یا خیلی کم)
- همگامسازی لب ناهماهنگ، به ویژه در کلمات پیچیده
- مناطق تار یا تحریفشده در اطراف خط مو و لبههای صورت
- بافت پوست یا نورپردازی ناسازگار روی صورت در مقابل گردن/گوش
- مشکلات همگامسازی صدا و تصویر
محافظتهای فرآیندی:
- قبل از تصمیمات نهایی استخدام، تایید شناسه دولتی را الزامی کنید
- حداقل یک مصاحبه با دوربین روشن در طول مدت انجام دهید
- از خدمات تایید هویت استفاده کنید که دیپفیک را تشخیص میدهند
- اعضای تیم متعدد به طور مستقل کاندیدا را ارزیابی کنند
برای متقاضیان شغلی که کارفرمایان را ارزیابی میکنند
شرکت را تایید کنید:
- وبسایت رسمی شرکت را برای لیست شغلی بررسی کنید
- برای تایید استخدامکننده با شماره اصلی شرکت (از وبسایت آنها، نه ایمیل) تماس بگیرید
- پروفایل LinkedIn مصاحبهکننده را جستجو کنید—آیا سابقه دارند؟
پرچمهای قرمز در مصاحبههای ویدیویی:
- مصاحبهکننده از روشن کردن دوربین امتناع میکند یا دوربین "خراب است"
- فشار برای تصمیمگیری سریع
- درخواست اطلاعات مالی شخصی در اوایل فرآیند
- مصاحبه در پلتفرمهایی که هرگز نشنیدهاید برنامهریزی شده
- ظاهر "مدیر استخدام" مصنوعی به نظر میرسد یا حرکات غیرطبیعی هستند
هرگز ارائه ندهید:
- کد ملی یا شمارههای شناسه ملی قبل از پیشنهاد شغلی تایید شده
- اطلاعات حساب بانکی برای "تنظیم واریز مستقیم" قبل از شروع کار
- پرداخت برای تجهیزات، آموزش یا بررسی سوابق
- کپی اسناد شناسایی از طریق ایمیل
اشتراکگذاری ایمن اسناد در طول فرآیند استخدام
هم کارفرمایان و هم کاندیداها باید در طول استخدام اسناد حساس را به اشتراک بگذارند: رزومه، کپی شناسنامه، نامههای پیشنهاد، قراردادها. این فرصتهایی برای رهگیری و کلاهبرداری ایجاد میکند.
برای کارفرمایان:
- نامههای پیشنهاد را به عنوان پیوست ایمیل ساده ارسال نکنید
- از لینکهای سند محافظت شده با رمز عبور استفاده کنید که پس از یک زمان تعیین شده منقضی شوند
- هویت کاندیدا را از طریق کانالهای متعدد قبل از اشتراکگذاری اطلاعات حساس تایید کنید
برای کاندیداها:
- در مورد جایی که رزومه و جزئیات شخصی خود را ارسال میکنید محتاط باشید
- اگر اسناد حساس را به اشتراک میگذارید، از روشهای رمزگذاری شده یا محافظت شده با رمز عبور استفاده کنید
- استفاده از خدماتی مانند LOCK.PUB را برای اشتراکگذاری اسناد با لینکهای منقضی شونده و محافظت شده با رمز عبور در نظر بگیرید
مثال: به جای ایمیل مستقیم کپی شناسنامه خود به یک استخدامکننده که هرگز شخصاً ندیدهاید، آن را به یک لینک امن آپلود کنید که نیاز به رمز عبور دارد و در ۲۴ ساعت منقضی میشود. لینک را از طریق ایمیل و رمز عبور را از طریق کانال جداگانه (مثلاً پیام Telegram پس از تایید شماره تلفن) به اشتراک بگذارید.
اگر به کلاهبرداری دیپفیک مشکوک هستید چه کنید
برای کارفرمایان:
- فرآیند استخدام را ادامه ندهید
- تمام تعاملات و شواهد را مستند کنید
- به مرکز شکایت جرایم اینترنتی FBI (IC3) گزارش دهید
- تیم امنیتی و بخش منابع انسانی خود را هشدار دهید
- اگر یک الگو را شناسایی کردید، اطلاعرسانی به همتایان صنعت را در نظر بگیرید
برای متقاضیان شغل:
- تمام ارتباطات با کلاهبردار مشکوک را متوقف کنید
- هیچ پول یا اطلاعات شخصی ارسال نکنید
- به پلیس فتا گزارش دهید
- به پلتفرمی که لیست شغلی را در آن یافتید گزارش دهید
- اگر قبلاً اطلاعات شخصی را به اشتراک گذاشتهاید، اعتبار خود را نظارت کنید و هشدار کلاهبرداری را در نظر بگیرید
آینده تایید استخدام
همانطور که فناوری دیپفیک بهبود مییابد، روشهای تایید نیز باید بهبود یابند. شرکتها شروع به اتخاذ میکنند:
- خدمات تایید بیومتریک که چهرههای تولید شده با هوش مصنوعی را تشخیص میدهند
- تشخیص زندهبودن ساخته شده در پلتفرمهای مصاحبه
- تایید اعتبارنامه مبتنی بر بلاکچین برای تحصیلات و سابقه کار
- الزامات تایید حضوری برای موقعیتهای با امنیت بالا
تا زمانی که اینها استاندارد شوند، هوشیاری بهترین دفاع شماست. به غریزه خود اعتماد کنید—اگر چیزی در مورد مصاحبه احساس عجیب دارید، احتمالاً همینطور است.
نکات کلیدی
| اگر استخدام میکنید | اگر به دنبال کار هستید |
|---|---|
| از تستهای چرخش سر و دست استفاده کنید | شرکت را از طریق کانالهای رسمی تایید کنید |
| چکهای زندهبودن را الزامی کنید | هرگز برای "بررسی سوابق" پول ندهید |
| هویت را قبل از استخدام نهایی تایید کنید | کد ملی را قبل از پیشنهاد تایید شده به اشتراک نگذارید |
| از لینکهای سند منقضی شونده و محافظت شده استفاده کنید | اسناد را از طریق لینکهای امن و منقضی شونده به اشتراک بگذارید |
| کاندیداهای مشکوک را به IC3 گزارش دهید | کلاهبرداریها را به پلیس فتا گزارش دهید |
بازار کار بدون کلاهبرداری مبتنی بر هوش مصنوعی به اندازه کافی چالشبرانگیز است. چه استخدام کنید یا جستجو کنید، دقایق اضافی را صرف تایید اینکه واقعاً با چه کسی صحبت میکنید کنید.
Keywords
You might also like
نشت ۱۶ میلیارد رمز عبور: چگونه بفهمید آسیب دیدهاید؟
بزرگترین نشت رمز عبور تاریخ، ۱۶ میلیارد اعتبارنامه را فاش کرد. بررسی کنید که آیا حسابهای شما در معرض خطر هستند و اقدامات لازم را انجام دهید.
نشت اطلاعات چتباتهای هوش مصنوعی: وقتی اطلاعات حساس را در ChatGPT قرار میدهید چه اتفاقی میافتد
آیا ChatGPT برای اطلاعات حساس امن است؟ خطرات واقعی حریم خصوصی چتباتهای هوش مصنوعی، نشتهای اخیر داده و نحوه محافظت از اطلاعات محرمانه خود را بیاموزید.
دستیاران کدنویسی هوش مصنوعی کد ناامن مینویسند: آنچه توسعهدهندگان باید بدانند
GitHub Copilot و Cursor AI میتوانند آسیبپذیریهای امنیتی ایجاد کنند. درباره 74 CVE از کد تولید شده با هوش مصنوعی در 2026 و نحوه حفاظت از پایگاه کد خود بیاموزید.
Create your password-protected link now
Create password-protected links, secret memos, and encrypted chats for free.
Get Started Free