شگرد جدید کلاهبرداری با هوش مصنوعی: صدای جعلی عزیزان برای اخاذی مالی
کلاهبرداران با استفاده از فناوری هوش مصنوعی و دیپفیک صوتی، صدای نزدیکان قربانیان را شبیهسازی کرده و با ایجاد سناریوهای بحرانی درخواست انتقال فوری پول میکنند. پلیس فتا هشدارهای رسمی در این زمینه منتشر کرده و راهکارهای پیشگیری را ارائه داده است.

کلاهبرداری هوش مصنوعی با دیپفیک صوتی
هوش مصنوعی و دیپفیکهای صوتی به ابزار جدید کلاهبرداران برای اخاذی مالی از شهروندان تبدیل شدهاند. در این شگرد، مجرمان با دسترسی به نمونههای صوتی افراد از طریق شبکههای اجتماعی یا هک تلفن، صدای نزدیکان قربانی را شبیهسازی کرده و با ایجاد سناریوهای اضطراری مانند تصادف یا وضعیت پزشکی بحرانی، درخواست انتقال فوری پول میکنند.
- قربانیان تحت تأثیر شوک روانی اغلب بدون راستیآزمایی اقدام به واریز وجه میکنند
- کلاهبرداران از اعتماد دیجیتالی بالا بین افراد سوءاستفاده میکنند
- این روش در ایران و جهان با سرعت نگرانکنندهای در حال گسترش است
- پلیس فتا تنها راه پیگیری را مراجعه حضوری اعلام کرده است
- فعالسازی احراز هویت دومرحلهای و آموزش عمومی از راهکارهای پیشگیرانه است
“هموطن عزیز، در صورت دریافت پیام درخواست وجه از مخاطبین خود، حتماً قبل از واریز، با تماس تلفنی از صحت آن مطمئن شوید.” - پلیس فتا
“اگر با تماسهای مربوط به درخواست کمک مالی روبهرو شدید، صرفاً به یک صدا بسنده نکنید و تماس تصویری برقرار کنید.” - ارژنگ ملک
کارشناسان تأکید میکنند که حفظ خونسردی، راستیآزمایی از طریق تماس مستقیم و عدم انتشار اطلاعات شخصی در فضای مجازی مهمترین راهکارهای مقابله با این نوع کلاهبرداریها هستند.




