گزارش گوگل: هکرها تلاش میکنند مدل جیمینی را از طریق هزاران درخواست هوش مصنوعی کپی کنند
گوگل در گزارشی هشدار داد که هکرها از طریق «حملات تقطیر» و با استفاده از بیش از ۱۰۰,۰۰۰ درخواست برای دزدیدن فناوری مدل هوش مصنوعی Gemini خود استفاده میکنند.

تهدیدات امنیتی علیه مدلهای هوش مصنوعی پیشرفته
گوگل در یک گزارش جدید با عنوان «Threat Tracker» هشدار داد که هکرها در حال انجام «حملات تقطیر» (Distillation Attacks) علیه مدلهای هوش مصنوعی پیشرفته مانند Gemini هستند. این حملات شامل استفاده سیستماتیک از دسترسی قانونی برای کاوش یک مدل یادگیری ماشینی بالغ با هدف استخراج اطلاعات لازم برای آموزش یک مدل جدید است. در یکی از موارد گزارششده، مهاجمان از بیش از ۱۰۰,۰۰۰ درخواست هوش مصنوعی برای تلاش جهت دزدیدن و شبیهسازی فناوری Gemini استفاده کردهاند. گوگل اعلام کرد که این تلاشها اغلب از سوی بازیگران مخالف در کشورهایی مانند کره شمالی، روسیه و چین نشأت میگیرند و بخشی از مجموعه وسیعتری از حملات مبتنی بر هوش مصنوعی و بدافزارها هستند.
این شرکت این نوع فعالیتها را حملات استخراج مدل (Model Extraction Attacks) مینامد. هدف اصلی این حملات، سرقت مالکیت معنوی مدلهای هوش مصنوعی و احتمالاً تکثیر آنها در مدلهایی با زبانهای دیگر است. جان هولکویست، تحلیلگر ارشد گروه اطلاعات تهدیدات گوگل، تاکید کرد که اگرچه گوگل ممکن است یکی از اولین شرکتهایی باشد که با این سطح از سرقت مواجه شده است، اما این اتفاق هشداری برای کل صنعت است و موارد بیشتری در راه خواهد بود.
- حملات استخراج مدل از طریق تغذیه مدل اصلی با هزاران درخواست برای بازتولید قابلیتهای آن صورت میگیرد.
- گوگل تاکید کرده است که این تهدید مستقیماً کاربران نهایی را هدف قرار نداده، بلکه ارائهدهندگان سرویس و سازندگان مدلها را در معرض خطر میگذارد.
- رقابت شدید در حوزه هوش مصنوعی باعث تشدید این تلاشهای سرقت فناوری شده است، به ویژه از سوی شرکتهای آسیایی که مدلهای پیشرفتهای را معرفی میکنند.
- این حملات نشاندهنده تبدیل شدن رقابت هوش مصنوعی به یک جبهه جنگ سایبری جدی برای مالکیت فکری است.
گوگل در گزارش خود اشاره میکند: «این حملات زمانی رخ میدهند که یک خصم با استفاده از دسترسی مشروع، یک مدل یادگیری ماشینی بالغ را به طور سیستماتیک برای استخراج اطلاعات مورد استفاده جهت آموزش یک مدل جدید، مورد بررسی قرار میدهد.»
هولکویست اظهار داشت: «ما قرار است زنگ خطر را برای حوادث بسیار بیشتری به صدا درآوریم.»
در مجموع، این گزارش نشاندهنده افزایش پیچیدگی تهدیدات سایبری در فضای هوش مصنوعی است. با ورود شرکتهای بزرگ به رقابت برای توسعه مدلهای زبانی بزرگ (LLMs) و ابزارهای مولد پیشرفته، محافظت از دانش فنی و الگوریتمهای اساسی به یک چالش امنیتی حیاتی تبدیل شده است.


