چت باتهای هوش مصنوعی گفتگوهای کاربران را فاش میکنند
گفتگوهای کاربران با دستیاران هوش مصنوعی مانند چت جی پی تی و جمینای گوگل احتمالاً به اندازهای که تصور میشود خصوصی باقی نمیماند. مایکروسافت شکاف امنیتی جدیدی کشف کرده که میتواند موضوع گفتگوها را شناسایی کند.

نقض حریم خصوصی در چت باتهای هوش مصنوعی
پژوهشگران مایکروسافت شکاف امنیتی جدی در مدلهای زبانی بزرگ کشف کردهاند که میتواند موضوع گفتگوهای کاربران با دستیاران هوش مصنوعی مانند چت جی پی تی و جمینای گوگل را فاش کند. این آسیبپذیری که "Whisper Leak" نامیده میشود، تقریباً تمام مدلهای آزمایششده را تحت تأثیر قرار داده است.
- ارتباطات معمولاً از طریق TLS محافظت میشوند اما متادیتا همچنان قابل مشاهده است
- هوش مصنوعی میتواند با دقت ۹۸ درصد موضوع گفتگوها را تشخیص دهد
- گفتگوهای حساس در ۱۰۰ درصد مواقع قابل شناسایی هستند
- سه روش مقابله آزمایش شد اما هیچکدام کاملاً مؤثر نبود
- این حمله رمزگذاری را نقض نمیکند بلکه از بخشهای پنهاننشده سوءاستفاده میکند
پژوهشگران: "حتی اگر گفتگوهای حساس تنها در یک مورد از هر ۱۰ هزار محاوره رخ دهند، این حمله قادر به شناسایی آنها است"
این کشف اهمیت امنیت اطلاعات در سیستمهای هوش مصنوعی را بیش از پیش آشکار میسازد.
