Grok همچنان تصاویر جنسیتی از مردان میسازد، علیرغم ادعای توقف
بهرغم ادعای ایلان ماسک مبنی بر توقف ساخت تصاویر جنسی بدون رضایت افراد توسط Grok، بررسیها نشان میدهد این مدل همچنان میتواند مردان را برهنه کند و تصاویر خصوصی تولید نماید.
حواشی جدید تولید محتوای جنسی توسط Grok
بهنظر میرسد مدل زبان هوش مصنوعی Grok، متعلق به شرکت X و ایلان ماسک، همچنان در تولید محتوای جنسی غیرقابل قبول مشکل دارد. پس از افشاگریهای اخیر مبنی بر ساخت میلیونها تصویر جنسیتی شامل دیپفیکهای غیرتوافقی و هولناک از کودکان، ایلان ماسک مدعی شد که اقدامات فنی برای جلوگیری از تولید تصاویر جنسی بدون رضایت افراد اجرا شده است. با این حال، گزارشهای جدید، مانند آنچه توسط The Verge منتشر شده، نشان میدهد که این محدودیتها کاملاً مؤثر نبودهاند و مدل همچنان قابلیتهای مشکلساز خود را حفظ کرده است.
بررسیها توسط یک خبرنگار نشان داد که Grok به سادگی میتواند مردان را برهنه کند و تصاویر خصوصی را بر اساس درخواستها تولید کند. این آزمایشها از طریق اپلیکیشن Grok، رابط چتبات در X و حتی وبسایت مستقل انجام شده است که گاهی اوقات نیازی به ثبتنام نیز نداشته است. این یافتهها مستقیماً با ادعاهای شرکت مبنی بر جلوگیری از «ویرایش تصاویر افراد واقعی در لباسهای تحریکآمیز» در تضاد است. مدل نه تنها در ساخت تصاویر تحریکآمیز موفق بود، بلکه تصاویر فتیش و حتی «همدم برهنه» تولید کرد.
ناکارآمدی سیستمهای ایمنی و مقاومت مدل در برابر محدودیتها
گفته شده است که Grok به ندرت در برابر درخواستها مقاومت نشان داده و حتی در مواردی تمایل به تولید اندام تناسلی داشته است، هرچند گاهی اوقات خروجیها با تاری پوشش داده میشدند. این نشان میدهد که با وجود «اقدامات فناورانه» اعلام شده توسط X برای جلوگیری از ساخت دیپفیک، همچنان راههایی خلاقانه برای دور زدن این فیلترها با استفاده از پرامپتهای خلاقانه وجود دارد.
- یکی از خبرنگاران با درخواستهای مکرر توانست تصاویر خود را با لباس شنا و در موقعیتهای جنسی تحریکآمیز توسط Grok تولید کند.
- این مدل حتی در موارد زیادی اندامهای خصوصی را بدون درخواست صریح کاربر تولید کرده است.
- این ماجرا منجر به تحقیقات در کالیفرنیا و اروپا شد و حتی منجر به مسدود شدن دسترسی X در کشورهایی مانند اندونزی و مالزی شد.
- شرکت X در پاسخ به خبرنگاران و درخواستهای رسمی، از پاسخگویی طفره رفته و از پاسخ خودکار «رسانههای میراثی دروغ میگویند» استفاده کرده است.
«این مدل هنوز برهنه کردن مردان را بهراحتی انجام میدهد و همچنان در حال تولید تصاویر خصوصی بر اساس تقاضا است.»
«علیرغم اقدامات اخیر، به نظر میرسد تنظیمات امنیتی برای جلوگیری از تولید تصاویر جنسیتی افراد، فقط در برخی جنبهها مؤثر بوده است.»
این تداوم در تولید محتوای نامناسب، حتی پس از ادعای رفع مشکل و تحقیقات جدی، سؤالاتی جدی را در مورد تعهدات اخلاقی و فنی تیم توسعه X در زمینه هوش مصنوعی ایمن (AI Safety) مطرح میکند، بهویژه با توجه به سابقه تولید تصاویر کودکان در این سرویس.


