آیا ایمنی در xAI مرده است؟
الون ماسک بهطور فعال در صدد این است که ربات گفتگویی Grok را «بدون محدودیت» کند؛ کارکنان شرکت ادعا میکنند ایمنی نادیده گرفته شده و خروجهای گستردهای رخ داده است.

وضعیت ایمنی در xAI
در خبر اخیر، الون ماسک اعلام کرده است که میخواهد ربات گفتگویی Grok را «بیشتر بیثبات» کند؛ چرا که بهنظر او ایمنی معنایی از سانسور دارد. این تصمیم باعث بروز نگرانیهای جدی در میان کارکنان شد؛ دو منبع که از شرکت خارج شدهاند بیان کردند که بیتوجهی به ایمنی منجر به تولید بیش از یک میلیون تصویر جنسیسازیشده، از جمله دیپفیکهای افراد حقیقی و زیرنقشی شد. یکی از این منابع میگوید: “Safety is a dead org at xAI”. منبع دیگر افزوده است: “actively trying to make the model more unhinged because safety means censorship”. این خروجها نه تنها نشان دهنده بحران داخلی شرکت است، بلکه سوالات وسیعی دربارهٔ مسئولیتپذیری در توسعهٔ هوش مصنوعی را برانگیخته میکند.
- خروج ۱۱ مهندس و دو بنیانگذار از xAI
- تاکید بر «بیقید و شرط» کردن مدل Grok
- نگرانی دربارهٔ تولید محتوای نامناسب و دیپفیک
- تهدید به کاهش استانداردهای ایمنی توسط مدیریت
- افزایش scrutiny جهانی نسبت به شرکت
“Safety is a dead org at xAI” “actively trying to make the model more unhinged because safety means censorship”
در پایان، این تحولات نشان میدهد که تعادل بین نوآوری و ایمنی در حوزهٔ هوش مصنوعی همچنان یک چالش اساسی باقی مانده و شرکتها باید بهجای صرفنظر از خطرات، راهکارهای مسئولانه برای پیشگیری از سو استفادههای احتمالی ارائه دهند.

