تنظیمگری هوش مصنوعی از ساندویچها کمتر؛ شرکتهای فناوری بهسوی ابرهوش میشتابند
مطالعه جدید موسسه آینده زندگی نشان میدهد هشت شرکت پیشروی هوش مصنوعی برنامه معتبری برای جلوگیری از خطرات فاجعهبار ندارند. این گزارش هشدار میدهد ناکامی در ایمنی هوش مصنوعی با ریسکهای وجودی همراه است.

گزارش هشداردهنده درباره ایمنی هوش مصنوعی
یک مطالعه جدید توسط موسسه آینده زندگی (FLI) نشان میدهد که هشت شرکت بزرگ هوش مصنوعی جهان از جمله OpenAI، Meta، Anthropic و DeepSeek برنامههای معتبری برای جلوگیری از خطرات فاجعهبار هوش مصنوعی ندارند. این گزارش که شاخص ایمنی هوش مصنوعی زمستان ۲۰۲۵ نام دارد، هشدار میدهد که این ناکامیها با خطرات «فاجعهبار» همراه است.
ارزیابی شرکتهای پیشرو
- شرکتها در شش حوزه کلیدی ارزیابی شدند: ارزیابی ریسک، آسیبهای جاری، چارچوبهای ایمنی، ایمنی وجودی، حکمرانی و پاسخگویی
- هیچ شرکتی برنامه قابلآزمونی برای حفظ کنترل انسانی بر سامانههای بسیار توانمند ارائه نکرده است
- Anthropic، OpenAI و Google DeepMind بهدلیل شفافیت نسبی مورد تحسین قرار گرفتند اما همچنان ضعفهایی دارند
استوارت راسل، استاد دانشگاه برکلی: «بهدنبال اثباتی هستم که نشان دهد میتوانند خطر سالانه از دست رفتن کنترل را به یک در صد میلیون کاهش دهند.»
مکس تگمارک، رئیس FLI: «هوش مصنوعی در ایالات متحده کمتر از ساندویچها تنظیمگری شده و لابیگری علیه استانداردهای ایمنی ادامه دارد.»
این گزارش در حالی منتشر میشود که نگرانیها درباره ابرهوش و هوش عمومی مصنوعی (AGI) در حال افزایش است. شرکتهای فناوری بهسوی توسعه هوش مصنوعی فراانسانی میشتابند بدون آنکه برنامه مشخصی برای کنترل خطرات داشته باشند.




