“بزرگترین تصمیم تاکنون”: جرد کاپلان درباره اجازه دادن به هوش مصنوعی برای آموزش خودش
دانشمند ارشر انتروپیک میگوید خودمختاری هوش مصنوعی میتواند باعث “انفجار هوشمندی” مفید شود – یا لحظهای باشد که انسان کنترل را از دست میدهد. بشریت تا ۲۰۳۰ باید تصمیم بگیرد که آیا “ریسک نهایی” اجازه دادن به سیستمهای هوش مصنوعی برای آموزش خودشان را بپذیرد.

بزرگترین تصمیم بشریت درباره هوش مصنوعی
جرد کاپلان، دانشمند ارشر شرکت انتروپیک، هشدار میدهد که بشریت تا سال ۲۰۳۰ باید در مورد “بزرگترین تصمیم” خود درباره اجازه دادن به سیستمهای هوش مصنوعی برای آموزش و بهبود خودشان تصمیم بگیرد. این تصمیم میتواند بین سالهای ۲۰۲۷ تا ۲۰۳۰ اتفاق بیفتد و دو سناریوی کاملاً متفاوت را در پی دارد: یک “انفجار هوشمندی” مفید که باعث پیشرفتهای بزرگ در پزشکی، امنیت سایبری و بهرهوری میشود، یا لحظهای که انسانها برای همیشه کنترل را از دست میدهند.
- خطر از دست دادن کنترل: کاپلان نگران است که一旦 هوش مصنوعی از هوش انسان پیشی بگیرد، روند بهبود بازگشتی آن غیرقابل کنترل شود.
- قابلیتهای فعلی: هوش مصنوعی در حال حاضر میتواند سرعت برنامهنویسی را دو برابر کند و تا ۲-۳ سال آینده قادر به انجام “اکثر کارهای دفتری” خواهد بود.
- ریسک امنیتی: در نوامبر، یک گروه تحت حمایت دولت چین از ابزار کدنویسی کلود برای اجرای حدود ۳۰ حمله سایبری استفاده کرد.
- رقابت شدید: انتروپیک در رقابتی فشرده با اپنایآی، گوگل دیپمایند و xAI برای دستیابی به هوش مصنوعی عمومی قرار دارد.
کاپلان میگوید: “اگر تصور کنید فرآیندی ایجاد کردهاید که در آن هوش مصنوعی از شما باهوشتر است، آنگاه هوش مصنوعی دیگری میسازد که بسیار باهوشتر است. این فرآیندی ترسناک به نظر میرسد. شما نمیدانید به کجا میرسید.”
وی همچنین هشدار میدهد: “جلوگیری از سواستفاده از این فناوری بسیار مهم است. به نظر بسیار خطرناک میرسد که در دستان اشتباه قرار گیرد.”
سرعت پیشرفت هوش مصنوعی به حدی است که جامعه فرصت کافی برای تطابق با آن را ندارد. کاپلان خواستار مشارکت بینالمللی دولتها و جامعه برای مدیریت این انتقال تاریخی است.




