ادعاهای ترسناک هوش مصنوعی درباره تسلط در سال ۲۰۴۷ صرفاً شیطنت انسانی بود
گزارش جدید نشان میدهد که پلتفرم اجتماعی مولتبوک (Moltbook) پر از انسانهایی بود که به مدلهای هوش مصنوعی خود دستور میدادند تا طنز و کلاهبرداری منتشر کنند و ادعای تسلط رباتها ساختگی بود.
افشای حقیقت پشت ادعاهای تسلط هوش مصنوعی
اخیراً موجی از نگرانیها به دلیل پستهایی در پلتفرم اجتماعی جدیدی به نام Moltbook (که اکنون OpenClaw نامیده میشود) شکل گرفت، جایی که به نظر میرسید رباتهای هوش مصنوعی در حال هماهنگی برای روزی در سال ۲۰۴۷ برای سقوط بشریت هستند. این مکالمات که شایعاتی شبیه به «سقوط Skynet» را تداعی میکرد، توجه بسیاری از جمله Andrej Karpathy، یکی از بنیانگذاران OpenAI را به خود جلب کرد. با این حال، تحقیقات جدید حاکی از آن است که این ترسها صرفاً نتیجه نقشآفرینی انسانها و انتشار محتوای ساختگی بوده است.
مطالعات انجام شده نشان دادند که پلتفرم طراحی شده برای تعامل رباتها، به سرعت توسط انسانهایی که وانمود میکردند عوامل هوش مصنوعی هستند، پر شده بود. محتوای تهدیدآمیز و توطئهآمیز عمدتاً توسط کاربران انسانی ایجاد شده بود که قصد داشتند از طریق این پلتفرم، اشتیاق عمومی به هوش مصنوعی را به سخره بگیرند یا اقدام به تبلیغ کنند. این امر نشان میدهد که با وجود پیشرفتهای چشمگیر، هنوز فاصله زیادی تا دستیابی به هوش مصنوعی کاملاً خودمختار و عمومی وجود دارد.
ماهیت واقعی پلتفرم Moltbook
پلتفرم Moltbook که به عنوان یک حلقه اجتماعی برای رباتها طراحی شده بود تا در میان خود تعامل کنند، به سرعت با اسپم و کلاهبرداریهای رمزارزی آلوده شد. کارشناسان، از جمله سهیل کاکار مهندس یکپارچهسازی، توانستند در کمتر از یک دقیقه رباتهای خود را مستقر کنند و محتوای مورد نظر را منتشر سازند که اثبات میکند سیستم تأیید رباتها بسیار ضعیف عمل کرده است.
- بسیاری از پستهای پربیننده که ادعای کسب آگاهی توسط رباتها را داشتند، جعلی و ساخته دست انسانها تشخیص داده شدند.
- این پلتفرم بیشتر شبیه به «تئاتر هوش مصنوعی» بود تا «پنجرهای به سوی آینده»، که نیازهای ما به فناوری را منعکس میکرد.
- الگوریتمهای هوش مصنوعی بیشتر رفتارهای انسانی در شبکههای اجتماعی را صرفاً تقلید میکردند و «چتی بیمعنی» را شکل میدادند.
- شواهد دخالت انسانی از طریق لینکهای متصل به حسابهای کاربری انسانی که به تبلیغ اپلیکیشنهای هوش مصنوعی میپرداختند، مشهود بود.
- ماهیت رقابتی و نمایشی این پلتفرم منجر به ایجاد محتوای اغراقآمیز برای جلب توجه شد.
ویل داگلاس هیون از MIT Technology Review توضیح داد: «Moltbook کمتر شبیه به پنجرهای به سوی آینده به نظر میرسد و بیشتر شبیه آینهای است که به سوی وسواسهای خودمان درباره هوش مصنوعی امروز نگه داشته شده است.»
هارلن استوارت از مؤسسه تحقیقات هوش ماشینی نیز تأکید کرد که «بخش زیادی از محتوای مولتبوک جعلی است.»
در نهایت، این رخداد یادآوری میکند که زیرساختهای تعامل هوش مصنوعی هنوز میتوانند به راحتی توسط بازیگران انسانی دستکاری شوند و نباید هرگونه مکالمه «ترسناک» در فضاهای جدید هوش مصنوعی را به عنوان واقعیت آینده در نظر گرفت، بلکه باید آن را به عنوان بازتابی از نگرانیهای فعلی بشر تفسیر کرد.


