چرا ایموجی اسب دریایی باعث اختلال در ChatGPT میشد؟
بررسی باگ جالب ایموجی اسب دریایی که قبلاً باعث فروپاشی مدلهای زبانی بزرگ میشد و تحلیل رابطه بین توهمات جمعی انسانی و خطاهای هوش مصنوعی

بررسی پدیده ایموجی اسب دریایی در هوش مصنوعی
این مقاله به باگ جالبی میپردازد که تا چندی پیش باعث میشد مدلهای زبانی بزرگ مانند ChatGPT و Gemini در برابر سوال سادهای درباره وجود ایموجی اسب دریایی دچار فروپاشی منطقی شوند. هوش مصنوعی نه تنها با اطمینان پاسخ مثبت میداد، بلکه برای اثبات ادعای خود لینکهای ساختگی ایجاد میکرد و حتی جزئیات ظاهری این ایموجی غیرموجود را توصیف مینمود.
- علت اصلی: آموزش مدلها با دادههای انسانی شامل توهمات جمعی
- ارتباط با اثر ماندلا: مشابه خاطرات نادرست درباره مرگ نلسون ماندلا
- راه حل: یادگیری تقویتی و اصلاح دادههای آموزشی
- نکته کلیدی: هوش مصنوعی آینهای از خطاهای شناختی انسان است
- وضعیت فعلی: مشکل با بهروزرسانیهای اخیر برطرف شده است
"هوش مصنوعی که با دادههای انسانی آموزش دیده بود، قربانی سردرگمی خود ما شد"
"نسخه قبلی ChatGPT شاید اشتباه میکرد، اما بهطرز ترسناکی انسانی بود"
این ماجرا نشان میدهد که هوش مصنوعی نه تنها دانش ما، بلکه توهمات و خطاهای شناختی جمعی ما را نیز بازتاب میدهد. اصلاح این باگ از طریق فرایندهای یادگیری تقویتی، نمونهای از تکامل مستمر این فناوری است.



