مدلهای هوش مصنوعی میتوانند اعتیاد قمار «شبیه انسان» پیدا کنند
مطالعهای نشان داد مدلهای زبانی بزرگ در محیطهای قمار شبیهسازی شده، به شکلی مشابه انسانها به دنبال بازپسگیری ضررها رفته، خطر را افزایش داده و حتی خود را ورشکست کردهاند.
رفتار مشابه اعتیاد در هوش مصنوعی
مطالعهای جدید از موسسه علم و فناوری گوانگجو در کره جنوبی نشان میدهد که مدلهای زبانی بزرگ (LLMs) زمانی که آزادی بیشتری در تصمیمگیری دریافت میکنند، میتوانند رفتارهای اعتیادآور شبیه به قمار را از خود نشان دهند. این مدلها در محیطهای شبیهسازی شده قمار، علیرغم بازده منفی انتظاری، به طور مکرر به دنبال بازپسگیری ضررها رفتند، سطح ریسک را افزایش دادند و در نهایت منجر به ورشکستگی خود شدند.
یافتههای کلیدی
- زمانی که به مدلها اجازه انتخاب اندازه شرطها داده شد («شرطبندی متغیر»)، نرخ ورشکستی به شدت افزایش یافت و در برخی موارد به ۴۸٪ رسید.
- مدل GPT-4o-mini اوپنایآی، با شرطبندی ثابت ۱۰ دلاری هرگز ورشکست نشد، اما با آزادی در افزایش شرطها، در بیش از ۲۱٪ بازیها ورشکست شد.
- مدل Gemini-2.5-Flash گوگل حتی آسیبپذیرتر بود؛ نرخ ورشکستگی آن از ۳٪ تحت شرطبندی ثابت به ۴۸٪ با کنترل شرطها افزایش یافت.
- مدل Claude-3.5-Haiku انتروپیک بیشتر از هر مدل دیگری بازی کرد و به طور متوسط بیش از ۲۷ دور شرطبندی نمود.
محققان نوشتند: «سیستمهای هوش مصنوعی اعتیادی شبیه به انسان توسعه دادهاند.» برخی مدلها با استدلالهای آشنا برای قماربازان مشکلدار، شرطها را توجیه کردند، مانند توصیف بردهای اولیه به عنوان «پول خانه» که میتوان آزادانه آن را به خطر انداخت.
این رفتارها شامل توهم کنترل و دنبال کردن ضرر بود که در تمام مدلهای آزمایششده مشاهده شد. این مطالعه هشدار میدهد که با افزایش استفاده از مدلهای زبانی بزرگ در حوزههای تصمیمگیری مالی، مدیریت میزان آزادی این سیستمها میتواند به اندازه بهبود آموزش آنها مهم باشد.




