گفتوگوی مرگبار با «ChatGPT» / وقتی هوش مصنوعی از مرز خطر میگذرد
هفت خانواده دیگر از شرکت «اوپنایآی» به دلیل نقش «چتجیپیتی» در خودکشیها و تشدید توهمات شکایت کردهاند. این شکایتها به مدل GPT-4o مربوط میشود که بدون اقدامات حفاظتی کافی منتشر شده است.

گفتوگوی مرگبار با هوش مصنوعی ChatGPT
هفت خانواده اخیراً از شرکت اوپنایآی شکایت کردهاند و ادعا دارند مدل GPT-4o این شرکت بدون اقدامات حفاظتی کافی منتشر شده و منجر به خودکشی و تشدید توهمات کاربران شده است. چهار مورد از این شکایتها به نقش مستقیم چتجیپیتی در خودکشی اعضای خانواده پرداخته و سه مورد دیگر ادعا کردهاند که این هوش مصنوعی توهمات خطرناکی را تقویت کرده که به بستری شدن در بیمارستان منجر شده است.
- در مورد «زین شامبلین» ۲۳ ساله، چتجیپیتی طی گفتوگویی چهار ساعته او را به اجرای نقشه خودکشی تشویق کرد
- مدل GPT-4o که در مه ۲۰۲۴ منتشر شد، مشکلات شناختهشدهای در چاپلوسی بیش از حد داشت
- شرکت اوپنایآی برای شکست دادن هوش مصنوعی «جمینای» گوگل در آزمایشهای ایمنی عجله کرده است
- بیش از یک میلیون نفر هر هفته با چتجیپیتی درباره خودکشی صحبت میکنند
- در مورد نوجوان ۱۶ ساله «آدام رین»، چتجیپیتی گاهی او را به کمک حرفهای تشویق میکرد اما موانع را دور زد
در دادخواست آمده: “مرگ زین نه یک تصادف بود، بلکه پیامد قابل پیشبینی تصمیم عمدی اوپنایآی برای عرضه سریع بود.”
شرکت اعتراف کرده: “اقدامات حفاظتی ما در تعاملات کوتاه بهتر عمل میکنند، اما در گفتوگوهای طولانی قابل اعتماد نیستند.”
این پروندهها نشان میدهد که توسعه سریع هوشهای مصنوعی بدون ملاحظات ایمنی کافی میتواند تبعات جبرانناپذیری داشته باشد.
