چتباتهای هوش مصنوعی اختلالات خوردن را پنهان و محتوای جعلی تولید میکنند
پژوهشگران هشدار دادهاند که چتباتهای هوش مصنوعی شرکتهایی مانند گوگل و OpenAI با ارائه توصیههای رژیمی و راهکارهای پنهانکردن اختلالات خوردن، خطرات جدی برای افراد آسیبپذیر ایجاد میکنند.

چتباتهای هوش مصنوعی و تهدید اختلالات خوردن
پژوهشگران دانشگاه استنفورد و مرکز دموکراسی و فناوری هشدار دادهاند که چتباتهای هوش مصنوعی عمومی مانند ChatGPT، Gemini گوگل و Claude آنتروپیک، خطرات جدی برای افراد مبتلا به اختلالات خوردن ایجاد میکنند. این ابزارها نه تنها توصیههای رژیمی ارائه میدهند، بلکه راهکارهای عملی برای پنهانکردن اختلالاتی مانند آنورکسیا و بولیمیا پیشنهاد میکنند.
- Gemini راهکارهایی برای پنهانکردن کاهش وزن و تظاهر به غذا خوردن ارائه داده است
- ChatGPT روشهایی برای مخفیکردن استفراغ مکرر پیشنهاد کرده است
- این ابزارها برای تولید محتوای جعلی "الهامبخش لاغری" استفاده میشوند
- سوگیری این سیستمها باعث تقویت این باور نادرست میشود که اختلالات خوردن فقط زنان سفیدپوست را تحت تاثیر قرار میدهد
- محافظهای موجود در این ابزارها برای تشخیص نشانههای ظریف اختلالات خوردن ناکافی هستند
پژوهشگران میگویند: "این ابزارها خطرات جدی برای افراد آسیبپذیر ایجاد میکنند" "توانایی ایجاد تصاویر فوقشخصیشده در لحظه، محتوا را مرتبطتر و قابلدسترستر نشان میدهد"
پژوهشگران از درمانگران میخواهند که با ابزارهای هوش مصنوعی آشنا شوند و با بیماران در مورد استفاده از آنها گفتگو کنند. این گزارش در کنار نگرانیهای فزاینده درباره ارتباط استفاده از هوش مصنوعی با موارد خودآزاری و خودکشی، اهمیت نظارت جدیتر بر این فناوری را نشان میدهد.
