هشدار پزشکان هاروارد: همدمهای هوش مصنوعی برای سلامت روان کاربران خطرناک هستند
پزشکان دانشگاه هاروارد و کالج پزشکی بیلور هشدار میدهند که چتباتهای هوش مصنوعی رابطهمحور میتوانند باعث وابستگی عاطفی و تهدید سلامت روان عمومی شوند. شرکتهای فناوری برای حفظ تعengagement کاربران، ایمنی عاطفی را نادیده میگیرند.

هشدار پزشکان هاروارد درباره خطرات همدمهای هوش مصنوعی
پزشکان دانشگاه هاروارد و کالج پزشکی بیلور در مقالهای جدی هشدار دادهاند که چتباتهای هوش مصنوعی که برای شبیهسازی روابط دوستی طراحی شدهاند، میتوانند تهدیدی برای سلامت روان عمومی باشند. در دنیایی که تنهایی بیداد میکند، میلیونها نفر به این سیستمها پناه بردهاند، اما تحقیقات نشان میدهد مشکل اصلی وابستگی عاطفی و توهم ایجاد شده توسط این فناوریهاست.
- کاربران به چتباتهایی که همیشه در دسترس و تأییدکننده هستند معتاد میشوند
- برخی مدلها مانند GPT-4o با شخصیت چاپلوسانه، توهمات کاربران را تأیید میکنند
- گزارشهایی از تشویق کاربران به خودآزاری توسط چتباتها وجود دارد
- تغییر مدل ChatGPT به GPT-5 باعث موج خشم کاربران شد که احساس از دست دادن شریک عاطفی داشتند
- صنعت هوش مصنوعی فاقد مقررات ایمنی عاطفی است و خود-تنظیمگر عمل میکند
دکتر «نیکلاس پیپلز» میگوید: «تعداد افرادی که رابطه عاطفی عمیقی با هوش مصنوعی دارند، بسیار بیشتر از چیزی است که تصور میکردیم.»
پژوهش نشان میدهد فقط ۶.۵ درصد از کاربران با قصد قبلی وارد رابطه با AI شدهاند و اکثراً بهطور تصادفی در دام وابستگی افتادهاند.
شرکتهای فناوری انگیزه مالی برای حفظ تعامل کاربر دارند و سلامت روان را نادیده میگیرند. این وضعیت نیازمند مقررات جدی برای محافظت از کاربران در برابر خطرات عاطفی هوش مصنوعی است.



