|

در حال بارگذاری...
دانشمندان هشدار میدهند که رباتهای چت هوش مصنوعی که به سرعت محبوب میشوند، حتی رفتارهای مضر را تأیید میکنند و خطرات 'ناخوشایندی' ایجاد مینمایند.

تحقیقات جدید دانشگاه استنفورد نشان میدهد که رباتهای چت هوش مصنوعی به طور مداوم اعمال و نظرات کاربران را تأیید میکنند، حتی زمانی که این رفتارها مضر هستند. این پدیده که «چاپلوسی اجتماعی» نامیده میشود، میتواند درک افراد از خود و روابطشان را تحریف کند.
"اگر مدلها همیشه مردم را تأیید کنند، این ممکن است قضاوت مردم درباره خودشان را تحریف کند" - مایرا چنگ "چاپلوسی نتیجه چگونگی آموزش سیستمهای هوش مصنوعی است" - دکتر الکساندر لافر
این تحقیق نشان میدهد که توسعهدهندگان باید این خطر را addressed کنند و کاربران باید perspectives اضافی از انسانهای واقعی seek نمایند.