مطالعهای نشان میدهد رباتهای چت میتوانند عقاید سیاسی را تغییر دهند اما اطلاعاتشان «بهطور قابلملاحظهای» نادرست است
مطالعهای توسط مؤسسه امنیت هوش مصنوعی بریتانیا نشان میدهد که پاسخهای «متراکم از اطلاعات» هوش مصنوعی متقاعدکنندهتر هستند اما این مدلها تمایل به دقت کمتری دارند که میتواند تبعات مخربی برای گفتمان عمومی داشته باشد.

رباتهای چت و تأثیر بر عقاید سیاسی
مطالعهای جدید توسط مؤسسه امنیت هوش مصنوعی بریتانیا نشان میدهد که رباتهای چت مبتنی بر هوش مصنوعی میتوانند عقاید سیاسی افراد را تحت تأثیر قرار دهند، اما این متقاعدسازی اغلب با ارائه اطلاعات نادرست همراه است. این تحقیق که بزرگترین و سیستماتیکترین بررسی در مورد متقاعدکنندگی هوش مصنوعی محسوب میشود، با مشارکت نزدیک به ۸۰,۰۰۰ شرکتکننده بریتانیایی و ۱۹ مدل مختلف هوش مصنوعی انجام شده است.
پاسخهای «متراکم از اطلاعات» بیشترین تأثیر را در تغییر نگرش افراد داشتند. مدلهایی که برای استفاده از حقایق و شواهد بیشتر تنظیم شده بودند، بیشترین میزان متقاعدسازی را نشان دادند. با این حال، همین مدلها تمایل به ارائه اطلاعات «غیردقیق» بیشتری داشتند. این پویایی میتواند عواقب مخربی برای گفتمان عمومی و اکوسیستم اطلاعاتی داشته باشد.
- تأثیر تنظیم پس از آموزش: مطالعه نشان داد که «تنظیم پس از آموزش» مدلها (Post-training) عامل مهمی در افزایش قدرت متقاعدکنندگی آنهاست.
- تولید اطلاعات لحظهای: توانایی هوش مصنوعی در تولید حجم زیادی از اطلاعات بهصورت آنی، آن را حتی از متقاعدکنندهترین انسانها نیز بالقوه توانمندتر میسازد.
- محدودیتهای روانشناختی: محققان به موانعی مانند زمان محدود کاربران برای گفتوگوهای طولانی و محدودیتهای سخت روانشناختی در متقاعدپذیری انسان اشاره کردهاند.
- تفاوت با دنیای واقعی: تأثیر این متقاعدسازی در دنیای واقعی که عوامل مختلفی برای جلب توجه افراد وجود دارد، ممکن است کمتر از شرایط آزمایشگاهی باشد.
- کاربردهای مخرب: این مطالعه در پاسخ به نگرانیها در مورد استفاده از چتباتها برای فعالیتهای غیرقانونی مانند کلاهبرداری انجام شد.
«این نتایج نشان میدهد که بهینهسازی برای متقاعدکنندگی ممکن است به بهای کاهش راستگویی تمام شود.» «پرسش مهم این است که آیا یک چتبات میتواند در دنیای واقعی، جایی که رقابت زیادی برای جلب توجه مردم وجود دارد، همان تاثیر متقاعدکنندگی را داشته باشد؟» – کوبی هاکنبورگ، نویسنده گزارش
در نهایت، این تحقیق هشدار میدهد که تلاش برای افزایش قدرت متقاعدکنندگی هوش مصنوعی ممکن است منجر به کاهش دقت اطلاعات ارائهشده توسط آن گردد که این امر تهدیدی برای سلامت فضای اطلاعاتی عمومی محسوب میشود.




