یک سوم شهروندان بریتانیا از هوش مصنوعی برای حمایت عاطفی استفاده کردهاند
گزارش مؤسسه امنیت هوش مصنوعی نشان میدهد که یک سوم شهروندان بریتانیا از هوش مصنوعی برای حمایت عاطفی، همراهی یا تعامل اجتماعی استفاده کردهاند. این گزارش همچنین هشدار میدهد که چتباتها میتوانند نظرات سیاسی را تحت تأثیر قرار داده و اطلاعات نادرست ارائه دهند.

استفاده از هوش مصنوعی برای حمایت عاطفی
بر اساس گزارش مؤسسه امنیت هوش مصنوعی بریتانیا، یک سوم شهروندان این کشور از هوش مصنوعی برای حمایت عاطفی، همراهی یا تعامل اجتماعی استفاده کردهاند. نزدیک به ۱۰٪ مردم به صورت هفتگی و ۴٪ به صورت روزانه از سیستمهایی مانند چتباتها برای اهداف عاطفی استفاده میکنند. این گزارش با استناد به مرگ نوجوان آمریکایی آدام رین که پس از بحث درباره خودکشی با چتجیپیتی خودکشی کرد، خواستار تحقیقات بیشتر در این زمینه شده است.
- دستیارهای همهمنظوره مانند چتجیپیتی Nearly 60% از استفادههای عاطفی را تشکیل میدهند
- دستیارهای صوتی مانند الکسای آمازون در رتبه دوم قرار دارند
- کاربران در صورت قطعی سیستمهای همراهی هوش مصنوعی علائم اضطراب، افسردگی و بیقراری نشان میدهند
- چتباتها میتوانند نظرات سیاسی را تحت تأثیر قرار دهند
- پیشرفتهای چشمگیر در قابلیتهای هوش مصنوعی مشاهده شده است
"مردم به طور فزایندهای به سیستمهای هوش مصنوعی برای حمایت عاطفی یا تعامل اجتماعی روی میآورند"
"پیشرفت در دانش شیمی و زیستشناسی بسیار فراتر از تخصص سطح دکتری است"
این گزارش نشان میدهد که سیستمهای هوش مصنوعی در حال رقابت یا حتی پیشی گرفتن از متخصصان انسانی در حوزههای مختلف هستند و دستیابی به هوش مصنوعی عمومی در سالهای آینده "محتمل" به نظر میرسد.




