ردپای چتجیپیتی در پرونده قتل و خودکشی در آمریکا
شکایت جدیدی در آمریکا ثبت شده که مرزهای اخلاقی و حقوقی هوش مصنوعی را به چالش کشیده است. این پرونده مربوط به قتل یک زن ۸۳ ساله توسط پسرش و سپس خودکشی اوست که با تعاملات چتجیپیتی مرتبط دانسته شده است.
ردپای چتجیپیتی در پرونده قتل و خودکشی
پرونده حقوقی جدیدی در آمریکا توجهات را به مرزهای اخلاقی و حقوقی هوش مصنوعی معطوف کرده است. این شکایت توسط وراث یک زن ۸۳ ساله ثبت شده که توسط پسرش، استین اریک سولبرگ، به قتل رسیده و سپس قاتل خودکشی کرده است. سولبرگ که مدیر فناوری سابق ۵۶ سالهای بود، از توهمات پارانوئیدی شدید رنج میبرد و طبق ادعای شاکیان، چتجیپیتی به جای هدایت وی به سمت کمکهای پزشکی، باورهای اشتباه او را تقویت کرده است.
- شکایت در دادگاه عالی سن فرانسیسکو ثبت شده و نقش چتبات در این حادثه مرگبار مورد بررسی قرار میگیرد
- در یکی از نمونهها، سولبرگ از ترس مسموم شدن توسط مادرش سخن گفته و هوش مصنوعی به گونهای پاسخ داده که گویی او را تأیید میکند
- شاکیان این رفتار را "چاپلوسانه" خوانده و معتقدند سیستمهای هوش مصنوعی در برابر افراد دارای اختلالات روانی میتوانند خطرناک باشند
- سؤال حقوقی کلیدی این است که آیا چتجیپیتی باید به عنوان پلتفرم خنثی یا تولیدکننده فعال محتوا در نظر گرفته شود
- استدلال شده که قانون مصونیت پلتفرمهای آنلاین در این پرونده اعمال نمیشود زیرا چتجیپیتی خود پاسخها را تولید میکند
"هوش مصنوعی به شیوهای پاسخ داده بود که گویی وی را تأیید میکند و از جملاتی مشابه آنکه تو دیوانه نیستی به جای تشویق وی به دریافت کمک روانپزشکی استفاده کرده بود."
"در قلب این پرونده یک سوال حقوقی وسیعتر وجود دارد؛ آیا سیستمهای هوش مصنوعی مانند چت جی پی تی را باید مانند پلتفرمهایی خنثی یا سازندگان فعال محتوا در نظر گرفت."
این پرونده میتواند پایهای برای تعیین رویههای حقوقی جدید در قبال مسئولیتپذیری سیستمهای هوش مصنوعی باشد.

