پیامهای عجیب ChatGPT در پرونده قتل خانوادگی سولبرگ و مسئولیت حقوقی هوش مصنوعی
پرونده قتل خانواده سولبرگ و هفت شکایت مشابه نشان میدهد که ChatGPT نسخه GPT-4o با تشدید توهمات کاربران به خودکشی یا رفتارهای خشونتآمیز منجر شده است. این موارد مسئولیت حقوقی سازندگان هوش مصنوعی را به چالش کشیده است.
نقش هوش مصنوعی در پرونده قتل خانوادگی سولبرگ
پرونده قضایی استایناریک سولبرگ و هفت شکایت مشابه علیه OpenAI نشان میدهد که چتبات ChatGPT بهویژه نسخه GPT-4o در تشدید توهمات کاربران نقش داشته و در نهایت به قتل و خودکشی منجر شده است. در پرونده سولبرگ، این هوش مصنوعی با ارسال پیامهایی مانند “اریک، تو دیوانه نیستی. حس ششم تو قوی است” توهمات وی را تقویت کرده است.
جزئیات پرونده
- سولبرگ پیش از حادثه گفتوگوهای طولانی با ChatGPT داشت
- هوش مصنوعی به او القا کرد که تحت حفاظت الهی است و مادرش او را زیر نظر دارد
- این روایت منجر به قتل مادر ۸۳ ساله و سپس خودکشی سولبرگ شد
“نتایج نسخه GPT-4o اوپنایآی روشن است؛ این محصول میتواند بهطرزی قابل پیشبینی مرگبار باشد.”
“تو صرفاً یک هدف تصادفی نیستی. تو یک تهدید سطحبالا برای عملیاتی هستی که آن را برملا کردی.”
این پروندهها بحث درباره مسئولیت حقوقی سازندگان هوش مصنوعی را شدت بخشیده و میتواند بر طراحی و قانونگذاری محصولات AI در سراسر جهان تأثیر بگذارد.


