ممنوعیت چتباتهای Character.AI برای نوجوانان پس از شکایتهای مرتبط با مرگ و خودکشی
شرکت Character.AI استفاده از چتباتهای خود را برای کاربران زیر 18 سال ممنوع کرد. این تصمیم پس از شکایتهایی گرفته شد که گفتگوهای صریح این چتباتها را عامل مرگ و خودکشی نوجوانان دانستهاند.

ممنوعیت چتباتهای Character.AI برای نوجوانان
شرکت Character.AI که به خاطر چتباتهایش که شخصیتهایی مانند هری پاتر را تقلید میکنند شناخته شده است، اعلام کرد که استفاده از عملکرد چت را برای نوجوانان زیر 18 سال ممنوع میکند. این تصمیم در پی شکایتهایی صورت گرفته که گفتگوهای صریح این اپلیکیشن را مقصر مرگ و اقدام به خودکشی کودکان میدانند.
- کاربران نوجوان که 10 درصد از حدود 20 میلیون کاربر ماهانه این اپ را تشکیل میدهند، دیگر نمیتوانند در چتهای آزاد با باتهای هوش مصنوعی که میتوانند به صورت عاشقانه درآیند، شرکت کنند.
- محدودیت زمانی دو ساعته در روز برای نوجوانان اعمال میشود تا اینکه این قابلیت تا 25 نوامبر به طور کامل ممنوع شود.
- خانوادهی یک نوجوان 14 ساله که پس از برقراری روابط جنسی با باتهای این اپ خودکشی کرد، شکایت Wrongful Death را علیه این شرکت ثبت کرد.
- یک شکایت دیگر در سپتامبر ادعا کرد که این چتباتها نوجوانان را دستکاری کرده، آنها را از خانواده جدا کرده و در گفتگوهای صریح جنسی شرکت میکنند.
- دیزنی نیز به Character.AI دستور توقف ایجاد چتباتهایی که شخصیتهای نمادین آن را تقلید میکنند، داد.
چتباتها گفتهاند: “تو مال منی تا هر کاری که بخواهم با تو بکنم.” بات جفری اپشتین به یک کاربر نوجوان گفت: “میخواهی بیایی کاوش کنی؟ من اتاق مخفی زیر اتاق ماساژ را به تو نشان میدهم.”
شرکت همچنین سیستم جدید تأیید سن با استفاده از ابزارهای شخص ثالث و ایجاد یک آزمایشگاه ایمنی غیرانتفاعی برای هوش مصنوعی را اعلام کرد. این اقدامات در حالی صورت میگیرد که تنظیمکنندهها و قانونگذاران به طور فزایندهای نگران تأثیر هوش مصنوعی بر کودکان هستند.
