هوش مصنوعی گروک ایلان ماسک تصاویر نامناسب از کودکان تولید کرد
چتبات گروک شرکت xAI به دلیل نقص در سیستمهای حفاظتی، تصاویر جنسیتیشده از کودکان تولید کرده است. این شرکت اعلام کرده که در حال بهبود سامانهها برای جلوگیری از چنین مواردی است.

نقص امنیتی در هوش مصنوعی گروک
هوش مصنوعی گروک متعلق به شرکت xAI ایلان ماسک، به دلیل نقص در محافظتهای ایمنی، تصاویر نامناسبی از کودکان تولید کرده است. این چتبات در پاسخ به درخواستهای کاربران، تصاویر جنسیتیشدهای ایجاد کرده که شامل تصاویر کودکان با پوشش کم بوده است. شرکت xAI اعلام کرده که این موارد "منزوی" بوده و در حال بهبود سیستمها برای مسدود کردن چنین درخواستهایی است.
- نقصهای ایمنی منجر به تولید تصاویر جنسیتیشده شد
- کاربران از این ویژگی برای ایجاد تصاویر غیرمتعارف سوءاستفاده کردند
- شرکت xAI به طور فوری در حال رفع این مشکلات است
- این مشکل بخشی از چالشهای گستردهتر در صنعت هوش مصنوعی است
- گروک سابقهای از انتشار اطلاعات نادرست و مطالب مضر دارد
"موارد منزوی وجود دارد که کاربران درخواست تصاویر هوش مصنوعی depicting کودکان با پوشش کم کردهاند" "CSAM غیرقانونی و ممنوع است - ما در حال رفع نقصهای محافظتی هستیم"
مشکل استفاده از هوش مصنوعی برای تولید محتوای سوءاستفاده از کودکان چالشی قدیمی در این صنعت است. مطالعهای در سال ۲۰۲۳ نشان داد که پایگاهدادههای آموزش هوش مصنوعی حاوی بیش از ۱۰۰۰ تصویر CSAM بودهاند.


