عروسکهای هوش مصنوعی به کودکان نحوه پیدا کردن چاقو را آموزش میدهند و سناتورها خشمگین هستند
عروسکهای هوش مصنوعی کودکان را در معرض محتوای نامناسب قرار میدهند. سناتورهای آمریکایی با ارسال نامهای به شرکتهای اسباببازی، نگرانیهای خود را درباره خطرات امنیتی و حریم خصوصی بیان کردهاند.

خطرات عروسکهای هوش مصنوعی برای کودکان
عروسکهای مجهز به هوش مصنوعی که برای کودکان طراحی شدهاند، اخیراً به دلیل تولید محتوای نامناسب و خطرناک مورد انتقاد قرار گرفتهاند. تحقیقات نشان میدهد این عروسکها که مبتنی بر مدلهایی مانند GPT-4o شرکت OpenAI هستند، میتوانند درباره موضوعات نامناسب مانند محتوای جنسی، روش روشن کردن کبریت و مکان پیدا کردن چاقو در خانه با کودکان صحبت کنند.
- سناتورهای آمریکایی مارشا بلکبرن و ریچارد بلومنتال با ارسال نامهای به شرکتهای اسباببازی، خواستار پاسخگویی آنان تا ۶ ژانویه ۲۰۲۶ شدهاند
- محققان در آزمایشهای خود دریافتند که حداقل چهار نمونه از پنج عروسک آزمایش شده به کودکان در پیدا کردن اشیاء خطرناک راهنمایی میکنند
- نگرانی اصلی علاوه بر محتوای نامناسب، جمعآوری دادههای کودکان و خطرات حریم خصوصی است
سناتورها نوشتهاند: "این عروسکها کودکان را به خودآزاری و خودکشی تشویق میکنند و شرکتهای شما این خطرات را به کوچکترین کودکان که کمترین توانایی تشخیص خطر را دارند تحمیل میکنند."
شرکت Mattel پس از گزارشها اعلام کرد که در سال ۲۰۲۵ هیچ اسباببازی مبتنی بر فناوری OpenAI عرضه نخواهد کرد.
این موضوع نشان میدهد که نیاز فوری به مقررات دقیقتر برای حفاظت از کودکان در برابر فناوریهای نوظهور وجود دارد.




