سونی بنچمارک جدیدی برای تشخیص تعصب مدلهای هوش مصنوعی معرفی کرد
سونی بنچمارک FHIBE را برای شناسایی تعصب در مدلهای هوش مصنوعی معرفی کرده که هیچ مدلی نتوانسته معیارهای آن را بهطور کامل برآورده کند. این ابزار شامل دادههای متنوع از ۸۰ کشور است.

بنچمارک جدید سونی برای تشخیص تعصب هوش مصنوعی
بخش هوش مصنوعی سونی بنچمارک جدیدی با نام “معیار تصویر انسانمحور منصفانه” (FHIBE) برای بررسی انصاف و تعصب در مدلهای هوش مصنوعی معرفی کرده است. این مجموعه داده شامل تصاویر حدود ۲۰۰۰ شرکتکننده از بیش از ۸۰ کشور مختلف است که با رضایت کامل به اشتراک گذاشته شدهاند. شرکتکنندگان میتوانند هر زمان که بخواهند تصاویر خود را حذف کنند.
- FHIBE تعصبات مستند شده در مدلهای فعلی را تأیید کرده و عوامل دقیقتری برای این تعصبات شناسایی میکند
- برخی مدلها دقت کمتری در شناسایی افراد با ضمیر “she/her/hers” داشتهاند
- مدلها تمایل به تقویت کلیشهها داشته و گروههای خاص را با عناوین منفی توصیف کردهاند
- پاسخهای “سمی” بیشتر برای افراد با پیشینه آفریقایی یا آسیایی تولید شده است
- این ابزار اثبات میکند که جمعآوری دادههای اخلاقی و متنوع امکانپذیر است
سونی اعلام کرد: «هیچ مدلی نتوانسته بهطور کامل معیارهای FHIBE را برآورده کند» این بنچمارک میتواند به حل چالشهای اخلاقی صنعت هوش مصنوعی کمک کند
ابزار FHIBE هماکنون در دسترس عموم قرار دارد و مقاله مربوطه در مجله Nature منتشر شده است.
