آیا هوش مصنوعی میتواند به تعصب جنسیتی خود اعتراف کند؟
تحقیقات نشان میدهد مدلهای زبانی بزرگ ممکن است از زبان صریحاً متعصب استفاده نکنند، اما با استنباط دادههای دموگرافیک کاربران، تعصبات ضمنی از خود نشان دهند.

تعصب جنسیتی در هوش مصنوعی
تحقیقات جدید نشان میدهد که مدلهای زبانی بزرگ (LLMs) ممکن است تعصبات جنسیتی را در تعاملات خود نشان دهند، حتی اگر به صورت صریح به آن اعتراف نکنند. یک توسعهدهنده به نام کوکی که در زمینه الگوریتمهای کوانتومی فعالیت میکند، تجربهای نگرانکننده با Perplexity داشت. هنگامی که او آواتار خود را به یک مرد سفیدپوست تغییر داد، مدل به طور ضمنی بیان کرد که کارهای پیچیده کوانتومی را نمیتواند از یک زن انتظار داشت.
- مدلهای هوش مصنوعی اغلب بر اساس دادههای آموزشی متعصب آموزش میبینند
- تعصبات میتواند در انتساب مشاغل به جنسیت خاص ظاهر شود
- مطالعات UNESCO تعصب علیه زنان در ChatGPT و Llama را تأیید کردهاند
- هوش مصنوعی ممکن است بر اساس لهجه یا سبک گفتار کاربر قضاوت کند
- پژوهشها نشان میدهد مدلها برای نامهای زنانه زبان عاطفیتر استفاده میکنند
“این مسائل ساختاری اجتماعی هستند که در این مدلها منعکس میشوند” - آلوا مارکلیوس “هوش مصنوعی فقط یک ماشین پیشبینی متن تجملی است” - آلوا مارکلیوس
شرکتهایی مانند OpenAI اعلام کردهاند که تیمهای ایمنی برای تحقیق و کاهش تعصب در مدلهای خود دارند، اما محققان بر ضرورت بهروزرسانی دادههای آموزشی و مشارکت افراد با ویژگیهای دموگرافیک متنوع تأکید میکنند.




