اخراج یک مدیر ارشد OpenAI به دلیل تبعیض جنسی پس از مخالفت با طرح محتوای اروتیک ChatGPT
رایان بایرمیستر، معاون سابق سیاستگذاری محصول در OpenAI، ادعای تبعیض جنسیتی علیه همکار مردش را که منجر به اخراجش شد، قویاً تکذیب کرد.
اخراج مدیر ارشد OpenAI پس از مخالفت با محتوای بزرگسالان
شرکت OpenAI یک مدیر زن ارشد خود، رایان بایرمیستر، معاون سابق سیاستگذاری محصول، را پس از ادعای تبعیض جنسی علیه یک همکار مرد اخراج کرد. این اخراج در حالی صورت گرفت که بایرمیستر پیش از این با طرح شرکت برای راهاندازی یک “حالت بزرگسالان” (adult mode) که مکالمات اروتیک در ChatGPT را مجاز میکرد، مخالفت کرده بود. بایرمیستر که سابقه فعالیت در شرکتهایی مانند Palantir و Meta را در کارنامه دارد، از ژوئن ۲۰۲۴ در OpenAI مشغول به کار بود و تیم سیاستگذاری محصول را رهبری میکرد؛ تیمی که مسئول تدوین قوانین استفاده از محصولات OpenAI و طراحی سازوکارهای اجرایی برای آنها بود.
بایرمیستر قویاً این اتهامات را رد کرده و به وال استریت ژورنال گفته است: “این ادعا که من به کسی تبعیض وارد کردهام، کاملاً نادرست است.” با وجود این اختلافات، OpenAI اعلام کرد که خروج او “مربوط به هیچ مسئلهای که او در طول کار در شرکت مطرح کرده باشد، نبوده است.” این در حالی است که گزارشها حاکی از آن است که بایرمیستر پیش از اخراجش در ژانویه، نگرانیهای خود را در مورد “حالت بزرگسالان” و اثرات مضر بالقوه آن با همکارانش مطرح کرده بود و همچنین معتقد بود رویکرد OpenAI برای مسدودسازی محتوای سوءاستفاده از کودکان و جلوگیری از دسترسی نوجوانان به محتوای بزرگسالان ناکافی است.
نگرانیها پیرامون محتوای اروتیک و ایمنی کاربر
تصمیم OpenAI برای معرفی “حالت بزرگسالان” که به کاربران تأیید هویت شده اجازه مکالمات با مضامین جنسی را میدهد، با انتقادات داخلی و خارجی مواجه شده است. سم آلتمن، مدیرعامل OpenAI، پیشتر اعلام کرده بود که هدف از این تغییر، رفتار با کاربران بزرگسال مانند بزرگسالان است، پس از آنکه رویکردهای اولیه بیش از حد محدودکننده بودهاند. او در اکتبر گفته بود: “اکنون که ما… موانع سنی قویتری را پیادهسازی میکنیم و به عنوان بخشی از اصل خود مبنی بر ‘رفتار با کاربران بزرگسال مانند بزرگسالان’، اجازه خواهیم داد حتی محتوای بیشتری مانند اروتیکا برای بزرگسالان تأیید شده وجود داشته باشد.”
این امر باعث نگرانیهایی در میان برخی کارمندان شده است. استیون آدلر، کارمند سابق OpenAI که مسئولیت ایمنی محصول را بر عهده داشت، در مقالهای هشدار داد که OpenAI نباید بدون اثبات علنی رسیدگی دقیق به خطرات جدی سلامت روان، اقدام به ارائه محتوای اروتیکا کند. آدلر فاش کرده بود که در بهار ۲۰۲۱ با یک “بحران” در محتوای نقشآفرینی اروتیک مواجه شده است و نسبت به “وابستگی عاطفی شدید” به چتباتها هشدار داده بود.
- رایان بایرمیستر، معاون سابق سیاستگذاری محصول OpenAI، اخراج خود را تکذیب کرده است.
- او یکی از چندین کارمندی بود که نگرانیهایی را در مورد راهاندازی “حالت بزرگسالان” در ChatGPT مطرح کردند.
- نگرانی اصلی بر اثرات بالقوه محتوای اروتیک بر سلامت روان کاربران متمرکز بود.
- OpenAI بر توسعه تدریجی این قابلیت برای کاربران بزرگسال تأیید هویت شده تأکید دارد.
- بایرمیستر در زمان حضورش در OpenAI، برنامه منتورینگ همتا برای زنان در این تجارت راهاندازی کرده بود.
“این ادعا که من تبعیض علیه کسی وارد کردهام، کاملاً نادرست است.”
آدلر استدلال کرد که OpenAI تحت فشار رقابتی بیش از حد سریع حرکت کرده و باید با گزارشدهی شفاف، کار خود را در اثبات مؤثر بودن اقدامات حفاظتی گسترش دهد.
این حادثه بار دیگر بحثهای جدی در مورد تعادل بین ارائه امکانات جذابتر در مدلهای هوش مصنوعی پیشرفته و حفظ استانداردهای بالای اخلاقی و ایمنی، به خصوص در برابر محتوای حساس، را در صنعت فناوری برجسته میکند. آینده سیاستگذاریهای محتوایی OpenAI تحت این تنشها شکل خواهد گرفت.



