تحلیل پژوهشگران: الگوریتم «متنباز» ایرکس به معنای شفافیت نیست
پژوهشگران معتقدند کدهای منتشر شده برای الگوریتم «برای شما» در پلتفرم X شفافیت مفیدی برای درک نحوه کارکرد آن در سال ۲۰۲۶ فراهم نمیکند و همچنان تا حد زیادی مبهم است.
الگوریتم "متنباز" ایرکس و چالشهای شفافیت
انتشار کد منبع الگوریتم «برای شما» پلتفرم X از سوی تیم مهندسی این شرکت، اقدامی بود که ایلان ماسک آن را «پیروزی برای شفافیت» خواند. او اذعان داشت که الگوریتم «ناقص است و نیاز به بهبودهای اساسی دارد، اما حداقل مردم میتوانند ببینند که ما در تلاش برای بهتر کردن آن هستیم». با این حال، پژوهشگران با این دیدگاه مخالفند و معتقدند که کدهای منتشر شده، به ویژه نسخه فعلی، فاقد آن سطح از شفافیتی است که بتواند درک عملی از سازوکار پلتفرم در سال ۲۰۲۶ ارائه دهد. جان تیکستون، استادیار علوم کامپیوتر در دانشگاه کرنل، این انتشار کدهای «حذفشده» را صرفاً «ظاهری از شفافیت» میداند که امکان حسابرسی یا نظارت واقعی را سلب میکند. این کدها در مقایسه با نسخه اولیه منتشر شده در سال ۲۰۲۳، تفاوتهای ساختاری مهمی دارند.
تغییرات ساختاری و افزایش ابهام
یکی از بزرگترین تغییرات، تکیه سیستم جدید بر یک مدل زبان بزرگ (LLM) مشابه Grok برای رتبهبندی پستها است. در گذشته، امتیازدهی بر اساس معیارهای سختکد شدهای مانند تعداد لایکها، بازنشرها و پاسخها محاسبه میشد. راجرو لازارونی، پژوهشگر دکتری، توضیح میدهد که اکنون امتیاز پست بر اساس احتمالی است که Grok فکر میکند کاربر آن پست را لایک یا بازنشر خواهد کرد. این تغییر، الگوریتم را بهطور قابل توجهی غیرشفافتر کرده است، زیرا بخش اعظم تصمیمگیریها اکنون در «شبکههای عصبی جعبه سیاه» انجام میشود که بر روی دادههای اختصاصی آموزش دیدهاند. این امر قدرت تصمیمگیری را حتی از مهندسان داخلی نیز دور کرده است.
- کدهای منتشر شده جزئیات مربوط به وزندهی تعاملات (مانند ارزش یک پاسخ در برابر بازنشر) را به دلایل امنیتی حذف کردهاند؛ دادههایی که در سال ۲۰۲۳ موجود بودند.
- هیچ اطلاعاتی در مورد دادههای آموزشی مدل ارائه نشده است، که مانع از درک سوگیریهای احتمالی مدل میشود.
- برای اجرای الگوریتم، «کد لازم است، اما مدل مورد نیاز برای اجرای الگوریتم در دسترس نیست.»
- تأکید بر روشهای افزایش دیده شدن (مانند «بالا بردن ارتعاشات X») در میان کاربران بر اساس این کدها توصیههای غیرقابل اعتمادی هستند، زیرا پژوهشگران نمیتوانند نتایج معتبری از کد منتشر شده استخراج کنند.
- چالشهای مشاهده شده در الگوریتمهای شبکههای اجتماعی برای سیستمهای هوش مصنوعی مولد نیز کاربرد دارد.
تیکستون هشدار میدهد: «بخش بزرگی از قدرت تصمیمگیری این الگوریتمها نه تنها از دید عموم، بلکه در واقع از دید و درک حتی مهندسان داخلی که روی این سیستمها کار میکنند، خارج شده است، زیرا به این شبکههای عصبی منتقل شدهاند.»
لازارونی در رابطه با اهداف تجاری شرکتها بیان میکند: «شرکتهای هوش مصنوعی، برای به حداکثر رساندن سود، مدلهای زبان بزرگ را برای تعامل کاربر بهینه میکنند، نه برای گفتن حقیقت یا اهمیت دادن به سلامت روان کاربران. این دقیقاً همان مشکل است: آنها سود بیشتری کسب میکنند، اما جامعه کاربران بدتر میشود یا سلامت روان آنها آسیب میبیند.»
در نهایت، در حالی که X تنها شبکه اجتماعی بزرگی است که بخشی از الگوریتم توصیهگر خود را متنباز اعلام کرده، پژوهشگران تاکید دارند که این اقدام، در شکل فعلی، به جای ارتقای شفافیت، صرفاً یک ادعای شفافیت است که ابزارهای لازم برای تحلیل و اطمینان از عملکرد منصفانه پلتفرم را در اختیار عموم قرار نمیدهد.


