کارگران هوش مصنوعی که به خانواده و دوستانشان توصیه میکنند از AI دوری کنند
کارگرانی که مدلهای هوش مصنوعی را آموزش میدهند به دلیل تأکید شرکتها بر سرعت به جای کیفیت، به این فناوری بیاعتماد شدهاند و استفاده از آن را به نزدیکان خود توصیه نمیکنند.

کارگران هوش مصنوعی و هشدارهای آنها
کارگرانی که در آموزش مدلهای هوش مصنوعی مانند ChatGPT و Gemini مشارکت دارند، به دلیل مشاهده ضعفهای اساسی در فرآیندهای آموزشی، به خانواده و دوستان خود هشدار میدهند که از این فناوری با احتیاط استفاده کنند یا کاملاً از آن دوری کنند. این افراد که شامل کارگران Amazon Mechanical Turk و ارزیابان پاسخهای AI هستند، معتقدند شرکتها سرعت و سودآوری را بر ایمنی و کیفیت ترجیح میدهند.
- دستورالعملهای模糊 و زمانبندیهای غیرواقعی برای تکمیل وظایف
- عدم آموزش کافی کارگران برای ارزیابی سؤالات حساس مانند مسائل پزشکی
- افزایش انتشار اطلاعات نادرست توسط چتباتها از ۱۸٪ به ۳۵٪ در یک سال
- بیاعتنایی به بازخوردهای کارگران توسط شرکتهای توسعهدهنده
- تأکید بر مفهوم “زباله داخل، زباله خارج” در کیفیت دادههای آموزشی
“من هرگز اجازه نمیدهم دختر نوجوانم از ابزارهایی مانند ChatGPT استفاده کند. این یک ممنوعیت مطلق در خانه من است.” – کریستا پاولوسکی “ما شوخی میکنیم که چتباتها عالی میشدند اگر میتوانستیم دروغ گفتن آنها را متوقف کنیم.” – یک مربی AI ناشناس
این کارگران معتقدند هوش مصنوعی نه یک فناوری فوقالعاده، بلکه شکننده و وابسته به دادههای ورودی است. آنها با ارائه آموزشهای عمومی در مورد پیامدهای اخلاقی و زیستمحیطی AI، سعی در افزایش آگاهی جامعه دارند.




