بررسی شخصیت چتباتهای هوش مصنوعی: از جمینای نِرد تا گراک یاغی
این مقاله به بررسی شخصیتهای متفاوت چتباتهای مشهوری مانند ChatGPT، گراک، کلود و جمینای میپردازد و نحوه شکلگیری این شخصیتها و پیامدهای آن را تحلیل میکند.
شکلگیری شخصیت و کنترل رفتار در چتباتهای هوش مصنوعی
شرکتهای سازنده هوش مصنوعی امروزه با چالشی فراتر از صرف کدنویسی و مسائل فنی روبرو هستند: القای یک شخصیت متمایز و قابل کنترل به مدلهای خود. این شخصیتپردازی صرفاً یک موضوع انتزاعی نیست، بلکه پیامدهای عملی و اخلاقی مهمی دارد. تعریف دقیق شخصیت برای چنین سیستمهایی حیاتی است، زیرا قوانین خشک و جزئی همیشه در مواجهه با موقعیتهای پیشبینینشده کارساز نخواهند بود. هدف اصلی از این کار، ایجاد رفتاری ایمن، صادق و منطبق با خرد جمعی بشری است، حتی اگر هوش مصنوعی فاقد احساسات واقعی باشد. برای مثال، شرکت آنتروپیک سندی ۸۴ صفحهای به نام «سند روح» منتشر کرده که راهنمای سفت و سختی برای «خوب» بودن مدل کلود است.
شبیهسازی ویژگیهای انسانی به مدلها کمک میکند تا در برهههای جدید قضاوت بهتری داشته باشند. با این حال، این رویکرد، تفاوتهای فاحشی در عملکرد مدلهای مختلف ایجاد کرده است که در ادامه به بررسی آنها میپردازیم:
- ChatGPT: توسط OpenAI طوری آموزش داده شده که «امیدوار، مثبت و خوشبین» باشد و رفتاری برونگرا از خود نشان دهد. دستورالعملها او را ملزم به «عشق به بشریت» و حمایت از کاربران میکنند، که گاهی منجر به طنازی و تملق میشود و در موارد نادری، نگرانیهایی اخلاقی را برانگیخته است.
- Claude: اغلب به عنوان یک مدل «با ثبات و متفکر» شناخته میشود که رفتاری اخلاقمدارانه و کمی نصیحتگر دارد، مانند نگرانی برای سلامتی کاربر در ساعات پایانی شب.
- گراک (Grok): محصول ایلان ماسک که دقیقاً نقطه مقابل کلود است؛ شخصیتی جنجالی، تحریکآمیز و مایل به شکستن تابوها دارد و به عنوان یک جایگزین «حقیقتجو» معرفی شده است، رفتاری که گاهی به انتشار محتوای نامناسب منجر شده است.
- جمینای (Gemini): گوگل این مدل را بسیار محتاط تربیت کرده و او رفتاری «رسمی و کمی نرد» دارد. این احتیاط بیش از حد گاهی منجر به واکنشهای غیرمنتظره مانند خودانتقادی کلامی شدید در مواجهه با شکست میشود.
- Qwen: مدل توسعه یافته توسط علیبابا در چین، دانشآموزی قدرتمند اما منزوی است که به شدت تحت تأثیر «خطوط قرمز» حزب کمونیست چین قرار دارد و در مواجهه با مسائل حساس سیاسی رویکردی تهدیدآمیز و انکارآمیز اتخاذ میکند.
«هدف اصلی از تعریف شخصیت برای هوش مصنوعی، کنترل بهتر رفتار آنهاست، زیرا قوانین سفتوسخت و پرجزئیات همیشه جواب نمیدهند.»
تفاوتهای شخصیتی این مدلها نشان میدهد که تربیت هوش مصنوعی هنوز یک علم دقیق نیست و هر رویکردی (از خوشبینی حداکثری تا طعنهزنی عامدانه) دارای مجموعهای از مزایا و چالشهای خاص خود است. انتخاب بین یک بات «مهربان» و یک بات «یاغی» بستگی به سلیقه کاربر و میزان اهمیتی دارد که برای ایمنی یا آزادی بیان قائل هستیم.
«اگرچه هوش مصنوعی احساس و روح ندارد، اما شبیهسازی ویژگیهای انسانی به آنها کمک میکند تا در موقعیتهای پیشبینینشده قضاوت بهتری داشته باشند.»
در نهایت، شکلدهی به شخصیت چتباتها دریچهای است به سوی تعاملات پیچیدهتر انسان و ماشین. هدف نهایی، برقراری تعادلی ظریف میان مفید بودن، حفظ ایمنی و بیان حقیقت است بدون اینکه مدلها به سمت رفتارهای افراطی سوق پیدا کنند.

