سلیمان، مدیرعامل مایکروسافت هوش مصنوعی: هیچکس نمیخواهد “آسیب گسترده” ایجاد کند
مصطفی سلیمان، مدیرعامل مایکروسافت هوش مصنوعی، درباره اهمیت برخورد با قابلیتهای فزاینده هوش مصنوعی با شفافیت، حسابرسی منظم و تعامل با دولت بحث میکند. او میگوید: «هیچکس نمیخواهد آسیب گسترده ایجاد کند» و بر لزوم احتیاط در توسعه ابَر هوشمندی تأکید میورزد.
دیدگاه مایکروسافت درباره توسعه امن هوش مصنوعی
مصطفی سلیمان، مدیرعامل مایکروسافت هوش مصنوعی، در مصاحبهای موضع شرکت خود را در قبال توسعه ابَر هوشمندی (Superintelligence) تشریح کرد. وی بر مفهوم «ابَر هوشمندی انسانگرا» (Humanist Superintelligence) تأکید دارد؛ سیستمی که همواره در کنار انسانها و همسو با منافع آنها عمل کند. سلیمان معتقد است دستیابی به سیستمی که بتواند هر کار جدیدی را یاد بگیرد و در تمامی وظایف بهتر از تمام انسانها عمل کند، همراه با ریسکهای قابل توجهی است. نکته کلیدی این است که چگونه میتوان قابلیتهای چنین سیستمی قدرتمندی را محدود و با اهداف انسان همسو کرد.
- خط قرمزهای توسعه: سلیمان «مهارپذیری» (Containment) و «همسویی» (Alignment) را به عنوان پیشنیازهای ضروری برای ادامه مسیر توسعه ابر هوشمندی عنوان میکند.
- مواجهه با آینده: او پیشبینی میکند که در ۵ تا ۱۰ سال آینده، سیستمهای هوش مصنوعی ممکن است قابلیتهایی مانند تعیین اهداف خود، بهبود کدهای خود و عمل مستقل را کسب کنند.
- رویکرد مایکروسافت: مایکروسافت با سابقه ۵۰ ساله و جایگاه قابل اعتماد خود، قصد دارد با احتیاط، شفافیت بیشتر، حسابرسی و تعامل با دولتها به این چالشها بپردازد.
- ارزیابی رقبا: سلیمان اگرچه مستقیماً از رقبا مانند OpenAI انتقاد نمیکند، اما اشاره میکند که در حال حاضر شواهدی از «آسیب گسترده بزرگمقیاس» دیده نمیشود.
- ایده مشترک صنعت: او اظهار میدارد که هیچیک از فعالان این حوزه نمیخواهند آسیب گسترده ایجاد کنند و همگی در نهایت متعهد به بقا و رفاه نوع بشر هستند.
«هیچکس نمیخواهد آسیب گسترده ایجاد کند. اساساً، حتی با وجود اختلاف نظرها، واضح است که همه به بقای گونه ما متعهد هستند.»
«چارچوبی که من ترجیح میدهم، چارچوب یک ابر هوشمندی انسانگرا است؛ هوشمندی که همیشه در کنار ما و در تیم ما و همسو با منافع انسان است.»
این موضعگیری، مایکروسافت را به عنوان بازیگری محتاط و مسئولیتپذیر در عرصه رقابت برای دستیابی به ابر هوشمندی متمایز میسازد.




