پنتاگون شرکت سازنده هوش مصنوعی کلود را «ریسک زنجیره تأمین» مینامد
وزارت دفاع آمریکا در نظر دارد شرکت Anthropic، توسعهدهنده مدل کلود را به دلیل خودداری از اصلاح منشور اخلاقیاش و محدود کردن استفاده نظامی، در فهرست ریسکهای زنجیره تأمین قرار دهد.

تنش پنتاگون و Anthropic بر سر اخلاق هوش مصنوعی
در سال ۲۰۲۶، وزارت دفاع ایالات متحده در آستانه قرار دادن شرکت Anthropic، توسعهدهندهی مدت محبوب کلود، در فهرست «ریسک زنجیره تأمین» قرار گرفته است. این اقدام که معمولاً به شرکتهایی اختصاص مییابد که بهنوعی با دولتهای خصم آمریکا ارتباط دارند، این بار به دلیل سیاستهای اخلاقی سختگیرانه Anthropic در دست بررسی است.
شرکت Anthropic، مستقر در سانفرانسیسکو، از ماهها پیش با پنتاگون بر سر کاربری نظامی فناوری کلود درگیر بوده است. در حالی که پنتاگون خواستار استفاده از کلود برای «تمام اهداف قانونی» شده، منشور اخلاقی Anthropic بهصراحت کاربری فناوری در خشونت، تسلیحات یا نظارت را ممنوع میکند.
- کلود تنها مدل هوش مصنوعی است که در حال حاضر در پلتفرمهای طبقهبندیشده ارتش از طریق همکاری با Palantir Technologies مستقر شده است.
- در صورت سیاهلیست شدن Anthropic، کلیه پیمانکاران پنتاگون باید عدم استفاده از فناوری این شرکت را اثبات کنند تا قراردادهایشان لغو نشود.
- یک مقام رسمی پنتاگون به Axios گفته: «جداسازی از این شرکت دردسر بزرگی خواهد بود و مطمئن میشویم بابت این کار هزینه بدهند.»
«تمام شرکای پنتاگون باید آماده کمک به پیروزی جنگآوران ما در هر نبردی باشند.» — Sean Parnell سخنگوی رسمی وزارت دفاع
«ما گفتوگوهای سازندهای با وزارت دفاع داشتهایم.» — سخنگوی Anthropic
این درگیری پس از آن تشدید شد که گزارشهایی درباره استفاده از کلود در عملیات ربایش نیکلاس مادورو، رئیسجمهور ونزوئلا در اوایل ژانویه ۲۰۲۶ منتشر شد. بر اساس گزارش Axios و والاستریت ژورنال، کلود در برنامهریزی و اجرای این عملیات نقش داشته، هرچند میزان دقیق مشارکت آن همچنان نامشخص است.
با وجود این اتهامات، Anthropic هفتههاست که در رسانهها خود را بهعنوان گزینهای اخلاقیتر در میان شرکتهای هوش مصنوعی معرفی میکند و بر سیاستهای ایمنی و محدودیتهای اخلاقی خود تأکید دارد.
