پنتاگن از Claude AI برای دستگیری مادورو استفاده کرد
بر اساس گزارشهای WSJ و Axios، ارتش آمریکا در عملیات ضبط نیکلاس مادورو در ونزوئلا از مدل Claude شرکت Anthropic بهره برد؛ این استفاده خلاف سیاستهای حفاظتی شرکت است.

استفاده پنتاگن از Claude AI در عملیات مادورو
در اوایل سال ۲۰۲۶، پنتاگن بهمنظور دستگیری رئیسجمهور ونزوئلایی نیکلاس مادورو، از مدل هوش مصنوعی Claude AI متعلق به Anthropic استفاده کرد. گزارشهای منتشر شده توسط Axios و Wall Street Journal نشان میدهد که این مدل نه تنها در مرحلهٔ برنامهریزی، بلکه در حین عملیات فعال، برای تجزیه و تحلیل تصاویر ماهوارهای، پردازش دادههای اطلاعاتی و اتخاذ تصمیمات زمان واقعی به کار رفته است. این اقدام برخلاف سیاستهای حفاظتی Anthropic است که استفاده از فناوریهای خود برای «تسهیل خشونت، ساخت سلاح یا نظارت» را ممنوع میداند. اگرچه تعداد دقیق افراد کشتهشده مشخص نیست، اما گزارشها حاکی از کشتهشدن دهها نظامی ونزوئلایی و کوبایی است. استفاده از هوش مصنوعی در عملیات نظامی، بحثهای گستردهای دربارهٔ اخلاق، کنترل و نظارت دولتی بر فناوریهای پیشرفته ایجاد کرده است.
- Claude AI در زمان واقعی به تجزیه و تحلیل اطلاعات میپرداخت.
- استفاده از مدل مخالف سیاستهای شرکت Anthropic است.
- این اقدام نسبت به قراردادهای مشابه با OpenAI، Google و xAI متفاوت است.
- مذاکرات جاری دربارهٔ سستی در محدودیتهای استفاده نظامی هوش مصنوعی ادامه دارد.
- خطرات اخلاقی و امنیتی استفاده از AI در جنگهای آینده مورد نگرانی محققان است.
“ما نمیتوانیم در مورد استفاده خاص Claude از سوی پنتاگن اظهار نظر کنیم؛ هرگونه استفاده باید با سیاستهای استفاده ما مطابقت داشته باشد.”
“دنیای ما در خطر است؛ استفاده بدون محدودیت از هوش مصنوعی میتواند پیامدهای فاجعهباری داشته باشد.”
در پایان، این رخداد نشان میدهد که هوش مصنوعی دیگر فقط در حوزهٔ تجاری و مردمی محدود نیست و بهسرعت به عرصهٔ امنیت و عملیات نظامی وارد میشود. ضرورت ایجاد چارچوبهای قانونی بینالمللی برای کنترل این فناوریهای پیشرفته بیش از پیش احساس میشود.


