اخباری
Thursday, 12 March 2026
Breaking

دره وهم‌آلود: درگیری پنتاگون و Anthropic بحث اخلاق هوش مصنوعی در قراردادهای دفاعی را شعله‌ور می‌کند

یک قرارداد ۲۰۰ میلیون دلاری در خطر است زیرا محدودیت‌های اخلا

دره وهم‌آلود: درگیری پنتاگون و Anthropic بحث اخلاق هوش مصنوعی در قراردادهای دفاعی را شعله‌ور می‌کند
7DAYES
1 week ago
29

ایالات متحده - خبرگزاری اخباری

دره وهم‌آلود: درگیری پنتاگون و Anthropic بحث اخلاق هوش مصنوعی در قراردادهای دفاعی را شعله‌ور می‌کند

تنش‌های پنهان به یک رویارویی تمام‌عیار بین شرکت پیشرو هوش مصنوعی Anthropic و وزارت دفاع ایالات متحده (پنتاگون) بر سر پارامترهای اخلاقی حاکم بر استقرار هوش مصنوعی در زمینه‌های نظامی تبدیل شده است. این مناقشه که یک قرارداد قابل توجه به ارزش ۲۰۰ میلیون دلار را به خطر می‌اندازد، تضاد عمیق‌تری را بین ارزش‌های ذاتی صنعت فناوری در قبال مسئولیت اخلاقی و خواسته‌های نهاد نظامی برای دسترسی نامحدود به قابلیت‌های تکنولوژیکی پیشرفته آشکار می‌کند.

در قلب این اختلاف، Anthropic به شدت محدودیت‌های سختگیرانه‌ای را بر نحوه استفاده از هوش مصنوعی خود اعمال کرده است. این محدودیت‌ها به ویژه شامل ممنوعیت استفاده از آن در نظارت داخلی یا برای توسعه سیستم‌های تسلیحاتی کاملاً خودکار است و بر نیاز حیاتی به «انسان در حلقه» هنگام اتخاذ تصمیمات قاطع، به ویژه آنهایی که شامل استفاده از نیروی کشنده هستند، تأکید می‌کند. این موضع بر فلسفه شرکت برای اطمینان از اینکه فناوری در خدمت بشریت باقی بماند، به جای تبدیل شدن به یک نهاد مستقل که بتواند بدون نظارت مستقیم انسان تصمیمات تغییردهنده زندگی بگیرد، تأکید دارد.

با این حال، این موضع اخلاقی مستقیماً با دیدگاه پنتاگون در تضاد است، که بر نیاز به انعطاف‌پذیری کامل و دسترسی نامحدود به قابلیت‌های هوش مصنوعی ارائه شده توسط شرکای تجاری خود تأکید دارد. طبق گزارش‌ها، پیت هگست، وزیر دفاع، اخیراً با داریو آمودی، مدیرعامل Anthropic، دیدار کرده و ظاهراً یک اولتیماتوم داده است: یا شرکت به خواسته‌های پنتاگون برای حذف محدودیت‌های استفاده عمل می‌کند، یا با لغو قرارداد سودآور ۲۰۰ میلیون دلاری خود مواجه خواهد شد. این تشدید تنش بر ریسک‌های بالای موجود در این مذاکرات تأکید می‌کند که فراتر از یک توافق تجاری صرف، به اصول اساسی استفاده از هوش مصنوعی در امنیت ملی می‌پردازد.

آنچه اصرار پنتاگون را به‌ویژه جذاب می‌کند این است که این نهاد از قبل با سایر شرکت‌های برجسته هوش مصنوعی مانند xAI قرارداد دارد که ممکن است چنین محدودیت‌های سختگیرانه‌ای را اعمال نکنند. این امر سؤالات مرتبطی را در مورد ویژگی فشار آنها بر Anthropic ایجاد می‌کند. برخی تحلیلگران پیشنهاد می‌کنند که این ممکن است یک حرکت نمایشی از سوی پنتاگون باشد، با هدف ایجاد یک سابقه گسترده‌تر که شرکت‌های فناوری که به دنبال قراردادهای بزرگ دولتی هستند، نمی‌توانند ارزش‌های اخلاقی یا محدودیت‌های خود را در مورد استفاده از فناوری توسط دولت دیکته کنند. این پیامی روشن را ارسال می‌کند که دولت، و نه شرکت‌ها، در نهایت شرایط تعامل را در حوزه‌های حیاتی امنیت ملی تعریف خواهد کرد.

تهدید قریب‌الوقوع با پیشنهاد پنتاگون مبنی بر احتمال استفاده از قانون تولید دفاعی (DPA) به اوج خود رسید. این قانون معمولاً برای زمان جنگ یا وضعیت اضطراری ملی رزرو شده است و شرکت‌ها را مجبور می‌کند کالاهای فیزیکی ضروری برای تلاش‌های جنگی، مانند لاستیک برای خودروهای نظامی یا ماسک در طول یک بیماری همه‌گیر، تولید کنند. اندیشیدن به اعمال آن برای اجبار دسترسی به نرم‌افزار هوش مصنوعی، یک سابقه غیرمعمول را نشان می‌دهد و نگرانی‌هایی را در مورد زیاده‌روی دولت در تعاملات خود با بخش خصوصی، به ویژه در مورد مالکیت فکری و محدودیت‌های اخلاقی، ایجاد می‌کند.

این درگیری فراتر از رابطه بین دو نهاد، «دره وهم‌آلود» گسترده‌تر را به چالش می‌کشد، جایی که جامعه فناوری با تعاریف هوش مصنوعی «عاملیت‌محور» در مقابل «تقلید‌محور» دست و پنجه نرم می‌کند – بحثی در مورد اینکه آیا سیستم‌های هوشمند باید تصمیمات خودکار بگیرند (عاملیت‌محور) یا صرفاً به عنوان ابزاری تحت نظارت انسانی عمل کنند (تقلید‌محور). نتیجه این مناقشه بین Anthropic و پنتاگون پیامدهای گسترده‌ای برای آینده توسعه هوش مصنوعی، نه تنها در ایالات متحده بلکه در سراسر جهان خواهد داشت، مرزهای بین نوآوری تکنولوژیکی و مسئولیت اخلاقی را تعریف کرده و نحوه تعامل دولت‌ها با غول‌های فناوری در عصر دیجیتال را شکل خواهد داد.

Keywords: # اخلاق هوش مصنوعی، پنتاگون، Anthropic، قراردادهای هوش مصنوعی، سلاح‌های خودکار، روابط دولت و فناوری، هوش مصنوعی اخلاقی، هوش مصنوعی نظامی، قانون تولید دفاعی، سیلیکون ولی