ایالات متحده - خبرگزاری اخباری
دره وهمآلود: درگیری پنتاگون و Anthropic بحث اخلاق هوش مصنوعی در قراردادهای دفاعی را شعلهور میکند
تنشهای پنهان به یک رویارویی تمامعیار بین شرکت پیشرو هوش مصنوعی Anthropic و وزارت دفاع ایالات متحده (پنتاگون) بر سر پارامترهای اخلاقی حاکم بر استقرار هوش مصنوعی در زمینههای نظامی تبدیل شده است. این مناقشه که یک قرارداد قابل توجه به ارزش ۲۰۰ میلیون دلار را به خطر میاندازد، تضاد عمیقتری را بین ارزشهای ذاتی صنعت فناوری در قبال مسئولیت اخلاقی و خواستههای نهاد نظامی برای دسترسی نامحدود به قابلیتهای تکنولوژیکی پیشرفته آشکار میکند.
در قلب این اختلاف، Anthropic به شدت محدودیتهای سختگیرانهای را بر نحوه استفاده از هوش مصنوعی خود اعمال کرده است. این محدودیتها به ویژه شامل ممنوعیت استفاده از آن در نظارت داخلی یا برای توسعه سیستمهای تسلیحاتی کاملاً خودکار است و بر نیاز حیاتی به «انسان در حلقه» هنگام اتخاذ تصمیمات قاطع، به ویژه آنهایی که شامل استفاده از نیروی کشنده هستند، تأکید میکند. این موضع بر فلسفه شرکت برای اطمینان از اینکه فناوری در خدمت بشریت باقی بماند، به جای تبدیل شدن به یک نهاد مستقل که بتواند بدون نظارت مستقیم انسان تصمیمات تغییردهنده زندگی بگیرد، تأکید دارد.
Read Also
- استراتژی برتری آلمان: ده دانشگاه نخبه برای هفت سال دیگر بودجه مستمر دریافت میکنند
- انتخابات شهرداری در بایرن: فضای سیاسی در سمت راست CSU سئودر در حال گسترش است
- تنگه هرمز: چگونه ایران میتواند با مینهای دریایی کشتیرانی جهانی را تهدید کند
- چین «قانون وحدت قومی» را اجرا میکند، تشدید همسانسازی اقلیتها
- مناقشة أموال الاتحاد الأوروبي: المعارضة البولندية تخشى الهيمنة الألمانية
با این حال، این موضع اخلاقی مستقیماً با دیدگاه پنتاگون در تضاد است، که بر نیاز به انعطافپذیری کامل و دسترسی نامحدود به قابلیتهای هوش مصنوعی ارائه شده توسط شرکای تجاری خود تأکید دارد. طبق گزارشها، پیت هگست، وزیر دفاع، اخیراً با داریو آمودی، مدیرعامل Anthropic، دیدار کرده و ظاهراً یک اولتیماتوم داده است: یا شرکت به خواستههای پنتاگون برای حذف محدودیتهای استفاده عمل میکند، یا با لغو قرارداد سودآور ۲۰۰ میلیون دلاری خود مواجه خواهد شد. این تشدید تنش بر ریسکهای بالای موجود در این مذاکرات تأکید میکند که فراتر از یک توافق تجاری صرف، به اصول اساسی استفاده از هوش مصنوعی در امنیت ملی میپردازد.
آنچه اصرار پنتاگون را بهویژه جذاب میکند این است که این نهاد از قبل با سایر شرکتهای برجسته هوش مصنوعی مانند xAI قرارداد دارد که ممکن است چنین محدودیتهای سختگیرانهای را اعمال نکنند. این امر سؤالات مرتبطی را در مورد ویژگی فشار آنها بر Anthropic ایجاد میکند. برخی تحلیلگران پیشنهاد میکنند که این ممکن است یک حرکت نمایشی از سوی پنتاگون باشد، با هدف ایجاد یک سابقه گستردهتر که شرکتهای فناوری که به دنبال قراردادهای بزرگ دولتی هستند، نمیتوانند ارزشهای اخلاقی یا محدودیتهای خود را در مورد استفاده از فناوری توسط دولت دیکته کنند. این پیامی روشن را ارسال میکند که دولت، و نه شرکتها، در نهایت شرایط تعامل را در حوزههای حیاتی امنیت ملی تعریف خواهد کرد.
تهدید قریبالوقوع با پیشنهاد پنتاگون مبنی بر احتمال استفاده از قانون تولید دفاعی (DPA) به اوج خود رسید. این قانون معمولاً برای زمان جنگ یا وضعیت اضطراری ملی رزرو شده است و شرکتها را مجبور میکند کالاهای فیزیکی ضروری برای تلاشهای جنگی، مانند لاستیک برای خودروهای نظامی یا ماسک در طول یک بیماری همهگیر، تولید کنند. اندیشیدن به اعمال آن برای اجبار دسترسی به نرمافزار هوش مصنوعی، یک سابقه غیرمعمول را نشان میدهد و نگرانیهایی را در مورد زیادهروی دولت در تعاملات خود با بخش خصوصی، به ویژه در مورد مالکیت فکری و محدودیتهای اخلاقی، ایجاد میکند.
Related News
- مرتز: نظم پساجنگ دیگر وجود ندارد، اروپا به حاکمیت نیاز دارد
- ذخیره یا سقوط؟ قانونگذاران از ناسا میخواهند در برنامه دفع ایستگاه فضایی بینالمللی تجدید نظر کند
- برونو: پیوستن به بلو اوریجین برای کار بر روی پروژههای "فوری" امنیت ملی
- پنج تحقیق الهامبخش تغییرات در این ماه: گزارشگری تأثیرگذار پروپابلیکا
- اولتیماتوم پنتاگون در مورد هوش مصنوعی: موضع اخلاقی Anthropic با خواستههای نظامی در تضاد است
این درگیری فراتر از رابطه بین دو نهاد، «دره وهمآلود» گستردهتر را به چالش میکشد، جایی که جامعه فناوری با تعاریف هوش مصنوعی «عاملیتمحور» در مقابل «تقلیدمحور» دست و پنجه نرم میکند – بحثی در مورد اینکه آیا سیستمهای هوشمند باید تصمیمات خودکار بگیرند (عاملیتمحور) یا صرفاً به عنوان ابزاری تحت نظارت انسانی عمل کنند (تقلیدمحور). نتیجه این مناقشه بین Anthropic و پنتاگون پیامدهای گستردهای برای آینده توسعه هوش مصنوعی، نه تنها در ایالات متحده بلکه در سراسر جهان خواهد داشت، مرزهای بین نوآوری تکنولوژیکی و مسئولیت اخلاقی را تعریف کرده و نحوه تعامل دولتها با غولهای فناوری در عصر دیجیتال را شکل خواهد داد.