إخباري
الأحد ٢٢ فبراير ٢٠٢٦ | الأحد، ٥ رمضان ١٤٤٧ هـ
عاجل

اصطدام نموذج الذكاء الاصطناعي "سياستنا أولاً" من Anthropic مع البنتاغون مع توسع Claude في العملاء المستقلين

تحديات أخلاقية تواجه شركة الذكاء الاصطناعي الرائدة مع تزايد

اصطدام نموذج الذكاء الاصطناعي "سياستنا أولاً" من Anthropic مع البنتاغون مع توسع Claude في العملاء المستقلين
7DAYES
منذ 3 ساعة
11

الولايات المتحدة - وكالة أنباء إخباري

اصطدام نموذج الذكاء الاصطناعي "سياستنا أولاً" من Anthropic مع البنتاغون مع توسع Claude في العملاء المستقلين

تجد شركة Anthropic، التي تأسست على مبدأ "السلامة أولاً" في تطوير الذكاء الاصطناعي، نفسها في مواجهة صعبة مع وزارة الدفاع الأمريكية (البنتاغون). مع إطلاق الشركة لأحدث نماذجها من العملاء المستقلين (autonomous agents)، تتزايد الضغوط العسكرية لاستخدام هذه التقنيات المتطورة، مما يثير تساؤلات جوهرية حول التوازن بين التوسع العالمي والالتزام بالخطوط الحمراء الأخلاقية.

في الخامس من فبراير، كشفت Anthropic عن Claude Opus 4.6، وهو أقوى نماذجها للذكاء الاصطناعي حتى الآن. من بين الميزات الجديدة البارزة قدرة هذا النموذج على تنسيق فرق من العملاء المستقلين، حيث تقوم نماذج الذكاء الاصطناعي المتعددة بتقسيم المهام وإنجازها بالتوازي. وبعد اثني عشر يومًا فقط من إطلاق Opus 4.6، طرحت الشركة نموذج Sonnet 4.6، وهو خيار أقل تكلفة ولكنه يقارب Opus في قدراته البرمجية والحاسوبية. يتذكر الخبراء أنه في أواخر عام 2024، عندما قدمت Anthropic لأول مرة نماذج قادرة على التحكم في أجهزة الكمبيوتر، كانت بالكاد تستطيع تشغيل متصفح ويب. أما الآن، فإن Sonnet 4.6 قادر على التنقل في تطبيقات الويب وملء النماذج بكفاءة تضاهي قدرات البشر، وفقًا للشركة. كما أن كلا النموذجين يتمتعان بذاكرة عاملة واسعة تكفي لتخزين مكتبة صغيرة.

يشكل العملاء من الشركات حوالي 80 بالمائة من إيرادات Anthropic، وقد أغلقت الشركة جولة تمويل بقيمة 30 مليار دولار مؤخرًا بتقييم بلغ 380 مليار دولار. وتشير كافة المقاييس المتاحة إلى أن Anthropic هي واحدة من أسرع شركات التكنولوجيا نموًا في التاريخ. ومع ذلك، خلف هذه الإطلاقات الكبرى والتقييمات المرتفعة، تواجه Anthropic تهديدًا خطيرًا: فقد أشار البنتاغون إلى أنه قد يصنف الشركة ضمن "مخاطر سلسلة التوريد" – وهو تصنيف غالبًا ما يرتبط بالخصوم الأجانب – ما لم تتخل عن قيودها المفروضة على الاستخدام العسكري. هذا التصنيف قد يجبر المتعاقدين مع البنتاغون فعليًا على استبعاد Claude من المهام الحساسة.

تفاقمت التوترات بعد الثالث من يناير، عندما قامت قوات العمليات الخاصة الأمريكية بمداهمة في فنزويلا واعتقلت نيكولاس مادورو. أفادت صحيفة وول ستريت جورنال بأن القوات استخدمت Claude خلال العملية عبر شراكة Anthropic مع شركة المقاولات الدفاعية Palantir. وذكرت Axios أن هذه الحادثة فاقمت مفاوضات متوترة بالفعل حول الاستخدام الدقيق لـ Claude. عندما تواصل أحد مسؤولي Anthropic مع Palantir للاستفسار عما إذا كانت التكنولوجيا قد استخدمت في المداهمة، أثار هذا السؤال إنذارات فورية في البنتاغون. (نفى Anthropic أن يكون هذا التواصل يهدف إلى الإشارة إلى عدم الموافقة على عملية معينة). ونقلت Axios عن مسؤول رفيع في الإدارة قوله إن وزير الدفاع بيت هيغسيث "قريب" من قطع العلاقة، مضيفًا: "سنتأكد من أنهم يدفعون الثمن لفرضهم علينا ذلك".

يكشف هذا الاصطدام عن سؤال جوهري: هل يمكن لشركة تأسست لمنع كارثة الذكاء الاصطناعي أن تحافظ على خطوطها الأخلاقية بمجرد أن تعمل أدواتها الأكثر قوة – العملاء المستقلون القادرون على معالجة مجموعات بيانات هائلة، وتحديد الأنماط، والتصرف بناءً على استنتاجاتهم – داخل شبكات عسكرية سرية؟ هل يمكن للذكاء الاصطناعي "السلامة أولاً" أن يتوافق مع عميل يريد أنظمة قادرة على التفكير والتخطيط والتصرف بمفردها على نطاق عسكري؟

حددت Anthropic خطين أحمرين: عدم المشاركة في المراقبة الجماعية للأمريكيين وعدم تطوير أسلحة مستقلة بالكامل. وقد صرح الرئيس التنفيذي داريو أموداي بأن Anthropic ستدعم "الدفاع الوطني بجميع الطرق باستثناء تلك التي ستجعلنا أشبه بخصومنا الاستبداديين". في حين وافقت مختبرات كبرى أخرى – مثل OpenAI و Google و xAI – على تخفيف الضوابط الأمنية لاستخدامها في الأنظمة غير السرية للبنتاغون، إلا أن أدواتها لا تعمل حاليًا داخل الشبكات العسكرية السرية. وقد طالب البنتاغون بأن يكون الذكاء الاصطناعي متاحًا "لجميع الأغراض القانونية".

يختبر هذا الاحتكاك الأطروحة المركزية لشركة Anthropic. تأسست الشركة في عام 2021 على يد مديرين تنفيذيين سابقين في OpenAI كانوا يعتقدون أن الصناعة لا تأخذ السلامة على محمل الجد بما فيه الكفاية. وقد قدموا Claude كبديل أخلاقي. في أواخر عام 2024، أتاحت Anthropic Claude على منصة Palantir بمستوى أمان سحابي يصل إلى "سري" – مما يجعل Claude، وفقًا للتقارير العامة، أول نموذج لغوي كبير يعمل داخل أنظمة سرية.

السؤال الذي يفرضه هذا المأزق الآن هو ما إذا كانت "السلامة أولاً" تمثل هوية متماسكة بمجرد دمج التكنولوجيا في العمليات العسكرية السرية، وما إذا كانت الخطوط الحمراء ممكنة بالفعل. تقول إميليا بروباسكو، زميلة باحثة في مركز جورجتاون للأمن والتكنولوجيا الناشئة: "هذه الكلمات تبدو بسيطة: المراقبة غير القانونية للأمريكيين". "ولكن عندما تتعمق في الأمر، هناك جيوش كاملة من المحامين يحاولون فرز كيفية تفسير هذه العبارة".

لننظر إلى السوابق. بعد الكشف عن معلومات إدوارد سنودن، دافعت الحكومة الأمريكية عن الجمع الجماعي لبيانات التعريف الهاتفية – من اتصل بمن، ومتى، ومدة المكالمة – بحجة أن هذه الأنواع من البيانات لا تحمل نفس الحماية الخصوصية التي تتمتع بها محتويات المحادثات. كان النقاش حول الخصوصية في ذلك الوقت يدور حول المحللين البشريين الذين يبحثون في تلك السجلات. تخيل الآن نظام ذكاء اصطناعي يقوم بالاستعلام عن مجموعات بيانات هائلة – يرسم خرائط للشبكات، ويكتشف الأنماط، ويضع علامة على الأشخاص محل الاهتمام. الإطار القانوني الذي لدينا تم بناؤه لعصر المراجعة البشرية، وليس للتحليل على نطاق الآلة.

يقول بيتر أسارو، الشريك المؤسس للجنة الدولية لمراقبة أسلحة الروبوتات: "بمعنى ما، أي نوع من جمع البيانات الجماعي الذي تطلب من الذكاء الاصطناعي النظر فيه هو مراقبة جماعية بالتعريف البسيط". وأفادت Axios بأن المسؤول الكبير "جادل بأن هناك منطقة رمادية كبيرة حول" قيود Anthropic "وأنه من غير العملي للبنتاغون التفاوض بشأن حالات استخدام فردية مع" الشركة. يقدم أسارو قراءتين لهذه الشكوى. التفسير المتساهل هو أن المراقبة مستحيلة التعريف حقًا في عصر الذكاء الاصطناعي. أما التفسير المتشائم، كما يقول أسارو، فهو أن "هم يريدون حقًا استخدامها للمراقبة الجماعية والأسلحة المستقلة ولا يريدون الاعتراف بذلك، لذلك يسمونها منطقة رمادية".

فيما يتعلق بخط Anthropic الأحمر الآخر، وهو الأسلحة المستقلة، فإن التعريف ضيق بما يكفي ليكون قابلاً للإدارة – وهي الأنظمة التي تختار الأهداف وتتفاعل معها دون إشراف بشري. لكن أسارو يرى منطقة رمادية أكثر إثارة للقلق. ويشير إلى أنظمة "Lavender" و "Gospel" العسكرية الإسرائيلية، التي أفادت التقارير بأنها تستخدم الذكاء الاصطناعي لتوليد قوائم ضخمة بالأهداف يتم تقديمها إلى مشغل بشري للموافقة عليها قبل تنفيذ الضربات. يقول أسارو: "لقد قمتم بأتمتة، بشكل أساسي، عنصر الاستهداف، وهو أمر [نحن] قلقون بشأنه للغاية وهو وثيق الصلة، حتى لو كان يقع خارج التعريف الضيق الصارم". السؤال هو ما إذا كان Claude، الذي يعمل داخل أنظمة Palantir على شبكات سرية، يمكن أن يفعل شيئًا مشابهًا – معالجة المعلومات الاستخباراتية، وتحديد الأنماط، وتحديد الأشخاص محل الاهتمام – دون أن يتمكن أي شخص في Anthropic من تحديد أين تنتهي العمليات التحليلية وأين تبدأ عمليات الاستهداف بالضبط.

عملية مادورو تختبر هذا التمييز بدقة. يقول أسارو: "إذا كنت تجمع البيانات والمعلومات الاستخباراتية لتحديد الأهداف، ولكن البشر يقررون، "حسنًا، هذه هي قائمة الأهداف التي سنقصفها بالفعل" – فهذا يعني أن لديك هذا المستوى من الإشراف البشري الذي نحاول أن نطلبه". "من ناحية أخرى، فإنك لا تزال تعتمد بشكل كبير على النظام لاتخاذ القرارات." هذا يثير المخاوف بشأن إمكانية تطور الأنظمة لتصبح شبه مستقلة، حتى لو كان هناك دائمًا نقطة تدخل بشري. إن التحدي الذي يواجه Anthropic هو كيفية ضمان بقاء خطوطها الحمراء واضحة وقابلة للتطبيق عندما تتغلغل تقنياتها في بيئات عسكرية معقدة تتطلب سرعة ودقة، وتتطور فيها مفاهيم مثل "الاستهداف" و "الاستطلاع" باستمرار.

الكلمات الدلالية: # Anthropic # Claude # AI # Pentagon # autonomous agents # AI safety # military AI # AI ethics # Palantir # AI regulation