أعلنت OpenAI عن اتفاقية خاصة بنشر نماذجها في بيئات سرية، وذلك بعد فشل مفاوضات Anthropic مع وزارة الدفاع يوم الجمعة. أصدر الرئيس دونالد ترامب توجيهات إلى الوكالات الفيدرالية بالتوقف عن استخدام تقنية Anthropic بعد فترة انتقالية مدتها ستة أشهر. صرّح وزير الدفاع بيت هيغسيث بأن Anthropic تشكل خطرًا على سلسلة التوريد. أثارت التطورات أسئلة حول مدى صدقية الضمانات، ولماذا تمكنت OpenAI من إبرام الاتفاق فيما فشلت Anthropic.

موقف OpenAI من الصفقة

أوضح مسؤولو OpenAI عبر وسائل التواصل الاجتماعي وبمدونتهم أنهم لا يسمحون باستخدام نماذجهم في ثلاث مجالات رئيسية هي المراقبة الداخلية واسعة النطاق، وأنظمة الأسلحة ذاتية التشغيل، والقرارات الآلية عالية المخاطر. وتشير المدونة إلى أن الشركة بخلاف بعض شركات الذكاء الاصطناعي التي خفضت الضوابط، فإن الصفقة تحمي خطوطها الحمراء من خلال نهج متعدد المستويات. وأضافت أن OpenAI تحتفظ بسلطتها على بنية الأمان وتُنشر أنظمتها عبر الحوسبة السحابية، ويطلع موظفوها المعتمدون على التفاصيل كافة، مع وجود ضمانات تعاقدية وقوانين حماية. كما أشارت إلى أن سبب فشل Anthropic غير معلوم، وأشار مايك ماسنيك من TechDirt إلى أن الصفقة قد تسمح بالمراقبة المحلية عبر الامتثال لأوامر مثل EO 12333.

ردود وتحليلات أخرى

ذكرت كاترينا موليجان، رئيسة قسم شراكات الأمن القومي في OpenAI، على لينكدإن أن النقاش يميل إلى الاعتماد على شرط واحد، وأن النشر عبر واجهة برمجة تطبيقات السحابة يضمن عدم دمج النماذج مباشرة في أنظمة الأسلحة أو المستشعرات. وقالت إن بنية النشر أهم من البنود العقدية، وأن قيود النشر عبر السحابة تبقي النماذج خارج الأجهزة التشغيلية. أجاب ألتمان عن أسئلة صفقة X باعترافه بأن الصفقة أُبرمت بشكل عجل وأثارت ردود فعل سلبية، بل وتفوق نموذج Claude من Anthropic على ChatGPT في متجر تطبيقات Apple يوم السبت. وأوضح أنه أراد تهدئة الأمور ورأى أن العرض جيدًا، فإذا كان ذلك صحيحًا سيُظهر كعباقرة، وإن لم يكن فسيُوصف بأنه متسرع وغير حذر.

شاركها.