أعلنت صحيفة وول ستريت جورنال أن الجيش الأميركي استخدم أدوات الذكاء الاصطناعي المطورة من شركة أنثروبيك في ضربة ضد أهداف في إيران، وذلك بعد ساعات فقط من إصدار الرئيس ترامب أوامره للوكالات الفيدرالية بالتوقف عن استخدام هذه التقنية. وقالت الصحيفة إن قيادات عسكرية حول العالم، من بينها القيادة المركزية الأميركية في الشرق الأوسط، تستخدم أداة كلود للذكاء الاصطناعي في التقييمات الاستخباراتية وتحديد الأهداف ومحاكاة سيناريوهات المعارك. ونُقلت عن مصادر مطلعة أن الأداة تُستخدم في التخطيط والتحليل ضمن عمليات عسكرية متقابلة مع تصاعد التوترات حول تقنيات الذكاء الاصطناعي.

تداعيات الخلاف حول الذكاء الاصطناعي العسكري

وُصفت أنثروبيك بأنها تشكل تهديداً للأمن القومي. وأعلن ترامب توجيهات لجميع الوكالات الفيدرالية بإيقاف فوراً استخدام أدوات أنثروبيك للذكاء الاصطناعي، قائلاً إنها تشكل خطراً على الأمن القومي. وكان البنتاغون قد منح الشركة مهلة للموافقة على شروطه وإلا ستواجه عواقب تشمل استبعادها من عقود الدفاع.

وعلى الرغم من ذلك، نفذت القوات الأميركية عملية جوية ضد أهداف في إيران باستخدام أنظمة مدعومة من كلود، مما يبرز مدى اندماج الذكاء الاصطناعي في التخطيط والتنفيذ العسكري. ولم تكشف السلطات العسكرية عن تفاصيل مدى مشاركة كلود في العملية. ويرى المراقبون أن الخلاف القائم بين أنثروبيك والجهات الحكومية يعكس رفض الشركة استخدام نماذجها عسكرياً بشكل غير مقيد، خاصة لمشروعات مثيرة للجدل مثل الأسلحة الذاتية والمراقبة الجماعية.

وتشير التطورات إلى أن البنتاغون قد يتجه إلى الاعتماد على مزودي خدمات ذكاء اصطناعي آخرين، بما في ذلك OpenAI، لتلبية الاحتياجات العسكرية. ويستمر النقاش حول كيفية تنظيم الوصول إلى هذه النماذج وإطارها الأخلاقي والتقني. وتبرز الأسئلة حول الدور المستقبلي لتكنولوجيا الذكاء الاصطناعي في التخطيط الدفاعي وكيفية موازنة الفوائد مع المخاطر.

شاركها.