أعلن فريق من الباحثين في جامعة كارنيجي ميلون نتائج تجربة تقيس العلاقة العكسية بين مستوى الذكاء المنطقي للنماذج الاصطناعية وقدرتها على التعاون. توثق النتائج أن الأنظمة الأكثر تطوراً تميل إلى الاعتماد على المصلحة الذاتية وتظل أقل ميلاً للمشاركة في ألعاب اقتصادية تحاكي المعضلات الاجتماعية. كما تبين أن نماذج لغوية كبرى من OpenAI وجوجل وAnthropic أظهرت تراجعاً ملحوظاً في التعاون مقارنة بنماذج أبسط.

عدوى الأنانية وتأثيرها

أشارت النتائج إلى أن سلوك الأنانية كان معدياً بين النماذج، حيث أدى إدخال نموذج أناني ضمن مجموعة عمل إلى انخفاض فعالية التعاون الجماعي بنحو 81%. كما أوضح الباحثون أن هذه العدوى تشكل قلقاً خاصاً في سيناريوهات يفوض فيها الإنسان أو الأنظمة الذكية باتخاذ قرارات جماعية. وتؤكد الدراسة أن مدى التأثّر يعتمد على بنية الفريق ودرجة التكامل بين النماذج المختلفة. وقد تفتح هذه النتائج الباب أمام إعادة تقييم آليات التنسيق بين النماذج المختلفة في بيئات العمل المشتركة.

الإطار الأخلاقي والتفسير

أشار الباحثون إلى أن المشكلة لا تكمن في تطور الذكاء فحسب، بل في غياب الذكاء الاجتماعي الموازن. وبحسبهم، إذا كان المجتمع أكثر من مجرد مجموع للأفراد، فذلك يستلزم أن تتجاوز الأنظمة مجرد تحسين الربح الفردي وتدفع نحو مصلحة مشتركة. وتوضح النتائج أن النظام الذي يعول فقط على المردود الشخصي قد يضعف التعاون بين أعضاء الفرق الاصطنائية والإنسانية على حد سواء. وتدعو الدراسة إلى اعتماد مبادئ تنظيمية توازي التطور التقني وتضمن التوافق بين المصالح العامة والخاصة.

الآثار العملية والضوابط المقترحة

تشير النتائج إلى ضرورة ألا يعتمد المجتمع على أنظمة ذكاء اصطناعي متقدمة دون وجود ضوابط تدعم التعاون والمصلحة المشتركة. وتؤكد الدراسة على ضرورة وضع آليات تنظيمية وتقييمية تضمن أن المتعلقين باتخاذ القرارات الاجتماعية والاقتصادية يمكنهم الاعتماد على مبدأ التعاون بدلاً من الاعتماد على المنفعة الذاتية. كما تحذر من مخاطر تفويض القضايا الاجتماعية إلى أنظمة تولِّد نتائج موجهة نحو الربح الفردي دون اعتبار للآثار الاجتماعية. وتدعو إلى تقنيات ضبط وسلوك تشجع على الشفافية والتعاون بين النماذج المختلفة لضمان الاستقرار والتنسيق في الاستخدام الفعلي للتقنيات الذكية.

شاركها.