فجوات السلامة العالمية

يعلن المعهد عن تقرير حديث يكشف عن فجوات خطيرة في ممارسات السلامة لدى شركات الذكاء الاصطناعي العالمية، مع التركيز على أبرز اللاعبين مثل OpenAI وAnthropic وMeta وxAI. يبين التقرير أن الشركات تتسابق في بناء أنظمة فائقة الذكاء بسرعة تفوق قدرتها على ضبط سلوك النماذج والتأكد من سلامتها. كما يحذر من أن الابتكار والهيمنة على السوق يفضلان على معايير السلامة، مما يعرض المجتمع لمخاطر متعددة. وتبرز النتيجة أن المخاطر تتزايد مع اعتماد المجتمع بشكل أكبر على هذه الأنظمة.

مستوى الشفافية والحوكمة

تظهر التقييمات أن مختبرات الذكاء الاصطناعي الكبرى لم تحقق الحد الأدنى من معايير الشفافية المطلوبة، حيث تفتقر المعلومات إلى تفاصيل اختبار التحيز أو معالجة حوادث السلامة أو خطط السيطرة على سلوك النماذج المستقبلية. وتؤكد تقارير أن الكثير من هذه المختبرات لا توضّح آليات الاختبار والتدقيق التي تُطبقها، وهو ما يترك فجوات في الحوكمة والامتثال. في المقابل، حازت بعض المختبرات الأصغر في أوروبا وآسيا على إشادات لتوثيقها إجراءات السلامة بشكل أوضح، وإن كانت لا تزال بعيدة عن المعايير الدولية المرجوة.

ردود الفعل في القطاع

يردّ النقاش في القطاع على التقرير بتباين، فتؤكد Google DeepMind التزامها بتوفير آليات السلامة بالتوازي مع تطوير نماذجها، بينما وصفت شركة xAI التقرير بأنه معلومات قديمة وغير دقيقة. كما يشير الخبراء إلى أن السباق نحو الأنظمة فائقة الذكاء يسبق قدرة أنظمة السلامة على مواكبة التطور، ما يفتح باب المخاطر المحتملة على المجتمعات. يحذر الباحثون من أن أي تقاعس في إعادة ضبط الاستراتيجيات والحوكمة قد يقود إلى تحديات كبيرة مع تزايد الاعتماد على هذه الأنظمة.

شاركها.