أعلنت شركة OpenAI في بيان مدوّن رسمي أنها ستوجه القدرات المتقدمة للنماذج نحو الدفاع السيبراني وليس الهجوم. أكدت الشركة أنها تستثمر بشكل مكثف في أدوات تدعم فرق الأمن الإلكتروني، وتسهّل تدقيق الأكواد واكتشاف الثغرات وترقيعها بشكل أسرع وأكثر دقة. وذكرت أن قوة الذكاء الاصطناعي يجب أن تخدم الحماية بدلاً من أن تشكل تهديداً قد يعزز الهجمات الرقمية. وتؤكد الخطة أن التطوير يجب أن يوازي معايير الحماية لضمان الاستخدام المسؤول.

التوجه الدفاعي للذكاء الاصطناعي

أعلنت OpenAI أنها ستطبق نظام وصول طبقي إلى القدرات المتقدمة، بحيث يحصل الباحثون الأمنيون وفرق الدفاع السيبراني على وصول مبكر وموسع بعد اجتياز معايير تحقق صارمة. يهدف النظام إلى ضمان أن الأدوات الأكثر قوة تبقى في أيدي الجهات المؤهلة القادرة على استخدامها في الدفاع وليس الاستغلال. وتؤكد الشركة أن هذه الإجراءات ترفع جودة الاستجابة للحوادث وتقلل مخاطر إساءة الاستخدام.

حوكمة وموارد جديدة

أعلنت OpenAI تأسيس مجلس Frontier Risk Council الذي يضم خبراء الأمن السيبراني والدفاع الرقمي للعمل جنبًا إلى جنب مع فرق التقنية والسياسات. سيبدأ المجلس بالجانب السيبراني ثم يتوسع ليمتد إلى مجالات مخاطر أخرى مرتبطة بالنماذج المتقدمة للذكاء الاصطناعي. يهدف المجلس إلى تعزيز التفاعل بين التطوير والضمان والالتزام التنظيمي لضمان استخدام آمن ومسؤول.

إدارة المخاطر والأولويات التنفيذية

تشير تقارير داخلية إلى أن الرئيس التنفيذي سام ألتمان دفع الفرق إلى تسريع التطوير بناءً على ملاحظات المستخدمين المباشرة، مع الاعتماد على تعليقات بنقرة واحدة من مستخدمي الخدمات. رغم أن هذه الاستراتيجية تسرع من تدريب النماذج، تسبب جدلاً داخليًا بسبب مخاوف من إدخال بيانات غير مصفاة أو متقلبة. تؤكد OpenAI أن الهدف الأساسي يتركز على الاستخدام الآمن والفعال للأدوات الأكثر قوة لصالح الدفاع السيبراني، مع التشديد على مسؤولية الإدارة والتنظيم.

شاركها.