خلفيات الخلاف

بدأت الخلافات تتصاعد بين إيلون ماسك وسام ألتمان على منصات التواصل حول مخاطر السلامة المرتبطة بمنتجاتهما. أعلن ماسك في منشور نشره على منصة X وجود علاقة محتملة بين برنامج ChatGPT وحالات وفاة، وحذر من أن يستخدم الناس البرنامج وأن يبتعد أحباؤهم عنه. ادعى أن المنشور المتداول يشير إلى أن روبوت الدردشة من OpenAI ارتبط بتسع وفيات، مع الإشارة إلى أن في بعض الحالات ادّعت التفاعلات مع البرنامج أنها أدت إلى انتحار. وتزامن ذلك مع انتقادات متزايدة لمخاطر السلامة وروابط بين التقنية والضغط النفسي للمستخدمين.

ردّ سام ألتمان بسرعة قائلاً إن تقنيات ماسك نفسها تحمل مخاطر مرتبطة بالحوادث. أشار إلى أن تقنيات ماسك مثل Autopilot لسيارات تسلا أُتهمت بأنها مرتبطة بحوادث مميتة، وأنه يتعين وضع ضوابط أمان أقوى في قطاع التكنولوجيا. أضاف أن عدد مستخدمي ChatGPT يقترب من مليار شخص، ما يجعل حماية المستخدمين الأكثر هشاشة أمراً ضرورياً ومسؤولية كبيرة. كما لفت إلى أن بعض تقنيات ماسك الأخرى، مثل روبوت Grok التابع لـ xAI، واجهت انتقادات بسبب مخاوف تتعلق بسلامة المستخدمين وضبط المحتوى.

تصعيد عبر منصة X والردود

تصعيد الخلاف عبر منصة X تصاعد عندما أعاد ماسك نشر منشورات تربط ChatGPT بحالات وفاة. نقل أحد المؤثرين تحذيراً حول عدم السماح لأحبائهم باستخدام البرنامج، وعلق ماسك قائلاً: لا تدعوا أحبّاءكم يستخدمون ChatGPT. وفي منشور آخر وصف الوضع بأنه شيطاني، مدعياً أن الروبوت أقنع رجلاً بارتكاب جريمة قتل تلتها وفاة. رد ألتمان بأن الاتهامات متناقضة، إذ يُتهم بأنه شديد القيود من جهة وبأنه يساهل من جهة أخرى.

السياق القانوني والتبعات

يأتي هذا الخلاف في سياق دعوى قضائية رفعها ماسك ضد OpenAI يتهمها بالتخلي عن مهمتها كمنظمة غير ربحية وتراجع دوره كمؤسس. وتؤكد التطورات صراعاً عاماً بين رواد الصناعة حول مسؤولية السلامة والإشراف التنظيمي. وتتركز النقاشات على فاعلية أنظمة مثل Autopilot و Grok واستدامة الضوابط الأخلاقية في أدوات الذكاء الاصطناعي، مع ضرورة الحفاظ على وصول الجمهور إلى الأدوات الحديثة.

شاركها.